Şirket, “CriticGPT’nin önerileri her zaman doğru değil, ancak eğitmenlerin yapay zeka yardımı olmadan yakalayabileceklerinden çok daha fazla problemi modelle yazılmış yanıtlarla yakalamalarına yardımcı olabildiklerini görüyoruz” diye yazdı. “Ek olarak, insanlar CriticGPT’yi kullandığında, yapay zeka becerilerini artırıyor ve bu da insanların tek başına çalıştığı zamandan daha kapsamlı eleştiriler ve model tek başına çalıştığı zamandan daha az halüsinasyonlu hata ile sonuçlanıyor.”

Ve mantık sorunu burada yatıyor. Üretken AI’ya yöneltilen eleştirilerden biri, insanları taklit etmede harika olması ancak insanları gerçekten anlamaması. On yıldan fazla bir süre önce yazdığım, mühendislerin gerçek aşkı test eden bir ürün yaratmasıyla ilgili bir köşe yazısını hatırladım. (Gerçek bir üründü: Yalnızca gerçek aşkı tespit ettiğinde açılan bir Bluetooth sutyen. Gerçekten. Açık olmak gerekirse, mühendislerin insan duygularını genAI kadar kötü anladıklarını resmi olarak öne sürmüyorum. Bunu tartışmıyorum ama resmi olarak da söylemiyorum.)

GenAI mantığına geri dönersek, OpenAI’nin yaptığı hatalı varsayım, insanların yalanlar için sistemlerini kontrol etmeye devam edecekleridir. İnsanlar tembeldir ve insan BT çalışanları aşırı çalıştırılır ve yetersiz kaynaklara sahiptir. Çok daha olası sonuç, insanların AI izleyen AI’ya giderek daha fazla güvenmesidir. Gerçek tehlike burada ortaya çıkar.



genel-13