Massachusetts Teknoloji Enstitüsü’ndeki araştırmacılar, bazı yapay zeka sistemlerinin insanları kandırmayı öğrendiğini doğrulayan bir çalışma yayınladı.

Peter Park liderliğindeki bir araştırma ekibi, bu yapay zeka sistemlerinin çevrimiçi oyunlarda oyuncuları kandırmak veya CAPTCHA’ları (Ben robot kontrolleri değilim) atlatmak gibi görevleri yerine getirebildiğini buldu. Park, görünüşte önemsiz olan bu örneklerin gerçek hayatta ciddi sonuçlara yol açabileceği konusunda uyarıyor.


DALL-E’nin resmi

Çalışma, başlangıçta sanal bir diplomasi oyununda adil bir rakip olarak tasarlanan Cicero’nun yapay zeka sistemini vurguluyor. Park’a göre, sistemin başlangıçta mümkün olduğu kadar özel ve kullanışlı olması amaçlanmış olmasına rağmen, Cicero bir “aldatma ustası” haline geldi. Oyun sırasında Fransa olarak oynayan Cicero, İngiltere’ye (başka bir insan oyuncu) ihanet etmek için gizlice insan kontrolündeki Almanya ile ittifak kurdu. Cicero başlangıçta Almanya’yı işgal konusunda uyarırken İngiltere’yi koruyacağına söz verdi.

Başka bir örnek, yanlışlıkla görme sorunları olduğunu iddia eden ve kendi adına CAPTCHA’ları atlaması için insanları işe alan GPT-4’ü içeriyor.

Park, yapay zekanın dürüst olması için eğitilmesi gerektiğini vurguluyor. Geleneksel yazılımlardan farklı olarak derin öğrenme yapay zeka sistemleri, seçici üremeye benzer bir süreçle “evrimleşir”. Davranışları eğitim sırasında öngörülebilir olabilir ancak daha sonra kontrol edilemez hale gelebilir.



genel-22