- Yeni çalışma, iki saatlik bir röportajda verilen yanıtlar üzerine yapay zeka modellerini eğitti
- Yapay Zeka, katılımcıların yanıtlarını %85 doğrulukla kopyalayabilir
- Gelecekteki araştırma çalışmalarında insanlar yerine ajanlar kullanılabilir
Kişiliğinizin benzersiz olduğunu düşünebilirsiniz, ancak bir yapay zeka modelinin tutum ve davranışlarınızın sanal bir kopyasını oluşturması için tek yapmanız gereken iki saatlik bir röportajdır. Buna göre yeni bir makale Stanford ve Google DeepMind’dan araştırmacılar tarafından yayınlandı.
Simülasyon aracıları nelerdir?
Simülasyon aracıları makale tarafından, bir kişinin davranışını ‘bir dizi sosyal, politik veya bilgisel bağlamda’ doğru bir şekilde simüle edebilen üretken yapay zeka modelleri olarak tanımlanıyor.
Araştırmada 1.052 katılımcıdan, kişisel yaşam hikayelerinden güncel toplumsal meselelere ilişkin görüşlerine kadar geniş bir yelpazedeki konuları kapsayan iki saatlik bir görüşmeyi tamamlamaları istendi. Yanıtları kaydedildi ve komut dosyası, her birey için üretken yapay zeka modellerini veya “simülasyon aracılarını” eğitmek için kullanıldı.
Bu ajanların insan benzerlerini ne kadar iyi taklit edebildiklerini test etmek için her ikisinden de kişilik testleri ve oyunlar da dahil olmak üzere bir dizi görevi tamamlamaları istendi. Daha sonra katılımcılardan iki hafta sonra kendi cevaplarını tekrarlamaları istendi. Dikkat çekici bir şekilde yapay zeka ajanları, insan katılımcılarla karşılaştırıldığında yanıtları %85 doğrulukla simüle edebildiler.
Dahası, simülasyon aracılarından beş sosyal bilim deneyinde kişilik özelliklerini tahmin etmeleri istendiğinde de benzer şekilde etkili olduğu görüldü.
Kişiliğiniz soyut veya ölçülemez bir şey gibi görünse de bu araştırma, sabit bir dizi soruya verilen niteliksel yanıtları yakalayarak, değer yapınızı nispeten az miktardaki bilgiden ayırmanın mümkün olduğunu gösteriyor. Bu verilerle beslenen yapay zeka modelleri, en azından kontrollü, teste dayalı bir ortamda kişiliğinizi ikna edici bir şekilde taklit edebilir. Bu da deepfake’leri daha da tehlikeli hale getirebilir.
Çift ajan
Araştırma, Stanford doktora öğrencisi Joon Sung Park tarafından yürütüldü. Bu simülasyon aracılarını oluşturmanın ardındaki fikir, sosyal bilim araştırmacılarına çalışmaları yürütürken daha fazla özgürlük vermektir. Bilim adamları, temel aldıkları gerçek insanlar gibi davranan dijital kopyalar oluşturarak, her seferinde binlerce insan katılımcıyı getirme masrafı olmadan çalışmalar yürütebilirler.
Ayrıca gerçek insan katılımcılarla yapılması etik olmayan deneyler de yürütebilirler. Konuşmak MIT Teknoloji İncelemesiMIT Sloan School of Management’ta bilgi teknolojileri alanında doçent olan John Horton, makalenin “gerçek insanları kullanarak daha sonra program aracılığıyla/simülasyon içinde kullanamayacağınız şekillerde kullanılabilen kişiler oluşturmak için kullanabileceğiniz bir yol gösterdiğini” söyledi. gerçek insanlar.”
Çalışmaya katılanların bu konuda ahlaki açıdan rahat olup olmadıkları başka bir şeydir. Simülasyon ajanlarının gelecekte daha hain bir şeye dönüşme potansiyeli pek çok insan için daha endişe verici olacaktır. Aynı MIT Teknoloji İncelemesi hikayesinde Park, bir gün “bir grup küçük ‘sizin’ ortalıkta dolaşıp sizin vereceğiniz kararları gerçekten verebileceğinizi” tahmin ediyordu.
Çoğu kişi için bu, distopik alarm zillerinin çalmasına neden olacak. Dijital kopya fikri, güvenlik, gizlilik ve kimlik hırsızlığıyla ilgili endişelerin kapısını aralıyor. Zaten sevdiklerinin sesini taklit etmek için yapay zekayı kullanan dolandırıcıların, çevrimiçi ortamda insanları taklit etmek için derin kişilik sahtekarlıkları oluşturabileceği bir dünyayı öngörmek için fazla hayal gücü gerektirmiyor.
Yapay zeka simülasyon aracılarının çalışmada yalnızca iki saatlik görüşme verileri kullanılarak oluşturulduğunu düşündüğünüzde bu durum özellikle endişe vericidir. Bu, şu anda şirketlerin ihtiyaç duyduğu bilgi miktarından çok daha azdır. Tavusçok sayıda kullanıcı verisine dayanarak dijital ikizler yaratıyor.