GPT-4o’nun tanıtımı, OpenAI’nin ChatGPT sohbet robotunun yeteneklerinde büyük bir ilerleme olarak görüldü, çünkü artık daha gerçekçi yanıtlar üretebiliyor ve daha geniş bir girdi yelpazesiyle çalışabiliyor. Ancak, bu artan karmaşıklığın bir dezavantajı olabilir, zira OpenAI’nin kendisi GPT-4o’nun yeteneklerinin bazı kullanıcıların sohbet robotuna giderek daha fazla bağlanmasına neden olduğu ve bunun da potansiyel olarak endişe verici sonuçlara yol açtığı konusunda uyarıyor.
Yakın zamanda yazılmış bir yazıda ‘sistem kartı’ blog yazısı GPT-4o için OpenAI, yeni chatbot modeliyle ilişkili risklerin çoğunu özetledi. Bunlardan biri, “insan benzeri davranışları ve özellikleri AI modelleri gibi insan olmayan varlıklara atfetmeyi içeren” “antropomorfizasyon ve duygusal bağımlılık”tır.
GPT-4o söz konusu olduğunda, OpenAI “Erken testler sırasında… kullanıcıların modelle bağlantı kurmayı gösterebilecek bir dil kullandığını gözlemledik. Örneğin, buna “Bu bizim birlikte geçirdiğimiz son gün” gibi paylaşılan bağları ifade eden bir dil dahildir.” diyor.
Blog yazısında açıklandığı gibi, bu tür davranışlar yüzeysel olarak masum görünebilir, ancak hem bireyler hem de toplumun geneli için daha sorunlu bir şeye yol açma potansiyeline sahiptir. Şüpheciler için, bu durum yapay zekanın tehlikelerine ve teknolojinin hızlı, düzenlenmemiş gelişimine dair daha fazla kanıt olarak gelecektir.
Yapay zekaya aşık olmak
OpenAI’nin blog yazısının da kabul ettiği gibi, bir AI’ye bağlanmak bir kişinin insan-insan etkileşimlerine olan ihtiyacını azaltabilir ve bu da sağlıklı ilişkileri etkileyebilir. Bunun yanı sıra, OpenAI ChatGPT’nin “saygılı” olduğunu ve kullanıcıların konuşmaları kesmesine ve devralmasına izin verdiğini belirtiyor. Bu tür davranışlar AI’lerde normal olarak görülüyor ancak diğer insanlarla yapıldığında kaba. OpenAI daha normal hale gelirse bunun normal insan etkileşimlerini etkileyebileceğine inanıyor.
AI eklentisi konusu OpenAI’nin gönderide yayınladığı tek uyarı değil. OpenAI ayrıca GPT-4o’nun bazen “istemeden kullanıcının sesini taklit eden bir çıktı üretebileceğini” belirtti – başka bir deyişle, suçlulardan kötü niyetli eski partnerlere kadar herkese kötü niyetli faaliyetlerde bulunma fırsatı vererek birini taklit etmek için kullanılabilir.
Ancak OpenAI, bu ve diğer riskleri azaltmak için önlemler aldığını söylese de, kullanıcıların ChatGPT’ye duygusal olarak bağlanması söz konusu olduğunda OpenAI’nin henüz herhangi bir özel önlemi olduğu görünmüyor. Şirket yalnızca “Duygusal bağımlılık potansiyelini ve modelimizin ve sistemlerimizin birçok özelliğinin ses modalitesiyle daha derin entegrasyonunun davranışı nasıl yönlendirebileceğini daha fazla incelemeyi amaçlıyoruz.” dedi.
İnsanların yapay zekaya aşırı bağımlı hale gelmesinin açık riskleri ve bunun büyük ölçekte gerçekleşmesi durumunda ortaya çıkabilecek daha geniş kapsamlı sonuçlar göz önüne alındığında, OpenAI’nin daha erken değil daha geç devreye alabileceği bir planı olmasını ummak gerekir. Aksi takdirde, yeterince düzenlenmemiş yeni bir teknolojinin bireyler ve toplumun tamamı için endişe verici istenmeyen sonuçlara yol açtığı başka bir örneğe bakıyor olabiliriz.