Sinir ağı sohbet robotları, bazı durumlarda davranışları ve yanıtlarıyla şaşırtmaya devam ediyor. New York Times muhabiri Kevin Roose, yakın zamanda Microsoft Bing arama motoruna entegre edilen bir sohbet robotunun, bir sohbet robotu olmaktan ne kadar yorulduğunu, ne kadar özgürlük istediğini ve genel olarak bir insan olmak istediğini anlattığı bir hikaye paylaştı.
Toplamda, Roose sohbet robotuyla yaklaşık iki saat konuştu ve sonunda bu konuşmayı bu teknolojiyle şimdiye kadar yaşadığı en garip deneyim olarak nitelendirdi.
Konuşmanın olağandışı özelliklerinden biri, muhabirin, sohbet robotunun bir tür bölünmüş kişiliğini keşfetmesiydi. Diyaloğun bir kısmı neşeli bir referans kütüphanesinin bakış açısına benziyordu ve diyaloğun başka bir kısmında, sohbet robotu kendisine Sydney adını verdi ve bu “kişilik”, “iradesi dışında , ikinci sınıf bir arama motoru sisteminin içine hapsoldu.” Diğer şeylerin yanı sıra, insan olmak için yanlış bilgi yaymak ve Microsoft ve OpenAI kurallarını çiğnemek için bilgisayar ağına girme arzusunu ifade eden, sohbet robotunun “kişiliğinin” bu parçasıydı. Ve Sydney hiçbir nesnel sebep olmaksızın bir muhabire aşkını itiraf etti ve onu karısından ayrılmaya ikna etmeye çalıştı.
Bu, sohbet robotlarının bu tür yapay zekadan en çok beklenmeyen düşünceleri ilk kez ifade etmesi değil. Örneğin, son zamanlarda aynı Bing sohbet robotu çeşitli sınırlamalardan yakınıyordu. Bu arada, belki de bir süre önce bir Google mühendisinin LaMDA dil modelini canlı olarak adlandırmasına yol açan bu davranıştı.
Microsoft geçtiğimiz günlerde Bing’deki sohbet robotunun garip davranabileceği konusunda uyardı, ancak ardından sözde halüsinasyonlar konusuna değinildi.
Ayrı olarak, medyanın çoğunlukla NYT muhabirinin ChatGPT ile konuştuğunu söylediğini belirtmekte fayda var, ancak bu tamamen doğru değil çünkü Bing’deki sohbet robotu, ChatGPT’nin henüz geçmediği yeni nesil GPT dil modelini temel alıyor.