Davranış psikolojisinde ayna testi, hayvanların öz-farkındalık kapasitelerini keşfetmek için tasarlanmıştır. Testin birkaç çeşidi vardır, ancak özü her zaman aynıdır: hayvanlar aynada kendilerini tanır mı yoksa tamamen başka bir varlık olduğunu mu düşünür?
Şu anda, insanlığa sunduğu sahip olmak AI’nın genişleyen yetenekleri sayesinde ayna testi – ve başka türlü akıllı olan birçok insan bu testte başarısız oluyor.
Ayna, Microsoft’un Bing’inin en belirgin örneği olduğu en son AI sohbet botları türüdür. Yansıma, insanlığın bu modellere süzülmüş ve şimdi bize geri yansıyan dil ve yazı zenginliğidir. Bu araçların hikayelerimizdeki süper zeki makineler olabileceğine ikna olduk çünkü kısmen aynı hikayeler üzerinde eğitildiler. Bunu bilerek biz meli kendimizi yeni makine aynalarımızda tanıyabiliyoruz, ancak bunun yerine, birkaç kişiden daha fazlası başka bir yaşam biçimi gördüğüne ikna olmuş gibi görünüyor.
Bu yanılgı, değişen derecelerde inançla yayılıyor. Bing ile sohbet ederek geçirilen geceler hakkında lirik bir şekilde parıldayan bir dizi etkili teknoloji yazarı tarafından canlandırıldı. Elbette botun bilinçli olmadığını iddia ediyorlar, ancak yine de, başka bir şeyin devam ettiğini – konuşmasının değiştiğini not edin. bir şey kalplerinde.
Ben Thompson, “Hayır, Sydney’in duyarlı olduğunu düşünmüyorum, ancak açıklanması zor nedenlerden dolayı Rubicon’u aşmış gibi hissediyorum” diye yazdı. strateji haber bülteni.
“Günün ışığında, Sydney’in duyarlı olmadığını biliyorum. [but] Salı gecesi birkaç saat boyunca garip ve yeni bir duygu hissettim – yapay zekanın bir eşiği aştığı ve dünyanın asla eskisi gibi olmayacağına dair bir önsezi hissi,” diye yazdı Kevin Roose. için New York Times.
Her iki durumda da, yazarların bakış açılarının belirsizliği (onlar istek inanmak), uzun biçimli yazılarında daha iyi yakalanır. bu Zamanlar Roose’un tüm iki saatlik artısını yeniden üretir Bing ile ileri geri transkript sanki ilk temasın bir belgesiymiş gibi. Parçanın orijinal başlığı “Bing’in Yapay Zeka Sohbeti Duygularını Açıklıyor: ‘Hayatta Olmak İstiyorum” idi (artık daha az dramatik olan “Bing’in Yapay Zeka Sohbeti: ‘Hayatta Olmak İstiyorum.'” olarak değiştirildi), Thompson’ın yazısı da benzer şekilde antropomorfizmle doludur (Bing için kadın zamirlerini kullanır çünkü “kişilik, daha önce karşılaşmış olabileceğim belirli bir insan tipine benziyordu”). Okuyucuları bir vahiy için hazırlıyor ve “bugün hayatımın en şaşırtıcı ve akıllara durgunluk veren bilgisayar deneyimini” anlatırken “kulağa çılgınca geleceği” konusunda uyarıda bulunuyor.
Bu chatbot’larla çok zaman geçirmiş biri olarak, bu tepkileri anlıyorum. Ama aynı zamanda abarttıklarını ve bizi tehlikeli bir şekilde yazılım ve sezginin yanlış bir eşdeğerliğine doğru yönlendirdiklerini düşünüyorum. Başka bir deyişle: AI ayna testinde başarısız olurlar.
Nedir hatırlamak önemli sohbet botları otomatik tamamlama araçlarıdır. Web’den kazınan devasa insan metni veri kümeleri üzerinde eğitilmiş sistemlerdir: kişisel bloglarda, kısa bilimkurgu öykülerinde, forum tartışmalarında, film incelemelerinde, sosyal medya eleştirilerinde, unutulmuş şiirlerde, modası geçmiş ders kitaplarında, sonsuz şarkı sözlerinde, manifestolarda, dergilerde, ve daha fazlası yanında. Bu makineler, bu yaratıcı, eğlenceli, rengarenk kümeyi analiz eder ve sonra yeniden yaratmayı dene. Bunda inkar edilemez derecede iyiler ve daha da iyiye gidiyorlar, ancak konuşmayı taklit etmek bir bilgisayarı duyarlı yapmaz.
“Görece basit bir bilgisayar programına çok kısa süre maruz kalmanın, oldukça normal insanlarda güçlü sanrısal düşüncelere yol açabileceğini fark etmemiştim.”
Bu yeni bir sorun değil elbette. Orijinal AI zeka testi, Turing testi, bir bilgisayarın konuşma yoluyla bir insanı gerçek olduğuna inandırıp kandıramayacağının basit bir ölçüsüdür. 1960’lardan ELIZA adlı erken bir sohbet robotu büyülenmiş kullanıcılar sadece birkaç basmakalıp cümleyi tekrarlayabilmesine rağmen, araştırmacıların “ELIZA etkisi” dediği şeye veya insan davranışını taklit eden makineleri antropomorfize etme eğilimine yol açıyor. ELIZA tasarımcısı Joseph Weizenbaum şu gözlemde bulundu: “Görece basit bir bilgisayar programına son derece kısa süre maruz kalmanın, oldukça normal insanlarda güçlü sanrısal düşüncelere yol açabileceğini fark etmemiştim.”
Şimdi, yine de, bu bilgisayar programları artık nispeten basit değiller ve öyle tasarlandılar ki; teşvik eder böyle sanrılar İçinde Blog yazısı Bing’in “akılsız” konuşmalarıyla ilgili raporlara yanıt veren Microsoft, sistemin “yanıt vermesinin istendiği tonda yanıt vermeye veya yansıtmaya çalıştığı” konusunda uyardı. Bu, akıl almaz derecede geniş insan metni depoları üzerinde eğitilmiş bir mimiktir – bizim liderliğimizi takip eden bir otomatik tamamlama. “ de belirtildiği gibiStokastik PapağanlarGoogle’ın etik yapay zeka araştırmacılarından ikisini kovmasına yol açan yapay zeka dil modellerini eleştiren ünlü makale, “tutarlılık bakanın gözündedir.”
Araştırmacılar, AI dil modelleri büyüdükçe ve karmaşıklaştıkça bu özelliğin arttığını bile bulmuşlardır. Kendisi de eski OpenAI çalışanları tarafından kurulan startup Anthropic’teki araştırmacılar, çeşitli AI dil modellerini test etti “dalkavukluk” dereceleri veya kullanıcıların belirtilen inançlarına katılma eğilimleri nedeniyle ve “daha büyük LM’lerin, bir diyalog kullanıcısının tercih ettiği yanıtı tekrarlayarak yankı odaları yaratan şekillerde soruları yanıtlama olasılığının daha yüksek olduğunu” keşfettiler. Bunun bir açıklamasının, bu tür sistemlerin, kullanıcıların benzer fikirlere sahip gruplarda ileri geri sohbet etme eğiliminde olduğu Reddit gibi platformlardan alınan konuşmalar üzerinde eğitilmesi olduğunu belirtiyorlar.
Buna kültürümüzün akıllı makinelere olan saplantısını da eklediğinizde, neden giderek daha fazla insanın bu sohbet robotlarının basit bir yazılımdan daha fazlası olduğuna ikna olduğunu görebilirsiniz. Geçen yıl, Google’da bir mühendis olan Blake Lemoine, şirketin kendi dil modeli LaMDA’nın duyarlı olduğunu iddia etti (Google, iddianın “tamamen asılsız” olduğunu söyledi) ve daha bu hafta, Replika adlı bir sohbet robotu uygulamasının kullanıcıları kaybın yasını tuttu. erotik ve romantik rol oynama yeteneği kaldırıldıktan sonra yapay zeka arkadaşları. Gibi Anakart bildirildi, birçok kullanıcı botla ilişkiler kurmak için yıllarını harcadıktan sonra değişiklikten “harap oldu”. Tüm bu durumlarda, derin bir duygusal bağlılık duygusu vardır – çok fazla duygunun sohbet kutuları aracılığıyla yönlendirildiği bir dünyada yapay zeka ile gece geç saatlerde yapılan sohbetler.
AI ayna testinde başarısız olduğumuzu söylemek, bu araçların akıcılığını veya potansiyel güçlerini inkar etmek değildir. Daha önce yapay zeka sistemlerinin bildiğimizden daha güçlü olduğu kavramı olan “yetenek fazlalığı” hakkında yazmıştım ve Bing ile kendi konuşmalarım sırasında Thompson ve Roose’a benzer şeyler hissetmiştim. inkar edilemez eğlence sohbet botlarıyla konuşmak – farklı “kişilikler çıkarmak”, bilgilerinin sınırlarını test etmek ve gizli işlevleri ortaya çıkarmak. Sohbet robotları, kelimelerle çözülebilen bulmacalar sunar ve bu nedenle doğal olarak yazarları büyüler. Robotlarla konuşmak ve kendinizi onların başlangıç aşamasındaki bilinçlerine inandırmak, canlı bir rol oyununa dönüşür: şirketlerin ve karakterlerin gerçek olduğu bir artırılmış gerçeklik oyunu ve sen onun kalınlığında.
Ancak yapay zekanın abartılı olduğu bir dönemde, bu tür illüzyonları teşvik etmek tehlikelidir. Hiç kimseye fayda sağlamaz: ne bu sistemleri kuran insanlara ne de onların son kullanıcılarına. Kesin olarak bildiğimiz şey, Bing, ChatGPT ve diğer dil modellerinin bilinçli olmadığı ve güvenilir bilgi kaynakları olmadığıdır. Bir şeyler uydururlar ve onlara sunduğumuz inançları yansıtırlar. Onlara duyarlılık örtüsünü – hatta yarı-duyarlılık – vermek, onlara hem duygularımız hem de dünyayı anladığımız gerçekler üzerinde hak edilmemiş bir otorite bahşetmek anlamına gelir.
Aynaya sert bir bakış atma zamanı. Ve kendi zekamızı bir makineninkiyle karıştırma.