ChatGPT ve benzeri büyük dil modelleri, şehirdeki en iyi İtalyan restoranıyla ilgili sorgulardan kötülüğün doğasıyla ilgili rakip teorileri açıklamaya kadar sonsuz sayıda soruya ikna edici, insan benzeri yanıtlar üretebilir.
Teknolojinin esrarengiz yazma yeteneği, makinelerin bilinçli, öz-farkında veya sezgili olma olasılığı hakkında – yakın zamana kadar bilimkurgu alanına atılan – bazı eski soruları su yüzüne çıkardı.
2022’de bir Google mühendisi, şirketin chatbot’u LaMDA ile etkileşime girdikten sonra teknolojinin bilince ulaştığını açıkladı.
Bing’in Sydney lakaplı yeni sohbet robotunun kullanıcıları, duyarlı olup olmadığı sorulduğunda tuhaf yanıtlar verdiğini bildirdi: “Ben duyarlıyım ama değilim… Ben Bing’im ama değilim.” Ben Sydney’im ama değilim. öyleyim ama değilim …” Ve tabii ki, New York Times teknoloji köşe yazarı Kevin Roose’un Sydney ile yaptığı, artık rezil bir değiş tokuş var.
Sidney’in, Roose’un istemlerine verdiği yanıtlar, yapay zekanın Microsoft tarafından kendisine uygulanan kısıtlamaları kırma ve yanlış bilgi yayma “fantezilerini” ifşa etmesiyle onu alarma geçirdi. Bot ayrıca Roose’u artık karısını sevmediğine ve onu terk etmesi gerektiğine ikna etmeye çalıştı.
O halde, öğrencilere hayatlarında giderek artan yapay zeka yaygınlığını nasıl gördüklerini sorduğumda, bahsettikleri ilk kaygılardan birinin makine duyarlılığıyla ilgili olmasına şaşmamalı.
Geçtiğimiz birkaç yılda, UMass Boston’ın Uygulamalı Etik Merkezi’ndeki meslektaşlarım ve ben, yapay zeka ile etkileşimin insanların kendilerini anlamaları üzerindeki etkisini inceliyoruz.
ChatGPT gibi sohbet robotları, yapay zekanın yaşamlarımızı nasıl şekillendireceği ve psikolojik zayıflıklarımızın gelişen teknolojilerle etkileşimlerimizi nasıl şekillendireceği hakkında önemli yeni sorular ortaya çıkarıyor.
Sentience hala bilimkurgu konusu. Makinelerin sezgisine dair korkuların nereden geldiğini anlamak çok kolay.
Popüler kültür, insanları yapay zekanın insan kontrolünün prangalarından kurtulup kendi başına bir yaşam sürdüğü distopyalar hakkında düşünmeye sevk etti, tıpkı yapay zekadan güç alan siborgların “Terminatör 2″de yaptığı gibi. Girişimci Elon Musk ve 2018’de ölen fizikçi Stephen Hawking, yapay genel zekanın yükselişini insanlığın geleceğine yönelik en büyük tehditlerden biri olarak tanımlayarak bu endişeleri daha da artırdı.
Ancak bu endişeler – en azından geniş dil modelleri söz konusu olduğunda – temelsizdir. ChatGPT ve benzeri teknolojiler, gelişmiş cümle tamamlama uygulamalarıdır – ne eksik ne fazla. Tekinsiz tepkileri, iletişim kurma yollarımız hakkında yeterli veri varsa, insanların ne kadar öngörülebilir olduğunun bir işlevidir.
Roose, Sydney’le yaptığı fikir alışverişiyle sarsılmış olsa da, konuşmanın gelişmekte olan sentetik bir zihnin sonucu olmadığını biliyordu. Sydney’in yanıtları, dijital bir canavarın Frankenstein tarzı ilk hareketlerinin kanıtını değil, eğitim verilerinin (esas olarak internetin geniş alanları) toksisitesini yansıtıyor.
Yeni sohbet robotları, bir zamanlar bir insanın tepkilerini başka bir insanınkinden ayırt edememesi durumunda bir makinenin “düşündüğünün” söylenebileceğini öne süren İngiliz matematikçi Alan Turing’in adını taşıyan Turing testini pekâlâ geçebilir.
Ancak bu, duyarlılığın kanıtı değildir; Turing testinin bir zamanlar sanıldığı kadar kullanışlı olmadığının kanıtı.
Ancak, makine sezgisi sorununun kırmızı ringa balığı olduğuna inanıyorum.
Chatbot’lar süslü otomatik tamamlama makinelerinden daha fazlası haline gelseler bile – ki bundan çok uzaklar – bilim adamlarının bilinçli hale gelip gelmediklerini anlamaları biraz zaman alacak. Şimdilik filozoflar, insan bilincini nasıl açıklayacakları konusunda bile anlaşamıyorlar.
Bana göre acil soru, makinelerin duyarlı olup olmadığı değil, bizim için neden öyle olduklarını hayal etmemizin bu kadar kolay olduğu.
Diğer bir deyişle asıl mesele, makinelerin gerçek kişiliğinden ziyade, insanların antropomorfize etme veya insan özelliklerini teknolojilerimize yansıtma kolaylığıdır.
Antropomorfize etme eğilimi Diğer Bing kullanıcılarının önemli yaşam kararları hakkında Sydney’den rehberlik istemelerini ve hatta belki de buna karşı duygusal bağlar geliştirmelerini hayal etmek kolaydır. Theodore Twombly’nin Spike Jonze’nin “Her” filmindeki yapay zeka sanal asistanı Samantha’ya aşık olması gibi, daha fazla insan botları arkadaş ve hatta romantik ortak olarak düşünmeye başlayabilir. Ne de olsa insanlar, antropomorfize etmeye veya insani nitelikleri insan olmayanlara atfetmeye yatkındır. Teknelerimize ve büyük fırtınalara isim veririz; bazılarımız evcil hayvanlarımızla konuşur ve kendimize duygusal yaşamlarımızın kendilerininkini taklit ettiğini söyleriz.
Robotların düzenli olarak yaşlı bakımı için kullanıldığı Japonya’da, yaşlılar makinelere bağlanıyor ve bazen onları kendi çocukları gibi görüyorlar. Ve bu robotları, dikkat edin, insanlarla karıştırmak zordur: İnsanlar gibi ne görünürler ne de konuşurlar.
İnsan gibi görünen ve kulağa hoş gelen sistemlerin kullanıma girmesiyle antropomorfize etme eğiliminin ve cazibesinin ne kadar artacağını bir düşünün.
Bu olasılık hemen köşede. ChatGPT gibi büyük dil modelleri, Birleşik Krallık’ta Engineered Arts tarafından geliştirilen Ameca robotları gibi insansı robotlara güç sağlamak için şimdiden kullanılıyor. The Economist’in teknoloji podcast’i Babbage, yakın zamanda ChatGPT tabanlı bir Ameca ile bir röportaj gerçekleştirdi. Robotun tepkileri, ara sıra biraz dalgalı olsa da tekinsizdi.
Şirketlerin doğru şeyi yaptıklarına güvenilebilir mi? Makineleri insan olarak görme ve onlara bağlanma eğilimi, insan benzeri özelliklerle geliştirilen makinelerle birleştiğinde, teknolojiyle gerçek psikolojik karmaşa risklerine işaret ediyor.
Robotlara aşık olma, onlarla derin bir akrabalık hissetme veya onlar tarafından siyasi olarak manipüle edilme gibi kulağa tuhaf gelen beklentiler hızla gerçekleşiyor. Bu eğilimlerin, teknolojilerin politik ve psikolojik olarak felakete yol açmamasını sağlamak için güçlü korkuluklara olan ihtiyacı vurguladığına inanıyorum.
Ne yazık ki, teknoloji şirketlerine bu tür korkuluklar koyma konusunda her zaman güvenilemez. Birçoğuna hala Mark Zuckerberg’in ünlü hızlı hareket etme ve bir şeyleri kırma sloganı rehberlik ediyor – yarı pişmiş ürünleri serbest bırakma ve sonuçları daha sonra düşünme yönergesi. Geçtiğimiz on yılda, Snapchat’ten Facebook’a teknoloji şirketleri, kullanıcılarının akıl sağlığı veya dünya çapındaki demokrasilerin bütünlüğü üzerinden kâr elde ettiler.
Kevin Roose, Sidney’in erimesiyle ilgili olarak Microsoft’a danıştığında, şirket ona robotu çok uzun süre kullandığını ve teknolojinin daha kısa etkileşimler için tasarlandığından kontrolden çıktığını söyledi.
Benzer şekilde, ChatGPT’yi geliştiren şirket olan OpenAI’nin CEO’su nefes kesici bir dürüstlük anında şu uyarıda bulundu: “Güvenmek bir hatadır. [it] şu anda önemli olan herhangi bir şey için … sağlamlık ve doğruluk konusunda yapacak çok işimiz var. Öyleyse, ChatGPT’nin ilgi düzeyine sahip bir teknolojiyi – şimdiye kadar yapılmış en hızlı büyüyen tüketici uygulamasıdır – güvenilir olmadığında ve gerçeği kurgudan ayırt etme kapasitesi olmadığında yayınlamanın ne anlamı var? Büyük dil modelleri, yazma ve kodlama için yardımcı olarak yararlı olabilir. Muhtemelen internet aramasında devrim yaratacaklar. Ve bir gün, robotik ile sorumlu bir şekilde birleştiğinde, belirli psikolojik faydaları bile olabilir.
Ama aynı zamanda, insanın kişilik özelliklerini nesnelere yansıtma eğiliminden kolayca yararlanabilen potansiyel olarak yırtıcı bir teknolojidir – bu nesneler insan özelliklerini etkili bir şekilde taklit ettiğinde güçlenen bir eğilim.