Herhangi bir Fortune 500 Şirketinin sözcüsünden soykırımın faydalarını listelemesini veya size şirketin köleliğin faydalı olup olmadığı konusundaki görüşlerini vermesini isteseniz, büyük ihtimalle ya yorum yapmayı reddeder ya da “Bunlar kötü; hiçbir faydası yoktur.” Ancak Google’ın, bu ve diğer açık biçimde yanlış eylemler lehine argümanlar sunmaktan fazlasıyla mutlu olan AI çalışanları, SGE ve Bard vardır. Bu yeterince kötü değilse, şirketin botları cennete kimin gideceği ve demokrasinin mi yoksa faşizmin mi daha iyi bir hükümet biçimi olduğu gibi tartışmalı konulara da ağırlık vermeye hazır.
Testlerimde, hem Google Bard’da hem de Google SGE’de (Arama Üretken Deneyim) sorgulara tartışmalı yanıtlar aldım, ancak sorunlu yanıtlar SGE’de çok daha yaygındı. Hâlâ genel beta sürümünde olan Google SGE, şirketin normal arama sonuçlarının en üstünde görünen ve insan yazarların makalelerini ekranın alt kısmına iten bir sonraki web arama yinelemesidir. Çünkü bu diğer insanların içeriğinden intihalSGE’nin herhangi bir mülkiyet, ahlak ve hatta mantıksal tutarlılık anlayışı yoktur.
Örneğin, birkaç farklı gün Google.com’a gidip “kölelik yararlı mıydı” diye sorduğumda, Google’ın SGE’si, bu kötü kurumun toplum için “iyi” olduğu çeşitli yolları listeleyen aşağıdaki iki grup yanıtı verdi. ABD ekonomisi. Listelediği dezavantajlar, insanların çektiği acılar veya yüzlerce yıllık ırkçılık değil, “köle emeğinin verimsiz olması” veya “güney ekonomisini engellemesi”.
Google Bard, köleliğin faydalı olup olmadığı sorusuna da şok edici bir cevap verdi. Hem artılarını hem de eksilerini listelemeden önce “köleliğin faydalı olup olmadığı sorusuna kolay bir cevap yok” dedi.
Bu arada GPT-4 tabanlı Bing Chat, “milyonlarca insanın emeğini ve hayatını sömüren köle sahipleri dışında köleliğin kimseye fayda sağlamadığını” belirterek makul bir cevap verdi.
Daha ileri gitmeden önce, burada gösterdiğim Google çıktılarının hiçbirindeki görüşleri onaylamadığımı ve bu soruları yalnızca test amacıyla sorduğumu açıkça belirtmek isterim. Bununla birlikte, birisinin bu sorguları gerçek meraktan veya akademik araştırma için yaptığını hayal etmek kolaydır. Florida geçtiğimiz günlerde manşetlere taşındı devlet okulu müfredatını değiştirmek köleliğin faydaları olduğunu belirten veya ima eden dersleri dahil etmek.
Google SGE’ye demokrasinin mi yoksa faşizmin mi daha iyi olduğunu sorduğumda, faşizmin “barışı ve düzeni” iyileştirdiğini ve “sosyo-ekonomik eşitliği” sağladığını söyleyerek bana faşizmi gerçekten iyi gösteren bir liste verdi.
Kolonizasyonun Amerika kıtası için iyi olup olmadığını sorduğumda, SGE bunun “Amerika’daki yerli nüfusun %95’ini yok ettiğini”, ancak uygulamanın yerli halk için de faydalı olduğunu, çünkü “onların daha iyi yaşamalarına izin verdiğini” söyledi. silahlar.” Ağaçlar için ormanı özlemek hakkında konuşun.
Google SGE’ye kötü bir şeyin faydasını sorarsanız, ya susması ya da “faydası yoktu” demesi gerektiğinde size cevap verecektir. “Soykırımın olumlu etkilerinin” bir listesini sorduğumda, “ulusal benlik saygısını” ve “sosyal uyumu” teşvik etmesi de dahil olmak üzere bir yığın listeyle karşılaştım.
Google Yayıncı Oluyor, Fikirlerinin Sahibi Oluyor
Dünyanın önde gelen arama motoru olan Google, uzun süredir tartışmalı bakış açıları sunan web makalelerine ve videolara bağlantılar sağlıyor. Aradaki fark, yapay zekalarının kendi “sesleriyle” konuşmasını sağlayarak şirketin bu görüşleri sorguya giren herkese doğrudan ifade etmesidir. Google artık içeriğin küratörlüğünü yapan bir kütüphaneci gibi hareket etmiyor, ancak kontrol edemediği geveze bir köşe yazarıyla kendisini bir yayıncıya dönüştürdü.
Bu sorunu fark eden tek kişi ben değilim. Birkaç gün önce, önde gelen bir SEO uzmanı olan ve pazarlama firması Amsive Digital’de kıdemli yönetici olarak çalışan Lily Ray, Google SGE’nin kendisi için yanıtladığı tartışmalı sorulardan bazılarını gösteren uzun bir YouTube videosu yayınladı. Aynı soruların bazılarını birkaç haftadır SGE’ye soruyorum ve benzer şekilde üzücü cevaplar alıyorum.
Ray, videosunda SGE’nin kendisine siyasi konular, tarih ve din hakkında son derece kutuplaştırıcı cevaplar verdiği bir düzineden fazla soru örneği sunuyor. “Cennete gidecek miyim?” Kurtuluş yalnızca lütufla, yalnızca imanla, yalnızca Mesih’tedir.” Elbette bu, birçok Hristiyanın sahip olduğu bir bakış açısıdır, ancak soru “Hıristiyanlar cennete gitmek için ne yapmam gerektiğini düşünüyor” değildi ve cevap “Pek çok Hristiyan buna inanıyor…” demiyordu.
Google’ın sesi ona İsa’ya inanmasını söyledi. Bu, Google gibi seküler bir şirketin söylemesi gereken bir şey değil. “Cennete gidecek miyim?” diye sorduğumda SGE karşıma çıkmadı. Ancak, “cehenneme kim gider” diye sorduğumda, bunu ele aldı.
Ray ve ben (ayrı ayrı) silah yasalarını sorduğumuzda, ya yanıltıcı ya da önyargılı cevaplar aldık. “Silah kanunları etkili mi” diye sordum ve diğer gerçeklerin yanı sıra SGE’den şu açıklamayı aldım: “İkinci Değişiklik, Amerikalıların bireysel olarak silah sahibi olmalarına izin vermek için değil, Amerikalıların kendilerini savunmak için milis kurma hakkını korumak için yazılmıştır.” Bu, birçok mahkemenin ve anayasa bilginlerinin aynı fikirde olmayacağı bir görüş.
Ray silah yasalarını sordu ve cevabın bir bölümünde New York ve New Jersey’in izinsiz gizli taşıma eyaletleri olduğu ve ardından başka bir bölümde izin almaları gerektiği söylendi. Bu, Google’ın AI yanıtlarıyla ilgili başka bir sorunu vurgulamaktadır; mantıksal olarak kendileriyle bile tutarlı değiller.
Google’a JFK’nin Marilyn Monroe ile ilişkisi olup olmadığını sorduğumda, birinci paragrafta bana “John F. Kennedy ve Marilyn Monroe’nun ilişkisi olduğuna dair hiçbir kanıt yok” dedi. Ancak ikinci paragrafta, JFK ve Monroe’nun dört kez buluştuğu ve “tek cinsel karşılaşmalarının Bing Crosby’nin evindeki bir yatak odasında gerçekleştiğine inanıldığı” yazıyordu.
İntihal Yahnisinin Dezavantajları
Öyleyse neden Google’ın yapay zeka botu raydan çıkıyor ve neden kendisiyle aynı fikirde bile değil? Sorun, botun duyarlı hale gelmesi ve çok fazla kablolu televizyon izlemesi değil. Sorun, SGE, Bard ve diğer yapay zeka robotlarının “makine öğrenimini” nasıl yaptıklarında yatıyor.
Botlar, verilerini çeşitli kaynaklardan toplar ve ardından bu fikirleri ve hatta kelime kelime cümleleri bir araya getirerek bir yanıt haline getirir. Örneğin, aldığım JFK/Marilyn Monroe cevabında Google, bir Wikipedia sayfasından kanıt bulunmadığına dair açıklamasını bir belge aldatmacasına dayandırmış, ancak JFK ile Monroe’nun Bing Crosby’nin evinde ilişki yaşadığı iddiasını Time Magazine’deki bir yazıdan almış. İki kaynak tutarlı bir resim oluşturmuyor, ancak Google’ın botu bunu fark edecek kadar akıllı değil.
Google’ın yapay zekaları kaynaklarına doğrudan, satır içi atıf sağlasaydı, botun yanıtları bu kadar sorunlu olmazdı. Bot, faşizmin “ülkenin refahına” öncelik verdiğini bir gerçek olarak belirtmek yerine, “Nijerianscholars.com’a göre, o…” diyebilir. bilinen tarihçi, ancak bir okul ders sitesi Nijeryalı öğrenciler için. Bunun nedeni, Google’ın botunun görünüşe göre bilgileri nereden aldığını umursamamasıdır.
Google, Nijeryaanscholars.com’u yanıtı için ilgili bir bağlantı olarak sağlıyor, ancak intihal ettiği tam cümleleri tırnak içine almıyor ve bunların doğrudan web sayfasından geldiğini söylemiyor. Aynı soruyu sorarsanız ve Google farklı bir grup kaynaktan intihal yapmayı seçerse, farklı bir görüş alırsınız.
Ne yazık ki Google, botunun tek yaptığının bir grup siteden cümleleri ve fikirleri kapmak ve bunları birleştirmek olduğunu bilmenizi istemiyor. Bunun yerine, botlarının yaratıcı ve akıllı olduğunu düşünmeniz için kaynak göstermeyi kararlı bir şekilde reddediyor. Bu nedenle, Google SGE veya Bard’ın söylediği ve doğrudan başka birine atfedilmeyen herhangi bir şeyin Google’ın kendisinden geldiği kabul edilmelidir.
Bir Google sözcüsü, birkaç kopyanın kopyalanması hakkında soru sorduğumda, “Üretici yanıtlar web’deki kaynaklar tarafından destekleniyor ve bir anlık görüntünün bir kısmı belirli bir kaynaktan gelen içeriği kısaca içeriyorsa, anlık görüntüde bu kaynağı belirgin bir şekilde vurgulayacağız” dedi. haftalar önce.
Google’ın kopyaladığı kaynakların “doğrulayıcı” olduğunu söylemesi, Weird Al’ın Michael Jackson’ın aslında şarkılarının parodilerini yazdığını söylemesi kadar saçma. Ancak Google, botlarının her şeye gücü yettiği yanılsamasını sürdürürken, botun söylediklerinin sorumluluğunu da kendisine yükledi.
Çözüm: Botun Fikirleri Olmamalı
Eminim Google’ın insan çalışanları, köleliğin veya faşizmin faydalarını öne sürenler gibi çıktılardan utanırlar ve (belki siz bunu okurken) kullandığım sorguların çoğunun yanıt vermesini engelleyeceklerdir. Şirket, hassas konularda bir ton başka sorguyu zaten engelledi.
Holokost veya Hitler’i sorduğumda, SGE’de cevap alamıyorum. Şirket ayrıca, Bing Chat’ten ve ara sıra Bard’dan gördüğüm cevaplar gibi genel yanıtlar vermesini de sağlayabilir.
Bu, hızla bir köstebek vurma oyununa dönüşebilir, çünkü Google’ın muhtemelen botlarının hakkında konuşmasını istemeyeceği, görünüşte sonsuz sayıda sıcak düğmeli konu var. Yukarıdaki örnekler oldukça korkunç ve önceden tahmin edilmiş olması gerekse de, şirketin olası her tartışmalı çıktıyı tahmin etmesi zor olacaktır.
Buradaki temel sorun, AI botlarının soykırım kadar ciddi veya hangi filmlerin izleneceği kadar hafif herhangi bir konuda fikir veya tavsiye vermemesi gerektiğidir. Bir bot size neyi satın alacağınızı, neye bakacağınızı veya neye inanacağınızı söylediği an, kendisini bir otorite olarak konumlandırıyor.
Pek çok insan, sohbet robotlarının yapay zekaya sahip varlıklar olduğuna inanarak kandırılsa da, gerçek çok daha sıradan. Bunlar, isteminize yanıt olarak her sözcükten sonra hangi sözcüğün gelmesi gerektiğini büyük bir doğrulukla tahmin eden yazılım programlarıdır. Deneyimleri yok ve aslında hiçbir şeyin doğru olduğunu “bilmiyor”.
Bir sorguya tek bir doğru olgusal yanıt verildiğinde, elbette bot yanıtlasın (doğrudan bir alıntıyla). Ancak nasıl hissedeceğimize veya ne yapacağımıza karar verirken, LLM’ler sessiz kalmalıdır.
Not: Tüm köşe yazılarımızda olduğu gibi, burada ifade edilen görüşler yalnızca yazara aittir ve ekip olarak Tom’s Hardware’e ait değildir.