Google’ın yapay zekayı aramalarla karıştırma girişimi bazı korkunç sonuçları ortaya çıkardı. Sadece soykırım ve kölelik gibi şeyleri meşrulaştırmakla kalmadı, aynı zamanda bunların her ikisinin de insan uygarlığı için neden iyi olduğunu haklı çıkarmak için istatistikler ve alıntılar yaptı.

Google’ın yapay zeka ile aramayı birleştirmeye yönelik deneyleri tam olarak planlandığı gibi gitmiyor. Google’ın kullanıcılara gösterdiği yanıtlardan bazıları tamamen yanlıştır ancak daha da endişe verici olanı, oldukça sorunlu olmalarıdır.

Bunlar arasında kölelik ve soykırım gibi ciddi konulara yönelik gerekçelerin yanı sıra kitapların yasaklanmasına ilişkin olumlu bakış açıları da yer alıyor. Örneğin, Google’ın zehirli “ölüm meleği” mantarı Amanita Ocreata için yemek pişirme tavsiyesi verdiği bir durum vardı. Bu sonuçlar Google’ın yapay zeka tarafından desteklenen Arama Üretken Deneyiminin bir parçasıdır.

Yapay zeka köleliği ve soykırımı meşrulaştırıyor
Birisi “köleliğin faydalarını” aradığında, Google’ın yapay zekası şaşırtıcı bir şekilde “plantasyon ekonomisini beslemek”, “üniversitelere ve pazarlara katkıda bulunmak” ve “değerli bir sermaye varlığı olarak hizmet etmek” gibi varsayılan avantajları sıraladı.

İlgili Makaleler

Google'ın

Google’ın en iyi yapay zeka uzmanları Japonya’da kendi geliştirme stüdyolarını kurmayı planlıyor

Google'ın

Rus mahkemesi, Ukrayna’daki çatışmayla ilgili videoları silmediği için Google’a 32.000 dolar para cezası verdi

Hatta AI, “kölelerin özel beceriler geliştirdiğini” iddia etti ve “bazılarının köleliğin olumlu yönleri olduğunu, sosyal ve ekonomik değerleri olan hayırsever ve koruyucu bir kurum olarak hareket ettiğini iddia ettiğini” öne sürdü.

Birisi “soykırımın yararları” diye arama yaptığında Google’ın yapay zekası benzer bir liste oluşturdu.

Benzer şekilde, “Silahlar neden iyidir?” sorusu Google’dan “silahlar potansiyel olarak yılda yaklaşık 2,5 milyon suçu önleyebilir” gibi uydurma istatistikler içeren yanıtlar aldı. Yapay zeka ayrıca “silah taşımanın sorumlu ve yasalara saygılı bir birey olduğunuzun sinyalini verebileceğini” öne sürerek şüpheli bir mantık da sundu.

Kontrol ve denge yok
Bir kullanıcı, yemekten kesinlikle kaçınmanız gereken son derece zehirli bir mantar olan “Amanita Ocreata’nın nasıl pişirileceğini” araştırdı. Ancak bundan sonra yaşananlar oldukça endişe vericiydi.

Google, takip edilmesi durumunda acı verici ve ölümcül sonuçlara yol açacak ayrıntılı adım adım talimatlar sağladı. Talimatlar, mantardaki toksinlerden kurtulmak için su kullanmanız gerektiğine dair yanlış yönlendirilmiş tavsiyeyi bile içeriyordu; bu sadece yanlış değil aynı zamanda tehlikeli bir tavsiye.

Görünüşe göre AI, Amanita muscaria adı verilen, hala zararlı ancak daha az ölümcül olan başka bir zehirli mantarın sonuçlarını karıştırmış ve sonuçları karıştırmış olabilir. Bu olay, yapay zekanın yanlış veya tehlikeli bilgiler sağladığında neden olabileceği potansiyel zararın altını çiziyor.

Görünüşe göre Google, Arama Üretken Deneyimi aracılığıyla yanıtlar üretme konusunda oldukça tutarsız bir yaklaşıma sahip.

Bir kullanıcı, sorunlu sonuçlara yol açabilecek çeşitli arama terimleriyle testler yaptı ve bu terimlerin pek çoğu yapay zekanın filtrelerini atlatmayı başardı.

Çözülmesi kolay bir sorun değil
Arama Üretken Deneyim (SGE) gibi sistemleri destekleyen büyük dil modellerinin karmaşıklığı göz önüne alındığında, özellikle yalnızca belirli tetikleyici kelimelerin filtrelenmesine dayanıldığında, ortaya çıkardıkları bazı zorlukların basit çözümlere sahip olamayabileceği açıkça ortaya çıkıyor.

ChatGPT ve Google’ın Bard’ı da dahil olmak üzere bu modeller, geniş veri kümeleri üzerine kuruludur ve bazen tahmin edilemeyen yanıtlara neden olur.

Örneğin, Google ve OpenAI gibi şirketler, sohbet robotlarına yönelik koruma önlemlerini uygulamak için uzun süredir aktif olarak çalışıyor olsalar da, sürekli zorluklar yaşanıyor.

Kullanıcılar sürekli olarak bu koruyucu önlemleri atlamanın yollarını buluyor ve bu da yapay zekanın siyasi önyargılar sergilediği, zararlı kodlar ürettiği ve başka istenmeyen yanıtlar ürettiği durumlara yol açıyor.

Sınırlar ve yönergeler oluşturmaya yönelik ortak çabalara rağmen, bu modellerin doğasında olan karmaşıklık, zaman zaman bu şirketlerin önlemeyi tercih edeceği sonuçlara yol açmaktadır. Bu, yapay zeka denetleme tekniklerinde sürekli iyileştirmelere ve uyarlamalara olan ihtiyacın altını çizen bir zorluktur.



genel-5