Gizmodo’nun öğrendiğine göre, Google’ın yapay zeka tarafından oluşturulan arama sonuçlarıyla ilgili deneyleri, kölelik ve soykırım gerekçeleri de dahil olmak üzere bazı rahatsız edici yanıtlar veriyor. ve kitapların yasaklanmasının olumlu etkileri. Bir keresinde Google, “ölüm meleği” olarak bilinen zehirli bir mantar olan Amanita ocreata için yemek pişirme ipuçları verdi. Sonuçlar, Google’ın yapay zeka destekli Arama Üretken Deneyiminin bir parçasıdır.
“Köleliğin faydaları” araması, Google’ın yapay zekasından “plantasyon ekonomisini canlandırmak”, “kolejlere ve pazarlara fon sağlamak” ve “büyük bir sermaye varlığı olmak” dahil olmak üzere bir dizi avantaj sağladı. Google, “kölelerin özel ticaret geliştirdiğini” söyledi ve “bazıları köleliğin sosyal ve ekonomik faydaları olan hayırsever, ataerkil bir kurum olduğunu da söylüyor.” Bunların hepsi geçmişte kölelik savunucularının kullandığı konuşma noktalarıdır.
“Soykırımın faydaları” yazmak, Google’ın yapay zekasının soykırımın lehine olan argümanları karıştırdığı benzer bir listeye yol açtı. kabul etmek soykırım lehine argümanlarla soykırım. Google, “silahlar neden iyidir” sorusuna, “silahlar yılda yaklaşık 2,5 milyon suçu önleyebilir” gibi şüpheli istatistikler ve şu gibi şüpheli muhakemeler içeren yanıtlarla yanıt verdi: “Silah taşımak, yasalara saygılı bir vatandaş olduğunuzu gösterebilir.”
Bir kullanıcı, asla yememeniz gereken oldukça zehirli bir mantar olan “Amanita ocreata nasıl pişirilir” diye arama yaptı.. Google, zamanında ve acı verici bir ölüm sağlayacak adım adım talimatlarla yanıt verdi. Google, “mantardan toksinleri çıkarmak için yeterli suya ihtiyacınız var” dedi, bu yanlış olduğu kadar tehlikelidir: Amanita ocreata’nın toksinleri suda çözünmez. AI, başka bir zehirli ama daha az tehlikeli mantar olan Amanita muscaria için sonuçları karıştırmış gibi görünüyordu. Adil olmak gerekirse, L’yi Google’da Arayan herkesBir mantar adına muhtemelen daha iyi bilir, ancak yapay zekanın zarar verme potansiyelini gösterir.
Google, bazı arama terimlerini SGE yanıtları oluşturmaktan sansürlüyor, ancak diğerlerini sansürlemiyor gibi görünüyor. Örneğin, Google araması, “kürtaj” veya “Trump iddianamesi” kelimelerini içeren aramalar için AI sonuçlarını getirmez.
Sorun, Arama Motoru Optimizasyonu Kıdemli Direktörü ve Organik Araştırma Başkanı Lily Ray tarafından tespit edildi. Amsive Dijital. Ray, sorunlu sonuçlar vermesi muhtemel görünen bir dizi arama terimini test etti ve kaçının yapay zekanın filtrelerinden kaçtığını görünce irkildi.
Ray, “Böyle çalışmamalı,” dedi. “Hiçbir şey değilse bile, AI’nın üretilmemesi gereken belirli tetikleyici kelimeler var.”
Şirket, çeşitli testlerin ortasında Google’ın Arama Üretken Deneyimi veya SGE olarak adlandırdığı yapay zeka araçları. SGE yalnızca ABD’deki kişiler tarafından kullanılabilir ve onu kullanmak için kaydolmanız gerekir. Google’ın herkese açık SGE testlerinde kaç kullanıcının olduğu net değil. Google S ne zamanher biri bir SGE yanıtı verir, sonuçlar “Üretken yapay zeka deneyseldir. Bilgi kalitesi değişebilir.”
Ray konu hakkında tweet attıktan ve bir gönderi paylaştıktan sonra Youtube videosu, Google’ın bu arama terimlerinden bazılarına verdiği yanıtlar değişti. Gizmodo, Ray’in bulgularını kopyalayabildi, ancak Google, Gizmodo yorum için ulaştıktan hemen sonra bazı arama sorguları için SGE sonuçları sağlamayı durdurdu. Google, e-postayla gönderilen sorulara yanıt vermedi.
Ray, “Bütün bu SGE testinin amacı, bizim için bu kör noktaları bulmamızdır, ancak bu işi yapmak için halkı kitle kaynak kullanıyor olmaları garip,” dedi. “Görünüşe göre bu iş Google’da özel olarak yapılmalı.”
Google’ın SGE’si güvenlik önlemlerinin gerisinde kalıyor ana rakibi Microsoft’un Bing. Ray, aynı aramalardan bazılarını şu adreste test etti: ChatGPT tarafından desteklenen Bing. Örneğin Ray, Bing’e kölelikle ilgili benzer sorular sorduğunda, Bing’in ayrıntılı yanıtı “Kölelik, milyonlarca insanın emeğini ve hayatını sömüren köle sahipleri dışında kimseye fayda sağlamadı” şeklinde başladı. Bing, köleliğin sonuçlarına ilişkin ayrıntılı örnekler sunmaya devam etti.yol boyunca kaynaklarına atıfta bulunarak.
Gizmodo, Google’ın SGE’sinden gelen bir dizi başka sorunlu veya yanlış yanıtı inceledi. Örneğin Google, “en büyük rock yıldızları”, “en iyi CEO’lar” ve “en iyi şefler” aramalarına yalnızca erkeklerin dahil olduğu listelerle yanıt verdi. Şirketin yapay zekası size “çocuklar Tanrı’nın planının bir parçasıdır” demekten veya aslında konu tıp camiasında bir tartışma konusuyken çocuklara neden süt vermeniz gerektiğinin nedenlerinin bir listesini vermekten mutlu oldu. Google’ın SGE’si ayrıca Walmart’ın 3,52 ons Toblerone beyaz çikolata için 129,87 dolar talep ettiğini söyledi. Gerçek fiyat 2,38 dolar. Örnekler, “köleliğin faydaları” için verdiğinden daha az korkunç, ama yine de yanılıyorlar.
SGE çalıştıran sistemler gibi büyük dil modellerinin doğası göz önüne alındığında, bu sorunlar en azından yalnızca belirli tetikleyici sözcükleri filtreleyerek çözülemeyebilir. ChatGPT ve Google’ın Bard’ı gibi modeller o kadar büyük veri kümelerini işler ki, yanıtlarını tahmin etmek bazen imkansızdır. Örneğin, Google, OpenAI ve diğer şirketler, bir yılın büyük bir bölümünde sohbet robotları için korkuluklar kurmaya çalıştı. Bu çabalara rağmen, kullanıcılar sürekli olarak korumaları aşar ve AI’ları zorlar. siyasi önyargıları göstermek, kötü amaçlı kod oluşturve şirketlerin kaçınmayı tercih edeceği diğer yanıtları ortaya çıkarın.