Google’ın yepyeni yapay zeka destekli arama aracı AI Genel Bakış, kullanıcıların sorgularına yanlış ve biraz tuhaf yanıtlar vermesi nedeniyle bir geri tepmeyle karşı karşıya. Yakın zamanda bildirilen bir olayda, bir kullanıcı pizzasına peynirin yapışmaması nedeniyle Google’a başvurdu. Her ne kadar mutfakla ilgili sorunlarına pratik bir çözüm bekliyor olsalar da, Google’ın AI Genel Bakış özelliği oldukça mantıksız bir çözüm sundu. X’te yakın zamanda ortaya çıkan gönderilere göre bu, yapay zeka aracının diğer kullanıcılara da tuhaf yanıtlar önerdiği münferit bir olay değildi.

Peynir, Pizza ve Yapay Zeka Halüsinasyonu

Sorun, bir kullanıcının bildirdiği anda ortaya çıktı. yazdı Google’da “peynir pizzaya yapışmıyor”. Arama motorunun Yapay Zeka Genel Bakış özelliği, mutfak sorununu ele alarak peynirli çubuk yapmanın, sosu karıştırmak ve pizzayı soğumaya bırakmak gibi birkaç yolunu önerdi. Ancak çözümlerden birinin gerçekten tuhaf olduğu ortaya çıktı. Paylaşılan ekran görüntüsüne göre kullanıcıya “daha yapışkanlık kazandırmak için sosa ⅛ fincan toksik olmayan yapıştırıcı eklemesi” önerildi.

Daha fazla araştırma sonucunda kaynağın bulunduğu ve bunun bir Reddit olduğu ortaya çıktı Yorum 11 yıl öncesine ait, bu bir uzman mutfak tavsiyesinden ziyade bir şaka gibi görünüyordu. Ancak yine de altta “Üretici Yapay Zeka deneyseldir” etiketini taşıyan Google’ın Yapay Zeka Genel Bakış özelliği, bunu orijinal sorguya ciddi bir öneri olarak sundu.

AI Genel Bakış’ın bir başka yanlış yanıtı, birkaç gün önce bir kullanıcının bildirdiği bir zamanda ortaya çıktı. diye sordu Google, “Kaç tane kaya yemeliyim?” UC Berkeley jeologlarından alıntı yapan araç, “kayalar sindirim sağlığı için önemli olan mineraller ve vitaminler içerdiğinden günde en az bir kaya yemenin tavsiye edildiğini” öne sürdü.

Yanlış Yanıtların Ardındaki Sorun

Bunun gibi sorunlar son yıllarda, özellikle de yapay zeka (AI) patlaması başladığından beri düzenli olarak ortaya çıkıyor ve bu da AI halüsinasyonu olarak bilinen yeni bir soruna yol açıyor. Şirketler yapay zeka sohbet robotlarının hata yapabileceğini iddia ederken, bu araçların gerçekleri çarpıttığı ve gerçeklere dayalı olarak yanlış ve hatta tuhaf yanıtlar sağladığının örnekleri artıyor.

Ancak yapay zeka araçlarının hatalı yanıtlar verdiği tek şirket Google değil. OpenAI’nin ChatGPT’si, Microsoft’un Copilot’u ve Perplexity’nin yapay zeka sohbet robotunun hepsinin yapay zeka halüsinasyonlarından muzdarip olduğu bildirildi.

Birden fazla durumda, kaynağın yıllar önce yapılmış bir Reddit gönderisi veya yorumu olduğu keşfedildi. AI araçlarının arkasındaki şirketler de bunun farkında; Alphabet CEO’su Sundar Pichai söylüyorum Verge, “Bunlar bizim için daha iyi olmaya devam edecek türden şeyler”.

Haziran 2023’te IIIT Delhi’deki bir etkinlik sırasında yapay zeka halüsinasyonları hakkında konuşurken Sam Altman, [OpenAI]( CEO ve Kurucu Ortak, “Modeli mükemmelleştirmemiz yaklaşık bir yılımızı alacak. Bu, yaratıcılık ile doğruluk arasında bir denge ve biz sorunu en aza indirmeye çalışıyoruz. [At present,] Bu dünyadaki herkesten en az ChatGPT’den gelen yanıtlara güveniyorum.”


Bağlı kuruluş bağlantıları otomatik olarak oluşturulabilir; ayrıntılar için etik bildirimimize bakın.





genel-8