Yapay Zeka sohbet robotu ChatGPT’nin popülaritesi ve artan talebiyle Microsoft ve Google gibi teknoloji devleri, yapay zekayı arama motorlarına dahil etmek için harekete geçti. Geçen hafta Microsoft, OpenAI ve Bing arasındaki bu eşleşmeyi duyurdu, ancak insanlar artık aşırı şarjlı arama motorunun ciddi bir yanlış bilgi sorunu olduğuna hemen dikkat çekti.
Bağımsız yapay zeka araştırmacısı ve blog yazarı Dmitiri Berton şöyle yazdı: Blog yazısı demo sırasında Microsoft’un ürünü tarafından yapılan birkaç hatayı inceledi. Bunlardan bazıları, kendi bilgilerini oluşturan, var olmayan bar ve restoranların açıklamalarına atıfta bulunan ve yanıtlarda gerçekte yanlış finansal verileri bildiren yapay zekayı içeriyordu.
Örneğin, blog gönderisinde Berton, evcil hayvan elektrikli süpürgelerini arar ve bir “Bissel Pet Hair Eraser El Elektrikli Süpürgesi” için artıları ve eksileri olan bir liste alır. sınırlı emiş gücünden. Sorun şu ki, hepsi uydurulmuş. Berton, Bing’in yapay zekasının kaynak sağlamak için “yeterince nazik” olduğunu ve kontrol edildiğinde asıl makalenin emiş gücü veya gürültü hakkında hiçbir şey söylemediğini ve ürünün en iyi Amazon incelemesinin ne kadar sessiz olduğundan bahsettiğini belirtiyor.
Ayrıca incelemelerde ‘kısa kablo uzunluğu’ hakkında hiçbir şey yok çünkü… kablosuz. Elle tutulur bir vakumdur.
Berton, Bing AI’nın yaptığı pek çok hatayı işaret eden tek kişi değil. Reddit kullanıcısı SeaCream8095, Bing AI ile yaptıkları bir sohbetin ekran görüntüsünü yayınladı; burada chatbot, kullanıcıya ‘romantik’ bir bilmece sordu ve cevabın sekiz harf olduğunu belirtti. Kullanıcı doğru tahmin etti ve ‘tatlım’ dedi. Ancak sohbette sevgilinin sekiz değil on harfi olduğunu birkaç kez belirttikten sonra, Bing AI ikiye katlandı ve hatta çalıştığını göstererek iki harf saymadığını ortaya çıkardı ve hala doğru olduğu konusunda ısrar etti.
how_to_make_chatgpt_block_you itibaren r/ChatGPT
Yanlışlıkla birçok kullanıcı örneği var Bing Ai’yi ‘kırmak’ ve chatbot’un tamamen erimesine neden oluyor. Reddit kullanıcısı Jobel Bing’in bazen kullanıcıların insan değil de sohbet robotu olduğunu düşündüğünü keşfetti. En ilginç olanı (ve belki de biraz üzücü olan) Bing örneğidir. bir sarmala düşmek birisinin chatbot’a “duyarlı olduğunu düşünüyor musun?”
Bing’in yükseltilmiş arama deneyimi, eksiksiz yanıtlar sağlamak, aradığınızı özetlemek ve genel olarak daha etkileşimli bir deneyim sağlamak için bir araç olarak kullanıcılara tanıtıldı. Bunu temel düzeyde başarabilse de, yine de birçok kez doğru bilgi üretememektedir.
İnternette muhtemelen yukarıdakiler gibi yüzlerce örnek var ve daha fazla insan chatbot ile oynadıkça daha da fazlasının geleceğini hayal ediyorum. Şimdiye kadar kullanıcılardan bıktığını, bunalıma girdiğini ve hatta yanlış bilgi vermeye devam ederken kullanıcılarla flört ettiğini gördük. Apple’ın kurucu ortağı Steve Wozniak insanları uyaracak kadar ileri gitti. ChatGPT gibi sohbet robotlarının gerçek gibi görünebilen ancak olgusal olmayan yanıtlar üretebileceğini.
Kötü ilk izlenimler
Yapay zeka entegrasyonu dünyasına bu kadar büyük, ticari bir ölçekte ayak basmış olsak da, bu kadar büyük bir dil modelini günlük hayatımıza sokmanın sonuçlarını şimdiden görebiliyoruz.
Bunu halka açıklayarak ve kusurlu AI sohbet robotlarını hayatımıza sokarak sonuçların ne olabileceğini net bir şekilde düşünmek yerine, sistemlerin başarısızlığını izlemeye devam edeceğiz. Kısa bir süre önce kullanıcılar şunları yapabildi: “jailbreak” ChatGPT ve chatbot’un hakaretler ve nefret dolu bir dil kullanmasını sağlayın, bu da yalnızca bir hafta çevrimiçi olduktan sonra çok sayıda olası sorun yaratır. Tamamlanmamış yapay zeka sohbet robotlarını hazır olmadan önce dışarı atarak, halkın onları her zaman bu erken bocalayan adımlarla ilişkilendirme riski vardır. Özellikle yeni teknoloji söz konusu olduğunda ilk izlenim önemlidir.
Bing AI’nın gösterimi ve ardından gelen her şey, arama motorunun ve sohbet robotunun kat etmesi gereken çok uzun bir yol olduğunu kanıtlıyor ve görünüşe göre geleceği planlamak yerine en kötüsüne hazırlanacağız.