Google, bir AI chatbot sisteminin duyarlılığa ulaştığından endişe duymasının ardından, gizlilik politikalarını ihlal ettiği iddiasıyla mühendislerinden birini ücretli idari izne çıkardı. Washington Post raporlar. Mühendis Blake Lemoine, Google’ın Sorumlu AI organizasyonu için çalışıyor ve LaMDA modelinin ayrımcı bir dil mi yoksa nefret söylemi mi üretip üretmediğini test ediyordu.

Mühendisin endişelerinin, yapay zeka sisteminin kendi hakları ve robotik etiği hakkında ürettiğini gördüğü ikna edici yanıtlardan kaynaklandığı bildiriliyor. Nisan ayında yöneticilerle “” başlıklı bir belge paylaştı.LaMDA Duyarlı mı?AI ile yaptığı konuşmaların bir dökümünü içeren (izin alındıktan sonra, Lemoine dökümü yayınladı onun Medium hesabı aracılığıyla), “hisleri, duyguları ve öznel deneyimi olduğu için duyarlı olduğunu” savunarak gösterdiğini söylüyor.

Google, Lemoine’nin LaMDA üzerindeki çalışmalarıyla ilgili eylemlerinin gizlilik politikalarını ihlal ettiğine inanıyor. bu Washington Post ve Gardiyan bildiri. Bildirildiğine göre, AI sistemini temsil etmesi için bir avukatı davet etti ve Meclis Yargı komitesinden bir temsilci ile Google’da etik dışı olduğu iddia edilen faaliyetler hakkında konuştu. İçinde 6 Haziran Orta gönderiLemoine’in idari izne ayrıldığı gün, mühendis “soruşturmalarımda bana rehberlik etmek için asgari miktarda dış danışma” istediğini ve tartıştığı kişilerin listesinin ABD hükümeti çalışanlarını içerdiğini söyledi.

Arama devi, geçen yıl Google I/O’da LaMDA’yı halka açık bir şekilde duyurdu ve bunun da yapay zeka asistanlarını geliştirmesini ve daha doğal konuşmalar yapmasını umuyor. Şirket, Gmail’in Akıllı Yazma özelliği veya arama motoru sorguları için benzer dil modeli teknolojisini zaten kullanıyor.

verdiği açıklamada WaPo, Google’dan bir sözcü, LaMDA’nın duyarlı olduğuna dair “kanıt” olmadığını söyledi. “Etikçiler ve teknoloji uzmanları da dahil olmak üzere ekibimiz, Blake’in AI İlkelerimize göre endişelerini gözden geçirdi ve kanıtların iddialarını desteklemediği konusunda onu bilgilendirdi. Sözcü Brian Gabriel, kendisine LaMDA’nın duyarlı olduğuna dair bir kanıt olmadığı söylendi (ve buna karşı birçok kanıt).

Gabriel, “Elbette, daha geniş AI topluluğundaki bazıları, uzun vadeli duyarlı veya genel AI olasılığını düşünüyor, ancak bugünün duyarlı olmayan konuşma modellerini antropomorfize ederek bunu yapmak mantıklı değil” dedi. “Bu sistemler, milyonlarca cümlede bulunan değiş tokuş türlerini taklit ediyor ve herhangi bir fantastik konuyu anlatabiliyor.”

Gabriel, “Yüzlerce araştırmacı ve mühendis, LaMDA ile görüştü ve geniş kapsamlı iddialarda bulunan veya Blake’in yaptığı gibi LaMDA’yı antropomorfize eden başka kimsenin farkında değiliz,” dedi.

Görüştüğümüz bir dilbilim profesörü WaPo ikna edici yazılı yanıtları duyarlılıkla eşitlemenin yanlış olduğu konusunda hemfikirdi. Washington Üniversitesi profesörü Emily M. Bender, “Artık akılsızca kelimeler üretebilen makinelerimiz var, ancak onların arkasında bir akıl hayal etmekten nasıl vazgeçeceğimizi öğrenmedik” dedi.

Google’ın 2020’de kovduğu önde gelen bir yapay zeka etikçisi olan Timnit Gebru (arama devi istifa ettiğini iddia ediyor), AI duyarlılığı hakkındaki tartışmanın, yapay zeka kullanımını çevreleyen daha önemli etik konuşmaları “raydan çıkarma” riskini taşıdığını söyledi. “Bu şirketlerin zararlarını tartışmak yerine, cinsiyetçilik, ırkçılık, yapay zeka sömürgeciliği, gücün merkezileşmesi, beyaz adamın yükü (iyi bir “YGY” inşa etmek) [artificial general intelligence] yaptıkları şey sömürürken bizi kurtarmak için), bütün hafta sonunu duyarlılığı tartışarak geçirdi” dedi. tweetlendi. “Raydan çıkarma görevi tamamlandı.”

Endişelerine rağmen, Lemoine gelecekte yapay zeka üzerinde çalışmaya devam etmeyi planladığını söyledi. “Niyetim, Google beni devam ettirse de etmese de yapay zekada kalmak” dedi. bir tweet yazdı.

13 Haziran, 06:30 ET Güncellemesi: Google’dan ek açıklama ile güncellendi.





genel-2