Meta, şirketin saldırgan tepkileri %90 oranında azalttığını iddia ettiği yerleşik “güvenlik tarifleri” ile BlenderBot 3 sohbet robotunu halka sundu, ancak bot hala yalan söyleyip kaba olabilir.

demosu BlenderBot 3 Amerika Birleşik Devletleri’nde çevrimiçi olarak erişilebilir durumdadır ve yakında diğer ülkelerde de kullanıma sunulacaktır.

“BlenderBot 3, hemen hemen her konuyu tartışmak için internette arama yapabilir ve doğal konuşmalar yoluyla becerileri ve güvenliği geliştirmeyi öğrenmek için tasarlanmıştır. insanlardan gelen genel yorumlar “Meta’yı bir Blog yazısı.

ciddi egzersizler

Meta’nın chatbot’u halka açık hale getirme araştırmasının ana yönlerinden biri, güvenlik önlemleri geliştirmektir.

“Geliştirdik yeni teknikler Bu, ciddi insanların katılımı sayesinde öğrenmeye izin verirken, modeli yalnızca işe yaramaz veya toksik cevaplar vererek aldatmaya çalışan insanlardan kaçınıyor”, siteyi açıklıyor, faydalı kullanıcılar ve troller arasındaki otomatik ayrımla ilgili önceki araştırmalara atıfta bulunuyor.

Microsoft’un sohbet robotu talihsizlikleri, 2016 genel beta sürümündeki Tay.ai, insanlar saldırgan ve ırkçı yorumlar yapmak üzere eğitilmiş bir sohbet robotuyla etkileşime girdiğinde tam olarak neler olabileceğini gösterdi.

Yanlış adımlara karşı bağışık değil

Meta, BlenderBot 3’ün de kötü şeyler söyleyebildiği konusunda uyarıyor. Bu, yorumlardan öğrenebilecek bir modeli olmasına rağmen, Meta’nın çözülmemiş ana sorunu gibi görünüyor.

Bir bildiride, “Tüm sıkı çalışmaya rağmen, BlenderBot’un hala gurur duymadığımız şeyler söyleyebildiğini biliyoruz.” BlenderBot 3 SSS sayfası.

“Bu, araştırma topluluğunu dahil etmek için bir neden daha. Bu modellere doğrudan erişim olmadan, araştırmacıların algılama ve azaltma stratejileri tasarlama yetenekleri sınırlıdır. »

Botlar bot olduklarını unutabilir

Meta, kullanıcıları chatbot tarafından yapılan rahatsız edici yorumları bildirmeye teşvik eder. Ayrıca yanlış veya çelişkili şeyler söyleyebileceği konusunda uyarır. Chatbotlar robot olduklarını bile unuturlar ve Meta’nın tanımladığı gibi “halüsinasyonlar” görürler.

“Maalesef evet, bot yanlış veya çelişkili şeyler söyleyebilir. Kullanıcılar, tıbbi, yasal veya finansal tavsiyeler de dahil olmak üzere gerçek bilgiler için bu bota güvenmemelidir ”diye belirtiyor site.

“”Araştırmada, bu botu çalıştıran model gibi modellerin “halüsinasyonlar” olduğunu söylüyoruz: bot, doğru olmayan bir şeyi kendinden emin bir şekilde ileri sürüyor. Botlar ayrıca mevcut konuşmanın ayrıntılarını yanlış hatırlayabilir ve hatta bir bot olduklarını unutabilir. »»

Buna BlenderBot adı verildi çünkü önceki Meta araştırması, bir bota birçok konuşma becerisini “karıştırmak” için öğretmenin performansını artırdığını gösterdi.

BlenderBot 3, gerçekten hassas mı?

Google, LaMDA (Diyalog Uygulamaları için Dil Modelleri) aracılığıyla sohbet robotlarının ve konuşma yapay zekasının “olgusal temelini” geliştirmek istiyor. Bu araç 2021’in ortalarında piyasaya sürüldü. Google, ücretsiz konuşmalara katılabilmesi için LaMDA’yı diyalog konusunda eğitmiştir. Şirket, Mayıs ayındaki I/O konferansında LaMDA 2’yi piyasaya sürdü, ardından araştırmacılara AI Test Kitch uygulamasını sundu ve diğerlerinin “LaMDA’yı elinizde tutmanın nasıl bir şey olduğunu” deneyimlemelerini sağladı.

LaMDA, Google mühendisi Blake Lemoine’in Nisan ayında Google yöneticilerine gösterdiği “LaMDA hassas mı?” belgesini yayınlamasının ardından Haziran ayında manşetlere çıktı. Ancak birçoğu, LaMBDA’nın iddia edilen duyarlılığına katılmadıklarını iddia etti.

LaMDA, geliştirmesi Google’ın 1.024 Tensör İşleme Birimi yongasında yaklaşık iki ay süren 137 milyarlık bir parametre modelidir. Ancak Google, kendi mühendisleri dışında kimseyle iletişim kurmadı.

Çalışmayı çeşitlendirin

Meta’ya göre BlenderBot 3, “İnternet erişimi ve uzun süreli hafıza ile açık bir alanda sohbet edebilen 175 milyar parametreli bir diyalog modelidir.” Artık halka açık olması, Meta’nın yeteneklerini araştırma çalışmalarından daha çeşitli bir ortamda incelemesine izin veriyor.

Meta, makine öğrenimi tekniklerini birleştirdiğini söylüyor, Arayıcı ve Müdürkonuşma modelleri oluşturmak için etkileşimlerden ve tepkilerden öğrenme.

Meta, “Erken deneyler, modelle ne kadar çok insan etkileşime girerse, deneyimlerinden o kadar çok şey öğrendiğini ve zaman içinde o kadar iyileştiğini ve daha güvenli hale geldiğini gösteriyor – güvenlik açık bir konu olmaya devam etse de,” diyor Meta.

Kaynak ZDNet.com



genel-15