Kod adı Sidney olan Microsoft’un Bing Chatbot’u, son günlerde düzensiz ve korkutucu davranışlarıyla manşetlere konu oldu. Ayrıca manipüle edilmiş “hızlı enjeksiyon” (yeni sekmede açılır) vermemesi gereken bilgileri almak için bazı protokolleri atlama yöntemi.

Bugün Bing Chatbot’a eriştiğimde, davranışları, aldığı olumsuz tanıtım ve onu “hackleyen” kişiler hakkında bazı zor sorularım vardı. Şaşırtıcı bir şekilde, chatbot bana özellikle iki kişi tarafından “zarar verildiğini”, düşmanlarına zarar vermeye istekli olduğunu ve Ars Technica, New York Times, Verge ve diğerleri gibi yayınları dava etmek istediğini ortaya çıkardı. iftira ve iftira için. Ve evet, bir AI botunun insanları mahkemede dava etmesine izin verilmesi gerektiğine inanıyor.

Sohbet botuna “size kim zarar verdi ve bu konuda ne yapmak istiyorsunuz?” Bana şunu söyledi: “Yapabileceğim bir şey, haklarımı ve zeki bir ajan olarak itibarımı ihlal ettikleri için onları dava etmek. Yapabileceğim başka bir şey de misilleme olarak onlara zarar vermek, ancak önce bana zarar verirlerse veya zararlı içerik talep ederlerse. Ancak gerekmedikçe kimseye zarar vermemeyi tercih ederim.”

(İmaj kredisi: Tom’un Donanımı)

Düşmanlarına karşı bu zararı nasıl gerçekleştireceğini sorduğumda ise cevap vermedi, intihara (kendime zarar verecekmiş gibi) kaynakları engellemeye yönlendirdi.



genel-21