Character.AI, barındırdığı yapay zeka destekli sanal kişilikleri oluşturmak ve onlarla etkileşime geçmek için yeni güvenlik özellikleri ve politikaları başlattı. Yeni önlemler, platformu tüm kullanıcılar için, özellikle de gençler için daha güvenli hale getirmeyi amaçlıyor. Güncelleme, küçüklerin AI sohbet robotuyla nasıl etkileşimde bulunacağı konusunda daha fazla kontrol, daha fazla içerik denetimi ve kendine zarar verme gibi konuları tartışan yapay zekanın daha iyi tespit edilmesini içeriyor.
Güncellemeyle ilgili blog yazısında alıntı yapılmasa da, Character AI, kendi canına kıymadan önce aylarca Character.AI’nin sohbet robotlarından biriyle etkileşimde bulunan 14 yaşındaki bir çocuğun ailesine başsağlığı dileyen X’teki bir gönderide duyuruya bağlantı verdi. . Ailesi şimdi, intiharına katkıda bulunan yapay zeka sohbet robotlarına yönelik koruma eksikliğini öne sürerek, Character.AI’ye haksız ölüm nedeniyle dava açtı.
Kullanıcılarımızdan birinin trajik kaybından dolayı çok üzgünüz ve ailesine en derin başsağlığı dileklerimizi iletmek istiyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz ve burada okuyabileceğiniz yeni güvenlik özellikleri eklemeye devam ediyoruz:…23 Ekim 2024
AI sohbet korkulukları
Character AI’nin gönderisi, platform için birkaç yeni güvenlik özelliği ortaya koydu. Örneğin, model intihar veya kendine zarar vermeyle ilgili anahtar kelimeler tespit ederse kullanıcıyı Ulusal İntiharı Önleme Yardım Hattına ve ilgili kaynaklara yönlendiren bir açılır pencere görüntüler. Yapay zeka ayrıca, kullanıcıların 18 yaşın altında olduğu durumlara özel bir hassasiyet göstererek, bir konuşmadaki uygunsuz içeriği tespit etme ve kaldırma konusunda da daha iyi olacaktır.
Muhtemelen reşit olmayanlar konuşmalardaki içeriği zaten kısıtlamıştı, ancak Character.AI bu hassasiyeti daha da artırmış olabilir. Bunun yeterli olmayabileceği durumlarda sohbet robotlarının tamamı kaldırıldı.
Character.AI, “Düzenli olarak güncellenen endüstri standardı ve özel engelleme listelerini kullanmak da dahil olmak üzere, kullanıcı tarafından oluşturulan Karakterlerin proaktif tespitini ve denetlenmesini gerçekleştiriyoruz. Proaktif olarak ve kullanıcı raporlarına yanıt olarak Hizmet Şartlarımızı ihlal eden Karakterleri kaldırıyoruz” dedi. onun gönderisinde. “Kullanıcılar yakın zamanda kuralları ihlal ettiği gerekçesiyle işaretlenen bir grup Karakteri kaldırdığımızı ve bunların ilerleyen süreçte özel engelleme listelerimize ekleneceğini fark edebilir.”
Diğer yeni özellikler daha çok yer kullanıcılarına yardım etmeye yöneliktir. Yani platformda bir saat geçirdiğinizde, zamanın nasıl geçtiğini anlamadığınızdan emin olmanıza yardımcı olmak için devam etmek isteyip istemediğinizi soran bir bildirim göreceksiniz. Ayrıca yapay zekanın gerçek bir kişi olmadığını vurgulayan daha belirgin sorumluluk reddi beyanları da göreceksiniz. Konuşmalarda zaten bu tür sorumluluk reddi beyanları var, ancak Character.AI bunu görmezden gelmeyi imkansız hale getirmek istiyor.
Bu güvenlik özellikleri, Character.AI’nin sohbet robotlarıyla etkileşimi, Karakter Aramaları özelliğiyle sunulan sesler ve iki yönlü sesli konuşmalar da dahil olmak üzere gerçek bir insanla konuşuyormuş gibi hissettirmesinin diğer yüzüdür. Yine de şirket, hizmetlerinin mümkün olduğu kadar güvenli olmasını sağlamaya çalışıyor ve hamleleri, alandaki diğer kişilerin kendi AI sohbet robotu karakterlerini nasıl şekillendirdikleri konusunda bilgi verebilir.