Character.AI, barındırdığı sanal kişiliklerle etkileşimi özellikle gençler için daha güvenli hale getirmeyi amaçlayan yeni bir dizi özelliğe sahiptir. Şirket, genç kullanıcıları için özel olarak tasarlanmış yapay zeka modelinin yeni bir versiyonunun yanı sıra web sitesinde geçirdikleri zamanı yönetmek için bir dizi ebeveyn kontrolünü de piyasaya sürdü. Güncellemeler, yapay zeka sohbet robotlarının çocukların ruh sağlığını olumsuz etkilediği yönündeki suçlamaların ardından platformda yapılan daha önceki güvenlik değişikliklerinin ardından geldi.
Bu güvenlik değişikliklerine, Character.AI’nin içeriği üzerindeki dizginleri sıkılaştırmaya yönelik başka çabalar da eşlik etti. Şirket kısa süre önce, telif hakkıyla korunan ve ticari markalı karakterlerin yapay zeka taklitlerini, tamamlanmamış da olsa, temizlemeye başladı.
Genç kullanıcılar için en dikkat çekici değişiklik muhtemelen yapay zeka modelinin yetişkin ve genç versiyonları arasındaki ayrım olacaktır. Character.AI’ye kaydolmak için 13 yaşında olmanız gerekiyor, ancak 18 yaşın altındaki kullanıcılar, romantik veya müstehcen etkileşimleri önlemek için özel olarak tasarlanmış daha dar korkuluklara sahip bir modele yönlendirilecek.
Model ayrıca kullanıcının yazdıklarına yönelik daha iyi filtrelere sahiptir ve kullanıcı bu sınırları aşmaya çalıştığında bunu daha iyi fark eder. Bu, müstehcen içerik kısıtlamasını gizlice aşmak için sohbet robotundan gelen yanıtları düzenlemeye ilişkin yeni bir kısıtlamayı da içeriyor. Şirket, gençler ile yapay zeka kişilikleri PG arasındaki her türlü konuşmayı sürdürmeye kararlı. Ayrıca, bir konuşma kendine zarar verme veya intihar gibi konulara değiniyorsa platform, gençleri profesyonel kaynaklara yönlendirmeye yardımcı olmak için Ulusal İntiharı Önleme Yaşam Hattı’na bir bağlantı açacak.
Character.AI aynı zamanda ebeveynleri, gençlerin web sitesinde ne yaptığı konusunda bilgilendirmek için de çalışıyor ve kontroller gelecek yılın başlarında çıkacak. Yeni ebeveyn kontrolleri, ebeveynlere çocuklarının platformda ne kadar zaman harcadıkları ve en çok hangi botlarla sohbet ettikleri konusunda fikir verecek. Bu değişikliklerin doğru notlara ulaştığından emin olmak için Character.AI birkaç genç çevrimiçi güvenlik uzmanıyla çalışıyor.
Sorumluluk reddi beyanı AI
Character.AI’nin gerçeklik duygusunu korumaya yardımcı olmayı amaçladığı kişiler yalnızca gençler değil. Ayrıca, tüm kullanıcıların bir chatbot ile bir saat boyunca konuştuktan sonra bir hatırlatma almasıyla, ekran başında kalma bağımlılığıyla ilgili endişeleri de ele alıyorlar. Hatırlatma onları ara vermeye teşvik eder.
Karakterlerin yapay zeka kökenlerine ilişkin mevcut sorumluluk reddi beyanları da güçleniyor. Küçük bir not yerine bunların yapay zeka olduğuna dair daha uzun bir açıklama göreceksiniz. Bu, özellikle sohbet robotlarından herhangi birinin doktor, terapist veya diğer uzmanlar olarak tanımlandığı durumlarda geçerlidir. Yeni bir ekstra uyarı, yapay zekanın lisanslı bir profesyonel olmadığını ve gerçek tavsiye, teşhis veya tedavinin yerini almaması gerektiğini açıkça ortaya koyuyor. Büyük sarı bir tabelanın şöyle yazdığını hayal edin: “Hey, bu çok eğlenceli ama belki de benden hayatınızı değiştirecek tavsiye istemeyin.”
“Charter.AI olarak, tüm kullanıcılarımız için güvenli bir ortam sağlamaya kendimizi adadık. Bu taahhüdü yerine getirmek için, güvenliğe yaklaşımımızın, ürünümüzü yönlendiren teknolojiyle birlikte gelişmesi gerektiğinin bilincindeyiz; yaratıcılığın ve keşfetmenin hiçbir şey olmadan gelişebileceği bir platform yaratmak. güvenliği tehlikeye atıyor”, diye açıkladı Character.AI bir postalamak değişiklikler hakkında. “Bunu doğru şekilde gerçekleştirmek için, Character.AI’de yaptığımız her şeye güvenliğin dahil edilmesi gerekiyor. Bu değişiklik paketi, politikalarımızı ve ürünümüzü sürekli olarak geliştirmeye yönelik uzun vadeli taahhüdümüzün bir parçasıdır.”