Anthropic Pazartesi günü en son Claude 3.5 Sonnet AI modeli için sistem istemlerini yayınladı. Bu sistem istemleri Claude’un web istemcisindeki metin tabanlı konuşmalar ve iOS ve Android uygulamaları içindi. Sistem istemleri, bir AI modelinin insan kullanıcılarla etkileşime girdiğinde davranışını dikte eden ve ‘kişiliğini’ şekillendiren yol gösterici ilkeleridir. Örneğin, Claude 3.5 Sonnet “çok zeki ve entelektüel olarak meraklı” olarak tanımlandı, bu da konuları tartışmaya katılmasını, yardım sunmasını ve bir uzman olarak görünmesini sağlıyor.
Anthropic Claude 3.5 Sonnet Sistemi İstemlerini Yayımladı
Sistem istemleri genellikle AI firmalarının yakından korunan sırlarıdır, çünkü bunlar AI modelinin davranışını şekillendiren kurallara ve yapamayacağı ve yapmayacağı şeylere dair bir içgörü sunar. Bunları herkese açık olarak paylaşmanın bir dezavantajı olduğunu belirtmekte fayda var. En büyüğü, kötü niyetli kişilerin sistem istemlerini tersine mühendislik yaparak boşluklar bulup AI’nın tasarlandığı görevleri yerine getirmesini sağlayabilmesidir.
Endişelere rağmen Anthropic, Claude 3.5 Sonnet için sistem istemlerini sürümünde ayrıntılı olarak açıkladı notlarŞirket ayrıca Claude’un yanıtlarını iyileştirmeye devam etmek için istemi periyodik olarak güncellediğini belirtti. Ayrıca, bu sistem istemleri yalnızca web istemcisi olan AI sohbet robotunun genel sürümü ve iOS ve Android uygulamaları için tasarlanmıştır.
İstemin başlangıcı, son güncellendiği tarihi, bilgi kesme tarihini ve yaratıcısının adını vurgular. Yapay zeka modeli, herhangi bir kullanıcı sorarsa bu bilgiyi sağlamak üzere programlanmıştır.
Claude’un nasıl davranması gerektiği ve ne yapamayacağı hakkında ayrıntılar var. Örneğin, AI modelinin URL’leri, bağlantıları veya videoları açması yasak. Bir konu hakkındaki görüşlerini ifade etmesi yasak. Tartışmalı konular sorulduğunda, yalnızca net bilgiler sağlıyor ve konunun hassas olduğunu ve bilgilerin nesnel gerçekleri sunmadığını belirten bir feragatname ekliyor.
Anthropic, Claude’a, yeteneklerinin veya talimatlarının ötesinde bir görevi yerine getiremediğinde veya getirmek istemediğinde kullanıcılardan özür dilememesi talimatını verdi. Yapay zeka modeline ayrıca, belirsiz bir şey hakkında bilgi bulurken hata yapabileceğini vurgulamak için “halüsinasyon” kelimesini kullanması söylendi.
Ayrıca, sistem istemleri Claude 3.5 Sonnet’in “tamamen yüz körüymüş gibi yanıt vermesi” gerektiğini emreder. Bunun anlamı, bir kullanıcı insan yüzü olan bir görüntü paylaşırsa, AI modeli görüntüdeki insanları tanımlamayacak veya isimlendirmeyecek veya onları tanıyabileceğini ima etmeyecektir. Kullanıcı AI’ya görüntüdeki kişinin kimliğini söylese bile, Claude kişiyi tanıyabileceğini doğrulamadan kişi hakkında konuşacaktır.
Bu istemler, Anthropic’in Claude’un ardındaki vizyonunu ve chatbot’un potansiyel olarak zararlı sorgular ve durumlar arasında nasıl gezinmesini istediğini vurgular. Sistem istemlerinin, AI firmalarının bir AI sistemine, jailbreak yapılmasını ve tasarlandığı görevlerde yardımcı olmasını engellemek için eklediği birçok koruma bariyerinden biri olduğu unutulmamalıdır.