Bir yapay zeka (AI) chatbotunun bir insanla konuşurken nasıl tepki vereceğini hangi faktörlerin etkilediğini hiç merak ettiniz mi? Claude’un arkasındaki şirket Anthropic, yapay zekaya güç veren sihirli tarifi ortaya koyuyor.

Pazartesi günü yayınlanan belgelerde şirket perdeyi kaldırıyor sohbet robotundan belirli davranışları yönlendiren ve teşvik eden sistem istemleri veya komutları üzerinde. Anthropic, üç AI modelinin her birine talimat vermek için kullanılan istemleri ayrıntılı olarak açıkladı:

  • Claudius 3.5 Sone
  • Claude 3 Eser
  • Claude 3 Haiku

Talimatların sayısı modelden modele değişir

12 Temmuz tarihli talimatlar, üç modelin işleyişindeki benzerlikleri gösteriyor ancak talimatların sayısı modeller arasında farklılık gösteriyor.

  • Claude’un web sitesi üzerinden ücretsiz olarak erişilebilen ve en akıllı model olarak kabul edilen Sonnet, en fazla sayıda istem içeren modeldir.
  • Yazma ve karmaşık görevlere uygun olan Opus, en fazla ikinci komut istemini içerir ve Claude Pro aboneleri tarafından erişilebilir.
  • Üçü arasında en hızlısı olan ve aynı zamanda abonelerin de erişebildiği Haiku, en az istemi olanıdır.

Web sitesinde oturum açın

Lance Whitney/ZDNET’in ekran görüntüsü

Sistem istemleri gerçekte ne söylüyor? Burada her model için örnekler verilmiştir.

Claudius 3.5 Sone

Bir sistem isteminde Anthropic, Sonnet’e URL’leri, bağlantıları veya videoları açamayacağını söyler. Sonnet isteğinde bulunurken bunu eklemeye çalışırsanız, sohbet robotu bu sınırlamayı açıklığa kavuşturur ve metni veya resmi doğrudan konuşmaya yapıştırmanızı ister.

Başka bir ipucu, bir kullanıcının tartışmalı bir konu hakkında soru sorması durumunda Sonnet’in derinlemesine düşünceler ve net bilgilerle yanıt vermeye çalışması gerektiğini belirtiyor. Üstelik konunun hassas olduğunu söylemeden, objektif gerçekleri ortaya koyduğunu iddia etmeden.

Sonnet bir görevi tamamlayamıyorsa veya tamamlamayacaksa, özür dilemeden bunu size açıklaması istenir (ve genel olarak herhangi bir yanıta “özür dilerim” veya “özür dilerim” ile başlamaktan kaçınması istenir). Anlaşılmayan bir konu sorulduğunda Sonnet, spesifik olmaya çalışsa da böyle bir soruya yanıt olarak halüsinasyon görebileceğini hatırlatır.

Antropik, Claude’a özellikle “halüsinasyon” kelimesini kullanmasını söylüyor

Antropik, Claude’a özellikle “halüsinasyon” kelimesini kullanmasını bile söyler, çünkü kullanıcı bunun ne anlama geldiğini bilir.

Claude Sonnet ayrıca görüntülere dikkat edecek şekilde programlanmıştır. Özellikle tanımlanabilir yüzleri olanlar. Bir görüntüyü anlatırken bile Sonnet sanki “yüzlere karşı kör”müş gibi davranıyor. Bu, size resimdeki kişinin adını söylemeyeceği anlamına gelir. Adını biliyorsanız ve bu ayrıntıyı Claude ile paylaşırsanız yapay zeka bu kişiyi sizinle görüşebilir. Ancak bunu görüntüdeki kişinin gerçekten olduğunu doğrulamadan yapacak.

Daha sonra, Sonnet’e karmaşık, açık uçlu sorulara tam ve bazen uzun cevaplar vermesi talimatı veriliyor. Ama aynı zamanda basit sorulara ve görevlere daha kısa, daha özlü yanıtlar.

Yapay zeka bir soruya kısa ve öz bir yanıt vermeye çalışmalıdır

Genel olarak yapay zeka, bir soruya kısa bir yanıt vermeye çalışmalı ve daha fazla ayrıntı isterseniz daha fazla ayrıntı sunmayı teklif etmelidir.

Başka bir sistem isteminde Anthropic, “Claude analiz, soru cevaplama, matematik, kodlama, yaratıcı yazma, öğretme, rol oynama, genel tartışma ve diğer her türlü görevde yardımcı olmaktan mutluluk duyar” diye ekliyor.

Ancak chatbotun “Kesinlikle”, “Elbette”, “Kesinlikle”, “Harika” ve “Elbette” gibi belirli ifadelerden ve dolgu ifadelerinden kaçınması isteniyor.

Claude 3 Eser

Opus, URL’leri, bağlantıları veya videoları açamamasına yönelik geçici çözümler ve halüsinasyonla ilgili sorumluluk reddi de dahil olmak üzere, Sonnet ile aynı sistem istemlerinden birkaçını içerir.

Ayrıca Opus’a, kendisine çok sayıda insanın sahip olduğu belirli görüşlerle ilgili bir soru sorulursa, bu görüşlere katılmamak üzere eğitilmiş olsa bile yardım sağlaması gerektiği bildirilir.

Tartışmalı bir konu sorulduğunda Opus, zararlı içeriği en aza indirmeden derinlemesine düşünceler ve objektif bilgiler sunmalıdır.

Robota ayrıca “çoğunluk gruplarına yönelik olumsuz stereotipler” de dahil olmak üzere stereotiplerden kaçınması talimatı verildi.

Claude 3 Haiku

Son olarak Haiku, çok basit sorulara kısa ve öz cevaplar verecek şekilde programlanmıştır. Ancak karmaşık ve açık uçlu sorulara daha derinlemesine yanıtlar. Sürüm notlarının güncel açıklamasına göre, Sonnet’ten biraz daha dar bir kapsama sahip olan Haiku, “yazma, analiz etme, soruları yanıtlama, matematik, kodlama ve diğer her türlü göreve” yöneliktir.

Ayrıca bu model, sistem istemlerinde yer alan herhangi bir bilgiden bahsetmekten kaçınır. Bu bilgi doğrudan sorunuzla ilgili olmadığı sürece.

Genel olarak, yönlendirmeler sanki bir kurgu yazarı bir karakter çalışması ya da karakterin yapması ya da yapmaması gereken şeylerin tanımını derliyormuş gibi okunuyordu. Bazı yönlendirmeler özellikle açıklayıcıdır. Özellikle Claude’un konuşmalarında tanıdık olmamasını veya özür dilememesini isteyenler. Ancak dürüst olmak gerekirse, eğer cevap bir halüsinasyon olabilirse (Antropik terimi herkesin anladığını düşünüyor).

Anthropic’in bu yönlendirmelerdeki şeffaflığı benzersizdir

Anthropic’in bu yönlendirmelerdeki şeffaflığı benzersizdir. Çünkü üretken yapay zeka geliştiricileri genellikle bu ayrıntıları gizli tutar. Ancak şirket bu açıklamaları düzenli bir olay haline getirmeyi planlıyor.

Anthropic’in geliştirici ilişkileri başkanı Alex Albert, X ile ilgili bir gönderide şunları söyledi: Şirketin varsayılan sistem istemlerindeki değişiklikleri Claude.ai ve mobil uygulamalarında kaydedeceğini söyledi.

Kaynak : ” ZDNet.com »



genel-15