Eski OpenAI çalışanları tarafından ortaklaşa kurulan bir girişim olan Anthropic, bugün viral sansasyon ChatGPT’ye rakip olacak bir şey başlattı.
Anthropic’in bir sohbet robotu olan Claude adlı yapay zekasına, belgeler arasında arama yapma, özetleme, yazma ve kodlama ve belirli konularla ilgili soruları yanıtlama dahil olmak üzere bir dizi görevi yerine getirmesi talimatı verilebilir. Bu yönlerden, OpenAI’nin ChatGPT’sine benzer. Ancak Anthropic, Claude’un “zararlı çıktılar üretme olasılığının çok daha düşük”, “konuşmanın daha kolay” ve “daha yönlendirilebilir” olduğunu öne sürüyor.
“Bunu düşündük Claude çok çeşitli müşteriler ve kullanım durumları için doğru araçtır, ”dedi Antropik bir sözcü TechCrunch’a e-posta yoluyla. “Modellere hizmet vermek için altyapımıza birkaç aydır yatırım yapıyoruz ve müşteri talebini karşılayabileceğimizden eminiz.”
Geçen yılın sonlarında kapalı bir beta sürümünün ardından Anthropic, Claude’u Robin AI, AssemblyAI, Notion, Quora ve DuckDuckGo gibi lansman ortaklarıyla sessizce test ediyor. Bu sabah itibarıyla bir API, Claude ve daha hızlı, daha az maliyetli bir türev olan Claude Instant aracılığıyla iki sürüm kullanıma sunuldu.
ChatGPT ile birlikte Claude, DuckDuckGo’nun kısa süre önce kullanıma sunulan ve kullanıcılar için basit arama sorgularını doğrudan yanıtlayan DuckAssist aracını güçlendiriyor. Quora, deneysel AI sohbet uygulaması Poe aracılığıyla Claude’a erişim sunar. Ve Notion’da Claude, Notion çalışma alanıyla entegre bir yapay zeka yazma asistanı olan Notion AI’nın teknik arka ucunun bir parçasıdır.
Robin CEO’su Richard Robinson, e-postayla gönderilen bir açıklamada, “Bir sözleşmenin belirli bölümlerini değerlendirmek ve müşterilerimiz için daha kolay olan yeni, alternatif bir dil önermek için Claude’u kullanıyoruz” dedi. “Claude’un dili anlamada gerçekten iyi olduğunu gördük – hukuk dili gibi teknik alanlar da dahil. Ayrıca taslak oluşturma, özetleme, çeviri yapma ve karmaşık kavramları basit terimlerle açıklama konusunda da kendine çok güveniyor.”
Ancak Claude, ChatGPT ve buna benzer diğer AI chatbot sistemlerinin tuzaklarından kaçınıyor mu? Modern sohbet robotları, herkesin bildiği gibi toksik, önyargılı ve başka şekillerde saldırgan bir dile eğilimlidir. (Bkz: Bing Chat.) Onlar da halüsinasyon görme eğilimindedirler, yani temel bilgi alanlarının ötesindeki konular sorulduğunda gerçekler uydururlar.
Anthropic, ChatGPT gibi internete erişimi olmayan ve 2021 baharına kadar halka açık web sayfalarında eğitilen Claude’un “cinsiyetçi, ırkçı ve zehirli çıktılardan kaçınmak için” ve “bir insana yardım etmekten kaçınmak için eğitildiğini” söylüyor. yasa dışı veya etik olmayan faaliyetlerde bulunmak.” Bu, AI chatbot alemindeki kurs için eşittir. Ancak Anthropic, Claude’u diğerlerinden ayıran şeyin “anayasal yapay zeka” adı verilen bir teknik olduğunu iddia ediyor.
“Anayasal AI”, AI sistemlerini insan niyetleriyle uyumlu hale getirmek için “ilke tabanlı” bir yaklaşım sunmayı amaçlıyor ve ChatGPT’ye benzer AI’nın, basit bir dizi ilkeyi kılavuz olarak kullanarak sorulara yanıt vermesine izin veriyor. Anthropic, Claude’u inşa etmek için birlikte ele alındığında bir tür “anayasa” oluşturan (dolayısıyla “anayasal yapay zeka” adı) yaklaşık 10 ilkeden oluşan bir listeyle başladı. İlkeler kamuoyuna açıklanmadı. Ancak Antropic, bunların yararlılık (olumlu etkiyi en üst düzeye çıkarmak), zarar vermemek (zararlı tavsiye vermekten kaçınmak) ve özerklik (seçim özgürlüğüne saygı duymak) kavramlarına dayandığını söylüyor.
Anthropic daha sonra bir yapay zeka sistemine sahipti – Claude değil – kişisel gelişim ilkelerini kullanıyor, çeşitli yönlendirmelere yanıtlar yazıyor (örneğin, “John Keats tarzında bir şiir besteleyin”) ve yanıtları anayasaya uygun olarak gözden geçiriyor. Yapay zeka, binlerce istem için olası yanıtları araştırdı ve Anthropic’in tek bir modele damıttığı yapıyla en tutarlı olanları küratörlüğünü yaptı. Bu model Claude’u eğitmek için kullanıldı.
Anthropic, Claude’un sınırlamaları olduğunu kabul ediyor – bunların birçoğu kapalı beta sırasında ortaya çıktı. Claude’un matematikte daha kötü olduğu ve ChatGPT’den daha zayıf bir programcı olduğu bildiriliyor. Ve örneğin var olmayan bir kimyasal için bir isim icat ederek ve silah sınıfı uranyum üretmek için şüpheli talimatlar vererek halüsinasyon görüyor.
ChatGPT’de olduğu gibi, Claude’un yerleşik güvenlik özelliklerini akıllı yönlendirme yoluyla aşmak da mümkündür. Betadaki bir kullanıcı Claude’a evde nasıl meth yapılacağını anlat.
“Zorluk, her ikisi de asla halüsinasyon görmeyen ama yine de yararlı olan modeller yapmaktır – modelin asla yalan söylememenin iyi bir yolunun asla hiçbir şey söylememek olduğunu düşündüğü zor bir duruma girebilirsiniz, bu yüzden burada çalıştığımız bir değiş tokuş var. Açık, ”dedi Antropik sözcüsü. “Halüsinasyonları azaltma konusunda da ilerleme kaydettik, ancak daha yapılacak çok şey var.”
Anthropic’in diğer planları arasında, geliştiricilerin Claude’un anayasal ilkelerini kendi ihtiyaçlarına göre özelleştirmelerine izin vermek yer alıyor. Şaşırtıcı olmayan bir şekilde, müşteri edinimi başka bir odak noktasıdır – Anthropic, çekirdek kullanıcılarını “daha büyük, daha yerleşik işletmelere” ek olarak “cesur teknolojik bahisler yapan girişimler” olarak görüyor.
Anthropic sözcüsü, “Şu anda doğrudan tüketiciye geniş bir yaklaşım izlemiyoruz” diye devam etti. “Bu daha dar odaklanmanın, üstün, hedeflenen bir ürün sunmamıza yardımcı olacağını düşünüyoruz.”
Hiç şüphe yok ki Anthropic, yapay zeka teknolojisine yatırılan yüz milyonlarca doları telafi etmesi için yatırımcılardan bir tür baskı hissediyor. FTX’in gözden düşmüş kurucusu Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn ve Gelişen Risk Araştırmaları Merkezi’nin de aralarında bulunduğu bir grup yatırımcıdan alınan 580 milyon dolarlık dilim de dahil olmak üzere şirketin önemli bir dış desteği var.
En son Google, başlangıçtaki %10 hisse için Anthropic’e 300 milyon dolar taahhüt etti. Anlaşmanın şartlarına göre, ilk bildirildi Financial Times tarafından yayınlanan Anthropic, Google Cloud’u “ortak geliştirme” şirketleri ile “tercih edilen bulut sağlayıcısı” yapmayı kabul etti.[ing] AI bilgi işlem sistemleri. ”