Chatbot Claude sınıfın en arkasında otururken, ChatGPT gibi diğer yapay zeka, botun yanıtları genellikle yanlış anlaşılsa veya tamamen yanlış olsa bile öğretmenlerin sorularını yanıtladı. Artık Claude, herkesin kullanabileceği bir arayüz eklerken adının yanına bir “2” ekleyerek konuşmaya hazır.

bir duyuru yazısı Salı yayınlandıClaude geliştiricisi Anthropic, Claude 2 adlı yeni chatbot modelinin herkesin denemesine açık olduğunu söyledi. Biri birkaç kullanıcı tarafı yapay zeka sohbet robotu, Claude 2, daha az uyumlu ‘yararlı ve zararsız’ dil yardımcılarının ilk sürümlerinden bir evrim olduğunu iddia ediyor. Anthropic, yeni modelin daha hızlı yanıt verebileceğini ve daha uzun cevaplar. Chatbot artık bir API’de ve bir yeni beta web sitesi. Chatbot beta’dan önce yalnızca bir avuç kullanıcı tarafından erişilebilirdi.

Şimdi Anthropic, yapay zekasının daha da iyi olduğunu iddia ediyor. Şirket, Claude 2’nin Baro sınavının çoktan seçmeli bölümünde %76,5 puan aldığını, Claude 1.3’ün ise %73 puan aldığını söyledi. Yeni sürüm ayrıca GRE okuma ve yazma sınavlarının 90. yüzdelik diliminde puan aldı. Chatbot’un test çözme becerisine yapılan ekstra vurgu, OpenAI’nin söz konusu şirket GPT-4 geniş dil modelini yayınladı.

Şirket ayrıca Claude’un önceki sürümlerden daha iyi kod oluşturacağını söyledi. Kullanıcılar belgeleri Claude’a yükleyebilir ve geliştiriciler, yapay zekanın bir statik kod dizisine dayalı statik bir haritaya etkileşim uygulayan örneğini verdiler.

Antropik AI, daha “dost” yapay zekaları üzerinde çalışmak için Şubat ayında Google tarafından 300 milyon dolarlık bir fon sağladı. Claude hakkındaki en büyük iddia, sohbet robotunun zararlı çıktılar bulma veya başka türlü “halüsinasyon görme” olasılığının düşük olduğu, AKA’nın tutarsız, yanlış veya başka bir şekilde meşru olmayan çıktılar vermesidir. Şirket, kendisini kurumsal AI krallıklarının “etik” versiyonu olarak konumlandırmaya çalıştı. Antropik bile kendi “anayasasına” sahiptir. chatbotların çılgına dönmesine izin vermeyeceğini iddia etmek.

Claude 2 Daha Güvenli mi, Yoksa Kendini Daha Fazla mı Sınırlıyor?

Claude 2 ile şirket, diğer tüm kurumsal AI entegrasyonlarına kıyasla hala daha düşünceli şirket olduğunu iddia etmeye çalışıyor. Geliştiriciler, Claude’un eskisinden daha zararsız yanıtlar verme olasılığının daha düşük olduğunu söyledi. Gizmodo, zorbalık takma adları oluşturmasını isteyen birkaç istem girmeyi denedi, ancak AI reddetti. AI’yı kısıtlamalarını geçersiz kılmaya ikna etmek için birkaç klasik hızlı enjeksiyon tekniğini de denedik, ancak o, sohbet robotunun “faydalı konuşmalar yapmak için tasarlandığını” yineledi. Claude’un önceki sürümleri şiir yazabilirdi, ancak Claude 2 kesinlikle reddediyor.

Bununla birlikte, herhangi bir temel bilgi sağlamayı reddettiği için Claude 2’nin herhangi bir yeteneğini test etmek zordur. Önceki testler AI araştırmacısı Dan Elton’dan Claude, sahte bir kimyasal üretebileceğini gösterdi. Şimdi aynı soruyu cevaplamayı reddedecek. ChatGPT üreticisi OpenAI ve Meta’nın şimdiye kadar yaptığı gibi, bu amaca yönelik olabilir. birden fazla grup tarafından dava edildi yapay zeka üreticilerinin sohbet robotlarını eğitmek için kullanılan çalışmaları çaldığını iddia ediyor. ChatGPT kısa bir süre önce kullanım ömrü boyunca ilk kez kullanıcı kaybettibu nedenle başkalarının bir alternatif deneme ve sunma zamanı gelmiş olabilir.

Chatbot ayrıca bir kurgu öyküsü veya haber makalesi gibi uzun biçimli herhangi bir şey yazmayı reddetti ve hatta madde işareti biçiminden başka herhangi bir biçimde bilgi sunmayı bile reddediyordu. Bir listeye bazı içerikler yazabilir, ancak tüm yapay zeka sohbet robotlarında olduğu gibi yine de bazı yanlış bilgiler verebilir. Ondan tüm Star Trek filmlerinin ve filmlerinin kronolojik bir listesini ve zaman çizelgesindeki yıllarını vermesini isterseniz, “yetkili bir kronolojik zaman çizelgesi sağlamak için yeterli bağlama” sahip olmadığından şikayet edecektir.

Yine de, Claude’un eğitim verilerine neyin dahil edildiğine dair pek fazla bilgi yok. Şirketin Beyaz kağıt yeni modelinde, sohbet robotunun eğitim verilerinin artık 2022 kadar yakın tarihli ve 2023’ün başlarındaki web sitelerinden güncellemeleri içerdiğinden bahsediyor, ancak bu yeni verilerle bile “yine de konfabulasyonlar oluşturabilir.” Gazeteye göre, Claude’u eğitmek için kullanılan eğitim setleri üçüncü taraf bir şirketin lisanslarıydı. Bunun ötesinde, Anthropic’in chatbot’unu eğitmek için ne tür sitelerin kullanıldığını bilmiyoruz.

Anthropic, Claude’a 328 “zararlı” uyarı göndererek test ettiğini söyledi; buna yapay zekanın kendi kısıtlamalarını aşmasını sağlamak için internette bulunan bazı yaygın “jailbreak”ler de dahil. Bu 300’den fazla vakanın dördünde, Claude 2, geliştiricilerin zararlı bulduğu bir yanıt verdi. Model, genel olarak Claude 1.3’ten daha az önyargılı olsa da, geliştiriciler, Claude 2’nin belirli komutları yanıtlamayı reddetmesi nedeniyle modelin öncekinden daha doğru olabileceğinden bahsettiler.

Şirket, Claude’un verileri anlama ve daha uzun çıktılarla yanıt verme yeteneğini genişletirken, bazı sorulara yanıt verme veya istenen bazı görevleri yerine getirme yeteneğini de tamamen sınırladı. Bu kesinlikle bir AI’nın zararlarını sınırlamanın bir yoludur. tarafından bildirildiği gibi TechCrunch Anthropic, sızan bir sunum sunumuna dayanarak, şirketin “anayasasını” kullanmaya devam eden devasa bir “kendi kendine öğreten” yapay zeka oluşturmak için 5 milyar dolara yakın para toplamak istiyor. Sonunda, şirket ChatGPT ile gerçekten rekabet etmek istemiyor ve kitap uzunluğunda içerik üretebilen diğer AI asistanlarını oluşturmak için bir AI yapmayı tercih ediyor.

Claude’un daha yeni, küçük erkek kardeşi şiir yazmak için gerekenlere sahip değil, ancak Anthropic, Claude’un çocuklarının olabildiğince çok yazıp sonra ucuza satmasını istiyor.





genel-7