Anthropic bir lansman gerçekleştiriyor program Kendi Claude modeli gibi üretken modeller de dahil olmak üzere yapay zeka modellerinin performansını ve etkisini değerlendirebilecek yeni tip kıyaslamaların geliştirilmesini finanse etmek.

Pazartesi günü duyurulan Anthropic programı, şirketin bir blog yazısında belirttiği gibi “Yapay Zeka modellerindeki gelişmiş yetenekleri etkili bir şekilde ölçebilen” üçüncü taraf kuruluşlara hibe dağıtacak. İlgilenenler, sürekli olarak değerlendirilmek üzere başvuruda bulunabilirler.

Anthropic resmi blogunda, “Bu değerlendirmelere yaptığımız yatırım, tüm ekosisteme fayda sağlayan değerli araçlar sağlayarak yapay zeka güvenliği alanının tamamını yükseltmeyi amaçlıyor,” diye yazdı. “Yüksek kaliteli, güvenlikle ilgili değerlendirmeler geliştirmek zorlu olmaya devam ediyor ve talep arzı geride bırakıyor.”

Daha önce vurguladığımız gibi, AI’nın bir kıyaslama sorunu var. Günümüzde AI için en sık alıntılanan kıyaslamalar, ortalama bir kişinin test edilen sistemleri nasıl kullandığını yakalamada yetersiz kalıyor. Ayrıca, özellikle modern üretken AI’nın doğuşundan önce yayınlanan bazı kıyaslamaların, yaşları göz önüne alındığında, ölçtüklerini iddia ettikleri şeyi ölçüp ölçmedikleri konusunda da sorular var.

Anthropic’in önerdiği çok üst düzey, kulağa geldiğinden daha zor çözüm, yeni araçlar, altyapı ve yöntemler aracılığıyla yapay zeka güvenliği ve toplumsal etkilere odaklanarak zorlu kıstaslar oluşturuyor.

Şirket, özellikle bir modelin siber saldırılar gerçekleştirme, kitle imha silahlarını “geliştirme” (örneğin nükleer silahlar) ve insanları manipüle etme veya aldatma (örneğin deepfake’ler veya yanlış bilgiler yoluyla) gibi görevleri yerine getirme yeteneğini değerlendiren testler talep ediyor. Ulusal güvenlik ve savunma ile ilgili AI riskleri için Anthropic, riskleri belirlemek ve değerlendirmek için bir tür “erken uyarı sistemi” geliştirmeye kararlı olduğunu söylüyor, ancak blog yazısında böyle bir sistemin neleri içerebileceğini açıklamıyor.

Anthropic ayrıca yeni programının, yapay zekanın bilimsel çalışmalara yardımcı olma, birden fazla dilde konuşma, yerleşik önyargıları azaltma ve kendini sansürleme toksisitesini azaltma potansiyelini araştıran kıyaslama ölçütleri ve “uçtan uca” görevler üzerine araştırmaları desteklemeyi amaçladığını söylüyor.

Tüm bunları başarmak için Anthropic, konu uzmanlarının kendi değerlendirmelerini ve “binlerce” kullanıcıyı içeren modellerin büyük ölçekli denemelerini geliştirmelerine olanak tanıyan yeni platformlar öngörüyor. Şirket, program için tam zamanlı bir koordinatör işe aldığını ve ölçeklenebilir potansiyele sahip olduğuna inandığı projeleri satın alabileceğini veya genişletebileceğini söylüyor.

“Her projenin ihtiyaçlarına ve aşamasına göre uyarlanmış bir dizi finansman seçeneği sunuyoruz,” diye yazıyor Anthropic gönderide, ancak bir Anthropic sözcüsü bu seçenekler hakkında daha fazla ayrıntı vermeyi reddetti. “Ekipler, sınır kırmızı ekibinden, ince ayar, güven ve emniyet ve diğer ilgili ekiplerden Anthropic’in alan uzmanlarıyla doğrudan etkileşim kurma fırsatına sahip olacak.”

Anthropic’in yeni AI ölçütlerini destekleme çabası takdire şayan bir çabadır — tabii ki bunun arkasında yeterli nakit ve insan gücü varsa. Ancak şirketin AI yarışındaki ticari hedefleri göz önüne alındığında, buna tamamen güvenmek zor olabilir.

Blog yazısında Anthropic, finanse ettiği belirli değerlendirmelerin, AI güvenlik sınıflandırmaları BT gelişmiş (kar amacı gütmeyen AI araştırma örgütü METR gibi üçüncü taraflardan gelen bazı girdilerle). Bu, şirketin yetkisi dahilindedir. Ancak programa başvuranları, tamamen katılmayabilecekleri “güvenli” veya “riskli” AI tanımlarını kabul etmeye zorlayabilir.

Yapay zeka topluluğunun bir kısmının, Anthropic’in nükleer silah riskleri gibi “felaket” ve “aldatıcı” yapay zeka risklerine ilişkin ifadelerine de itiraz etmesi muhtemel. Birçok uzman Yapay zekanın bildiğimiz haliyle dünyayı sona erdirecek, insanları alt edecek yeteneklere yakın bir zamanda, hatta belki de hiç sahip olmayacağını gösteren çok az kanıt olduğunu söylüyorlar. Bu uzmanlar, yakın gelecekte “süper zeka” iddialarının yalnızca günümüzün acil yapay zeka düzenleme sorunlarından, örneğin yapay zekanın halüsinasyon eğilimleri gibi, dikkati uzaklaştırmaya hizmet ettiğini ekliyor.

Anthropic, gönderisinde programının “kapsamlı yapay zeka değerlendirmesinin bir endüstri standardı olduğu bir geleceğe doğru ilerlemenin katalizörü” olarak hizmet etmesini umduğunu yazıyor. Bu, birçok kişinin açık olduğu bir misyon. kurumsal-bağımsız daha iyi AI kıyaslamaları oluşturma çabaları özdeşleşebilir. Ancak bu çabaların, sadakati nihayetinde hissedarlara ait olan bir AI satıcısıyla güçlerini birleştirmeye istekli olup olmadıkları henüz belli değil.



genel-24