150’den fazla önde gelen yapay zeka (AI) araştırmacısı, etik uzmanı ve diğerleri bir sözleşme imzaladı. açık mektup Üretken yapay zeka (genAI) şirketlerini, sistemlerine ilişkin bağımsız değerlendirmelere başvurmaya çağırıyoruz; bu değerlendirmenin eksikliği, temel korumalarla ilgili endişelere yol açıyor.

MIT, Princeton ve Stanford Üniversitesi’nden araştırmacılar tarafından hazırlanan mektupta, yasal ve teknik koruma çağrısında bulunuldu. genAI modelleri üzerine iyi niyetli araştırmabunun halkın korunmasına yardımcı olabilecek güvenlik önlemlerini engellediğini söylediler.

Mektup ve arkasında bir çalışmaGenAI ürünlerinin bağımsız değerlendirmesi için yasal bir “güvenli liman” çağrısında bulunan yaklaşık iki düzine profesör ve araştırmacının yardımıyla oluşturuldu.

Mektup, OpenAI, Anthropic, Google, Meta ve Midjourney gibi şirketlere gönderildi ve onlardan, tüketicilerin önyargıdan, telif hakkı ihlali iddialarından ve rıza dışı mahrem görüntülerden korunmasını sağlamak için araştırmacıların ürünlerini araştırmasına izin vermelerini istedi.

Mektuptan sorumlu araştırmacılardan ikisi, “Halihazırda uygulanmakta olan yapay zeka modellerinin bağımsız olarak değerlendirilmesi, emniyet, emniyet ve güvenin sağlanması için yaygın olarak gerekli görülüyor” dedi. bir blog yazısında yazdı. “Yapay zeka modellerine yönelik bağımsız kırmızı ekip araştırması, düşük kaynaklı dillerle, güvenlik önlemlerini atlayarak ve çok çeşitli jailbreaklerle ilgili güvenlik açıklarını ortaya çıkardı.

“Bu değerlendirmeler, kötüye kullanım, önyargı, telif hakkı ve diğer sorunlarla ilgili, genellikle öngörülemeyen geniş bir model kusurlarını araştırıyor” dediler.

Geçen Nisan ayında bir teknoloji uzmanı, “topluma ve insanlığa yönelik ciddi riskleri” öne sürerek yapay zeka laboratuvarlarının en güçlü sistemleri eğitmeyi en az altı ay durdurması çağrısında bulundu.

O açık mektup şu anda Apple’ın kurucu ortağı Steve Wozniak da dahil olmak üzere 3.100’den fazla imza sahibi var; teknoloji liderleri, özellikle San Francisco merkezli OpenAI Laboratuvarı’nın yakın zamanda duyurulan GPT-4 algoritmasına dikkat çekti ve şirketin gözetim standartları yerine getirilene kadar daha fazla geliştirmeyi durdurması gerektiğini söyledi.

Son mektupta AI yazıyordu şirketler, akademik araştırmacılarVe sivil toplum “Üretken yapay zeka sistemlerinin kayda değer riskler taşıdığını ve bu risklerin bağımsız olarak değerlendirilmesinin hesap verebilirliğin önemli bir biçimi olduğunu kabul ediyorum.”

İmzacılar arasında Ivy League okullarından ve MIT dahil diğer önde gelen üniversitelerden profesörlerin yanı sıra Hugging Face ve Mozilla gibi şirketlerin yöneticileri de yer alıyor. Listede ayrıca Demokrasi ve Teknoloji Merkezi araştırma direktörü Dhanaraj Thakur ve AI Risk ve Güvenlik Açığı İttifakı başkanı Subhabrata Majumdar gibi araştırmacı ve etik uzmanları da yer alıyor.

Safeharbor ekran görüntüsü Knight Birinci Değişiklik Enstitüsü, Columbia Üniversitesi

Mektup, bazı genAI üreticilerinin araştırmacıların sistemlerine erişmesini sağlayacak özel programlara sahip olduğu gerçeğini kabul ediyor ve hatta övüyor; aynı zamanda onları, teknolojilerini kimin görebileceği veya göremeyeceği konusunda öznel olmaya da çağırıyor.

Araştırmacılar özellikle AI şirketleri Cohere ve OpenAI’yi kuralın istisnaları olarak nitelendirdi, ancak “korunan faaliyetlerin kapsamı konusunda bazı belirsizlikler devam ediyor.”

Tutarlılık izin verir “API’ye yönelik kasıtlı stres testi ve düşmanca saldırılar”, uygun güvenlik açığı açıklamasını sağladı (açık yasal vaatler olmaksızın). Ve OpenAI, teklifimizin ilk taslağına yanıt olarak güvenli limanını “model güvenlik açığı araştırmasını” ve “akademik model güvenlik araştırmasını” içerecek şekilde genişletti.

Diğer durumlarda, genAI firmaları araştırmacı hesaplarını askıya aldı ve hatta bazı değerlendirme türlerini caydırmak için hizmet şartlarını değiştirdi. Araştırmacılara göre “bağımsız araştırmacıların yetkisini devre dışı bırakmak, AI şirketlerinin kendi çıkarına değil.”

Mektupta, genAI ürünlerini araştıran bağımsız değerlendiricilerin, hesabın askıya alınmasından (temyiz fırsatı olmadan) ve yasal risklerden korktuğu ve “her ikisinin de araştırma üzerinde caydırıcı etkileri olabileceği” öne sürüldü.

İmzacılar, kullanıcıların korunmasına yardımcı olmak için yapay zeka şirketlerinin araştırmalara iki düzeyde koruma sağlamasını istiyor:

  1. Sağlanacak yasal bir güvenli liman iyi niyet köklü araştırmalarla yürütülen bağımsız yapay zeka emniyeti, güvenliği ve güvenilirliği araştırması güvenlik açığı açıklaması.
  2. Araştırmacıların değerlendirme uygulamalarını denetlemek için bağımsız incelemeciler kullanarak daha adil erişime yönelik kurumsal bir taahhüt.

Computerworld bir yanıt almak için OpenAI ve Google’a ulaştı ancak her iki şirketten de hemen bir yorum gelmedi.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13