OpenAI CEO’su Sam Altman, OpenAI’nin, yapay zeka platformlarındaki riskleri değerlendirmeyi ve ele almayı amaçlayan federal bir hükümet organı olan ABD Yapay Zeka Güvenlik Enstitüsü ile, güvenlik testleri için bir sonraki büyük üretken yapay zeka modeline erken erişim sağlamak amacıyla bir anlaşma üzerinde çalıştığını söyledi.

The duyuruAltman’ın Perşembe akşamı geç saatlerde X’te yaptığı bir gönderide ayrıntılara yer verilmemişti. Ancak bu — bir benzer anlaşma Haziran ayında İngiltere’deki yapay zeka güvenliği kurumunun toplanmasıyla birlikte, OpenAI’nin daha yetenekli, güçlü üretken yapay zeka teknolojilerini geliştirmek için yapay zeka güvenliği çalışmalarını önceliklendirmediği yönündeki anlatıya karşı bir önlem alınması amaçlanıyor gibi görünüyor.

Mayıs ayında, OpenAI, “süper zeki” AI sistemlerinin kontrolsüzce hareket etmesini önlemek için kontroller geliştirme sorunu üzerinde çalışan bir birimi etkili bir şekilde dağıttı. Bizimki de dahil olmak üzere raporlar, OpenAI’nin yeni ürünler piyasaya sürmek adına ekibin güvenlik araştırmalarını bir kenara bıraktığını ve nihayetinde ekibin iki eş liderinin, Jan Leike’nin (şu anda AI girişimi Anthropic’te güvenlik araştırmalarına liderlik ediyor) ve OpenAI kurucu ortağı Ilya Sutskever’in (kendi güvenlik odaklı AI şirketi Safe Superintelligence Inc.’i kurdu) istifa etmesine yol açtığını ileri sürdü.

Giderek artan sayıda eleştirmenin tepkisine yanıt olarak OpenAI, kendi kısıtlayıcı karalama karşıtı maddeler dolaylı olarak ihbarcılığı caydıran ve bir güvenlik komisyonu oluşturan ve ayrıca hesaplamasının %20’sini güvenlik araştırmasına ayıran. (Dağılan güvenlik ekibine çalışmaları için OpenAI’nin hesaplamasının %20’si vaat edilmişti, ancak sonuçta bunu hiç almadılar.) Altman %20 taahhüdünü yeniden taahhüt etti ve OpenAI’nin Mayıs ayında yeni ve mevcut personel için karalama yapmama şartlarını geçersiz kıldığını yeniden teyit etti.

Ancak bu hamleler bazı gözlemcileri yatıştırmaya yetmedi; özellikle de OpenAI’nin Altman ve daha yakın zamanda, güvenlik komisyonunu tüm şirket içeriden kişilerle doldurmasının ardından. yeniden atanmış Üst düzey bir yapay zeka güvenlik yöneticisinin başka bir kuruluşa devredilmesi.

Hawaii’den Demokrat Brian Schatz’ın da aralarında bulunduğu beş senatör, ortaya çıkan sorular Altman’a hitaben yazılmış son mektupta OpenAI’nin politikaları hakkında. OpenAI baş strateji sorumlusu Jason Kwon cevap verdi Bugün mektuba göre, OpenAI “[is] “Sürecin her aşamasında sıkı güvenlik protokollerini uygulamaya adadık.”

OpenAI’nin ABD AI Güvenlik Enstitüsü ile anlaşmasının zamanlaması, şirketin bu hafta başında Yapay Zeka modelleri için standartları ve yönergeleri belirleyen bir yürütme organı olarak Güvenlik Enstitüsünü yetkilendirecek bir Senato tasarısı olan Yeniliğin Geleceği Yasası’nı onaylaması ışığında biraz şüpheli görünüyor. Bu hamleler bir araya geldiğinde düzenleyici bir ele geçirme girişimi olarak algılanabilir – veya en azından OpenAI’nin federal düzeydeki AI politika yapımına etki etmesi olarak.

Altman’ın, ABD’nin kritik altyapıları genelinde “AI’nın güvenli ve emniyetli bir şekilde geliştirilmesi ve konuşlandırılması” için önerilerde bulunan ABD İç Güvenlik Bakanlığı Yapay Zeka Emniyet ve Güvenlik Kurulu’nda yer alması boşuna değil. Ve OpenAI, bu yıl federal lobicilik harcamalarını önemli ölçüde artırarak, 2023’ün tamamında 260.000 dolara kıyasla 2024’ün ilk altı ayında 800.000 dolar harcadı.

ABD Ticaret Bakanlığı’nın Ulusal Standartlar ve Teknoloji Enstitüsü’nde bulunan ABD AI Güvenlik Enstitüsü, Anthropic’in yanı sıra Google, Microsoft, Meta, Apple, Amazon ve Nvidia gibi büyük teknoloji şirketlerini de içeren bir şirketler konsorsiyumuna danışmanlık yapıyor. Endüstri grubu, Başkan Joe Biden’ın Ekim ayındaki AI yürütme emrinde özetlenen eylemler üzerinde çalışmakla görevlendirildi. Bunlar arasında AI kırmızı takımı, yetenek değerlendirmeleri, risk yönetimi, güvenlik ve emniyet ve sentetik içerik filigranı için yönergeler geliştirmek yer alıyor.



genel-24