Yapay zeka güvenliğine yaklaşımına yönelik eleştirilerin ışığında OpenAI, oluşturulan şirketin projeleri ve operasyonlarıyla ilgili “kritik” emniyet ve güvenlik kararlarını denetleyecek yeni bir komite. Ancak etikçilerin öfkesini artıracağı kesin olan bir hareketle OpenAI, komiteye dışarıdan gözlemciler yerine şirket içinden (OpenAI CEO’su Sam Altman da dahil olmak üzere) kişilerden oluşan personel atamayı seçti.
Altman ve Emniyet ve Güvenlik Komitesinin geri kalanı – OpenAI yönetim kurulu üyeleri Bret Taylor, Adam D’Angelo ve Nicole Seligman’ın yanı sıra baş bilim insanı Jakub Pachocki, Aleksander Madry (OpenAI’nin “hazırlık” ekibine liderlik ediyor), Lilian Weng (güvenlik başkanı) Şirketin kurumsal blogunda yer alan bir gönderiye göre, Matt Knight (güvenlik başkanı) ve John Schulman (“hizalama bilimi” başkanı) önümüzdeki 90 gün boyunca OpenAI’nin güvenlik süreçlerini ve korumalarını değerlendirmekten sorumlu olacak. OpenAI, komitenin daha sonra bulgularını ve önerilerini incelenmek üzere OpenAI yönetim kurulunun tamamıyla paylaşacağını ve bu noktada kabul edilen önerilere ilişkin “güvenlik ve güvenlikle tutarlı bir şekilde” bir güncelleme yayınlayacağını söylüyor.
“OpenAI kısa süre önce bir sonraki öncü modelini eğitmeye başladı ve ortaya çıkan sistemlerin bizi yolumuzda bir sonraki yetenek düzeyine taşıyacağını öngörüyoruz. [artificial general intelligence,]OpenAI yazıyor. “Hem yetenekler hem de güvenlik açısından sektör lideri modeller oluşturup piyasaya sürmekten gurur duysak da, bu önemli anda güçlü bir tartışmayı memnuniyetle karşılıyoruz.”
OpenAI son birkaç ayda görüldü birçok teknik ekibinin güvenlik tarafında yüksek profilli sapmalar var ve bu eski çalışanlardan bazıları, yapay zeka güvenliğinin kasıtlı olarak önceliklendirilmesinin kaldırılması olarak gördükleri durumla ilgili endişelerini dile getirdi.
OpenAI’nin yönetişim ekibinde çalışan Daniel Kokotajlo, çıkış yapmak Nisan ayında, kişisel blogundaki bir gönderide yazdığı gibi, giderek daha yetenekli hale gelen yapay zekanın piyasaya sürülmesi konusunda OpenAI’nin “sorumlu bir şekilde davranacağına” olan güvenini kaybettikten sonra. OpenAI kurucu ortağı ve şirketin eski baş bilim insanı Ilya Sutskever, Altman ve Altman’ın müttefikleriyle uzun süren bir savaşın ardından Mayıs ayında ayrıldı; bildirildiğine göre kısmen Altman’ın güvenlik çalışmaları pahasına yapay zeka destekli ürünleri piyasaya sürme telaşı yüzünden.
Yakın zamanda, OpenAI’deyken ChatGPT ve ChatGPT’nin selefi InstructGPT’nin geliştirilmesinde yer alan eski DeepMind araştırmacısı Jan Leike, X’teki bir dizi gönderisinde OpenAI’nin “olmadığına” inandığını söyleyerek güvenlik araştırması görevinden istifa etti. Yapay zeka güvenliği ve emniyeti ile ilgili sorunları “doğru” hale getirmek için “yolda”. Geçtiğimiz hafta OpenAI’den ayrılan yapay zeka politikası araştırmacısı Gretchen Krueger, Leike’nin açıklamalarını yineledi: şirketi aramak hesap verebilirliğini ve şeffaflığını geliştirmek ve “buna gösterilen özeni” artırmak [it uses its] kendi teknolojisi.”
Kuvars notlar Sutskever, Kokotajlo, Leike ve Krueger’in yanı sıra, eski OpenAI yönetim kurulu üyeleri Helen Toner ve Tasha McCauley de dahil olmak üzere OpenAI’nin güvenlik konusunda en bilinçli çalışanlarından en az beşi geçen yılın sonlarından bu yana ya istifa etti ya da ihraç edildi. The Economist’in köşe yazısında yayınlanan Pazar günü Toner ve McCauley, Altman’ın liderliğinde OpenAI’nin kendisini sorumlu tutma konusunda güvenilebileceğine inanmadıklarını yazdılar.
“[B]Deneyimlerimize dayanarak öz yönetimin kar teşviklerinin baskısına güvenilir bir şekilde dayanamayacağına inanıyoruz” dedi Toner ve McCauley.
Toner ve McCauley’in belirttiği gibi, TechCrunch bu ayın başlarında “süper akıllı” yapay zeka sistemlerini yönetmek ve yönlendirmek için yollar geliştirmekten sorumlu olan OpenAI Superalignment ekibine şirketin bilgi işlem kaynaklarının %20’si için söz verildiğini ancak nadiren bunun bir kısmını aldığını bildirmişti. Superalignment ekibi o zamandan beri feshedildi ve çalışmalarının çoğu Schulman’ın ve Aralık ayında oluşturulan bir güvenlik danışma grubu OpenAI’nin yetki alanına verildi.
OpenAI, AI düzenlemesini savundu. Aynı zamanda bu düzenlemenin şekillendirilmesi için çaba sarf edildi, işe alıyor Sayıları giderek artan hukuk firmalarında kurum içi lobici ve lobiciler olarak görev yapıyor ve yalnızca 2023’ün 4. çeyreğinde ABD lobi faaliyetlerine yüzbinlerce dolar harcıyor. Geçtiğimiz günlerde ABD İç Güvenlik Bakanlığı, Altman’ın, ABD’nin kritik altyapılarında “yapay zekanın güvenli ve emniyetli bir şekilde geliştirilmesi ve konuşlandırılması” için tavsiyeler sunacak olan yeni oluşturulan Yapay Zeka Güvenlik ve Güvenlik Kurulu’nun üyeleri arasında olacağını duyurdu.
OpenAI, yöneticilerin hakimiyetindeki Emniyet ve Güvenlik Komitesinde etik açıdan yaprak dökümü görünümünü önlemek amacıyla, aralarında siber güvenlik alanında deneyimli Rob Joyce ve’nin de bulunduğu üçüncü taraf “emniyet, emniyet ve teknik” uzmanlarını komitenin çalışmalarını desteklemek üzere tutma sözü verdi. eski ABD Adalet Bakanlığı yetkilisi John Carlin. Bununla birlikte, Joyce ve Carlin dışında şirket, bu dış uzman grubunun boyutu veya yapısı hakkında ayrıntılı bilgi vermediği gibi, grubun komite üzerindeki gücünün ve nüfuzunun sınırlarına da ışık tutmadı.
İçinde postalamak Bloomberg köşe yazarı Parmy Olson, X hakkında, Güvenlik ve Güvenlik Komitesi gibi kurumsal denetim kurullarının, Google’ın İleri Teknoloji Dış Danışma Konseyi gibi yapay zeka denetim kurullarına benzer olduğunu belirtiyor: “[do] fiili gözetimin önünde neredeyse hiçbir şey yok.” Açıkçası, OpenAI diyor çalışmalarına yönelik “geçerli eleştirilere” komite aracılığıyla yanıt vermek istiyor – “geçerli eleştiriler” elbette bakanın gözünde.
Altman bir keresinde dışarıdan gelenlerin OpenAI’nin yönetiminde önemli bir rol oynayacağına söz vermişti. 2016’da New Yorker’da yayınlanan bir yazısında, söz konusu OpenAI’nin “[plan] Dünyanın geniş bir kesiminin bir yönetim kuruluna temsilci seçmesine izin vermenin bir yolu.” Bu hiçbir zaman gerçekleşmedi ve bu noktada gerçekleşmesi de pek olası görünmüyor.