AI yeterince hızlı gelişiyor ve oluşturabileceği tehlikeler, OpenAI liderliğinin dünyanın nükleer enerjiyi yönetene benzer ve hızlı bir şekilde uluslararası bir düzenleyici kuruma ihtiyacı olduğuna inanmasına neden olacak kadar açık. Ama çok hızlı değil.

Şirketin bloguna yapılan bir gönderideOpenAI kurucusu Sam Altman, Başkan Greg Brockman ve Baş Bilim Adamı Ilya Sutskever, yapay zekadaki inovasyon hızının o kadar hızlı olduğunu ve mevcut yetkililerin teknolojiyi yeterince dizginlemesini bekleyemeyeceğimizi açıklıyor.

Burada kendi sırtlarını sıvazlamanın belirli bir kalitesi olsa da, herhangi bir tarafsız gözlemci için teknolojinin, en çok OpenAI’nin son derece popüler olan ChatGPT konuşma aracısında açıkça görüldüğü gibi, paha biçilmez bir varlığın yanı sıra benzersiz bir tehdit oluşturduğu açıktır.

Genellikle ayrıntılara ve taahhütlere çok az yer veren gönderi, yine de yapay zekanın kendi kendini yönetmeyeceğini kabul ediyor:

Süper zekanın gelişiminin hem güvenliği sağlamamıza hem de bu sistemlerin toplumla sorunsuz bir şekilde bütünleşmesine yardımcı olmamıza izin verecek şekilde gerçekleşmesini sağlamak için önde gelen geliştirme çabaları arasında bir dereceye kadar koordinasyona ihtiyacımız var.

Sonunda böyle bir şeye ihtiyacımız olacak. [International Atomic Energy Agency] süper zeka çabaları için; Belirli bir yetenek (veya bilgi işlem gibi kaynaklar) eşiğinin üzerindeki herhangi bir çabanın, sistemleri denetleyebilen, denetim gerektirebilen, güvenlik standartlarına uygunluğu test edebilen, dağıtım dereceleri ve güvenlik seviyelerine kısıtlamalar getirebilen vb. uluslararası bir otoriteye tabi olması gerekecektir.

bu IAEA BM’nin nükleer enerji konularında uluslararası işbirliği için resmi organıdır, ancak elbette diğer benzer kuruluşlar gibi yumruk atmak isteyebilir. Bu model üzerine inşa edilmiş bir AI yönetim organı devreye girip kötü bir oyuncuyu devre dışı bırakamayabilir, ancak en azından bir başlangıç ​​noktası olan uluslararası standartlar ve anlaşmalar oluşturup takip edebilir.

OpenAI’nin gönderisi, yapay zeka araştırmasına ayrılmış bilgi işlem gücü ve enerji kullanımını izlemenin, raporlanabilecek ve izlenebilecek ve muhtemelen izlenmesi gereken nispeten az sayıda nesnel önlemden biri olduğunu belirtiyor. Yapay zekanın şu ya da bu için kullanılması gerektiğini ya da kullanılmaması gerektiğini söylemek zor olsa da, diğer endüstriler gibi buna ayrılmış kaynakların izlenmesi ve denetlenmesi gerektiğini söylemek faydalı olabilir.

Önde gelen AI araştırmacısı ve eleştirmeni Timnit Gebru daha bugün benzer bir şey söyledi. Guardian ile röportaj: “Farklı bir şey yapmak için dış baskı olmadıkça, şirketler kendi kendini düzenlemeyecek. Düzenlemeye ihtiyacımız var ve sadece kâr amacından daha iyi bir şeye ihtiyacımız var.”

OpenAI, ikincisini görünür bir şekilde benimsedi, ismine layık olmasını umut eden pek çok kişinin şaşkınlığına rağmen, ama en azından pazar lideri olarak aynı zamanda yönetişim tarafında gerçek eylem çağrısında bulunuyor – Senatörlerin yeniden seçim konuşmaları yapmak için sıraya girdiği duruşmaların ötesinde sonu soru işaretleri ile biten

Teklif, “belki de bir şeyler yapmalıyız” anlamına gelse de, en azından sektörde bir sohbet başlatıcıdır ve bu şeyi yapmak için dünyanın en büyük yapay zeka markası ve sağlayıcısının desteğini gösterir. Kamu gözetimine şiddetle ihtiyaç var, ancak “böyle bir mekanizmayı nasıl tasarlayacağımızı henüz bilmiyoruz.”

Ve şirketin liderleri frene basmayı desteklediklerini söyleseler de, henüz böyle bir plan yok, çünkü hem “toplumlarımızı iyileştirmeye” yönelik muazzam potansiyelden vazgeçmek istemiyorlar (sonuçlardan bahsetmiyorum bile) ve çünkü kötü aktörlerin ayaklarının doğrudan gaza basması riski vardır.



genel-24