AI gelişmeleri popülerlik ve miktar olarak her gün artmaya devam ederken, AI düzenlemesi sıcak bir konudur. Hükümet yetkilileri, teknoloji liderleri ve ilgili vatandaşlar konuyla ilgili harekete geçilmesi çağrısında bulunuyor.
Ve şimdi, son derece popüler ChatGPT’nin arkasındaki şirket olan OpenAI tartışmaya katılıyor.
İçinde Blog yazısı OpenAI CEO’su Sam Altman, Başkan ve Kurucu Ortak Greg Brockman ve OpenAI Kurucu Ortağı ve Baş Bilim Adamı Ilya Sutskever, “Süper zekanın yönetişimi” başlıklı makalesinde, yapay zeka düzenlemesini daha henüz ortaya çıkmadan önce oluşturmanın önemini tartışıyorlar. çok geç.
AI’nın yaşamlarımız üzerindeki etkisi “nükleer enerji” ile eşdeğerdir.
OpenAI yöneticileri blog gönderisinde “Varoluşsal risk olasılığı göz önüne alındığında, sadece reaktif olamayız” dedi. Ve AI’nın yaşamlarımız üzerindeki etkisini “nükleer enerji” ve hatta “sentetik biyoloji” ile karşılaştırmak için.
Blog gönderisi, AI düzenlemesi için iyi bir başlangıç noktası olabilecek üç farklı eylemi özetliyor.
- Önce tavsiye ediyor bir koordinasyon biriminin oluşturulması AI teknolojilerinin topluma güvenli ve sorunsuz entegrasyonunu sağlamaktan sorumludur.
Bu, örneğin, dünyanın önde gelen hükümetlerinin işbirliği yapması veya yapay zeka yeteneklerinin yıllık büyüme oranını sınırlayacak yapay zeka gelişimine odaklanan bir organizasyon kurması anlamına gelebilir. - OpenAI tarafından paylaşılan ikinci fikir, AI çabalarını denetlemek için Uluslararası Atom Enerjisi Ajansı gibi uluslararası bir kuruluşa duyulan ihtiyaç veya “süper zeka”.
Böyle bir kuruluş, yapay zeka modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamak için sistemleri inceleme, denetim gerektirme, güvenlik standartlarına uygunluğu doğrulama ve daha fazlasını yapma gücüne sahip olacaktır.
İlk adım olarak makale yazarları, uluslararası bir kuruluşun uygulayacağı düzenlemeleri şirketlerin uygulamaya başlamasını ve ülkelerin de bu standartları uygulamaya başlamasını önermektedir. - Son olarak, not şunu belirtir:süper zekayı güvenli hale getirmek için teknik bir yeteneğe ihtiyaç vardırancak bu, birçok insanın çaba harcadığı bir araştırma sorusu.
OpenAI ayrıca şirketlerin ve açık kaynak projelerinin, “lisanslama veya denetimler gibi bağlayıcı mekanizmalar” olmadan, belirlenmiş bir yetenek eşiğinin altında yapay zeka modelleri geliştirmesine izin vermenin önemli olduğuna inanıyor.
Bu gönderi, Bay Altman’ın AI’nın riskleri ve geleceği hakkında bir Senato Yargı Komitesi duruşmasında ifade vermesinden bir hafta sonra geliyor.
Avrupa’da yapım aşamasında olan Yapay Zeka Yasası
Önerilen bu düzenlemenin amacı, kullanıcıların güvenliğini ve haklarını garanti ederken yeniliği desteklemek için yapay zekanın kullanımını ve ticarileştirilmesini düzenlemektir.
Önerilen düzenleme dört koruma düzeyi sunmaktadır: yasaklanan, yüksek risk oluşturan, orta düzeyde risk oluşturan ve izin verilen.
Kaynak : “ZDNet.com”