OpenAI CEO’su Sam Altman, şu anda tartışılan yapay zeka düzenlemelerine uymazsa şirketin Avrupa Birliği’ndeki tüm operasyonlarını durdurabileceğini söyledi.

“OpenAI Dünya Turu” adını verdiği etkinliğin bir ayağı sırasında Altman, şirketin ilerlemeleri hakkında konuşmak için University College London ile konuştu ve ona AB’nin yapay zekayla ilgili önerilen düzenlemeleri hakkında sorular soruldu. CEO, OpenAI’nin şu anda düzenlemelerin yazılma şeklinden memnun olmadığını açıkladı.

Buna göre Zamanhalen incelenmekte olan yönetmelikler, şirketin ChatGPT ve GPT-4’ünü “yüksek riskli” olarak belirleyebilir ve bu da güvenlik uyumluluğunun artırılmasını gerektirir.

“Ya bu ihtiyaçları karşılayabileceğiz ya da faaliyetlerimizi durduracağız…”

Yapay Zeka Yasası Avrupa’da hazırlanıyor. Bu taslak yönetmelik, yapay zekanın kullanımını ve pazarlamasını düzenlemelidir. Güvenlik ve kullanıcı haklarını garanti ederken aynı zamanda yeniliği de desteklemelidir. Önerilen düzenleme dört koruma düzeyi sunmaktadır: yasaklanan, yüksek risk oluşturan, orta düzeyde risk oluşturan ve izin verilen.

“Bu şartları ya karşılayacağız ya da karşılayamayacağız. Uyarsak sağlayacağız, sağlayamazsak iflas edeceğiz…” Sayın Altman. “Deneriz. Ancak mümkün olanın teknik sınırları vardır.”

Ancak Bay Altman, bu yasanın temelde kötü olduğuna inanmadığını açıkladı. Özellikle yapay zeka tarafından üretilen ve kamuoyunu etkilemesi muhtemel olan dezenformasyonla ilgili olarak yapay zekanın risklerini kabul ederken, düzenlemeye dengeli bir yaklaşımdan yana olduğunu söyledi.

Ancak bu noktada Altman, AI dil modellerinin yanlış bilgi yaymada Facebook ve Twitter gibi sosyal medya platformlarından daha az etkili olduğunu savundu. “GPT-4 ile istediğiniz tüm yanlış bilgileri üretebilirsiniz, ancak yayınlanmazsa pek bir faydası olmaz” diye ekledi.

OpenAI’nin kurucuları, bu haftanın başlarında “Süper zekanın yönetişimi” başlıklı bir blog yazısında, şimdi yapay zeka düzenlemesi oluşturmanın önemini tartıştılar. Liderler, “Varoluşsal risk olasılığı göz önüne alındığında, sadece reaktif olamayız” dedi. Ve AI’nın yaşamlarımız üzerindeki etkisini “nükleer enerji” ve hatta “sentetik biyoloji” ile karşılaştırmak için.

AGI gelişimine karşı protesto

University College London’da yaptığı konuşmada, Bay Altman, tesisin dışında toplanan protestocular tarafından karşılandı.. Bu protestocular, OpenAI’nin insan zekasını geride bırakabilecek süper akıllı bir yapay zeka sistemi olan yapay genel zekanın (AGI) gelecekteki gelişimindeki rolü konusunda endişeliler.

Grup, paylaşıldığı gibi “Bir AGI inşa etmeyin” ve “OpenAI, bir AGI kurmaya çalışmaktan vazgeçin” yazan pankartlar taşıdı. Twitter Kullanıcısı James Vincent. Protesto, OpenAI’den yapay genel zekanın gelişimi, şirketin AI düzenlemesine bakış açısı ve düzenleme eksikliğinin insanlık üzerindeki sonuçları hakkında yaptığı açıklamanın ardından geldi.

Gideon Futterman, “Halkın adım atıp, bu bizim geleceğimiz ve bir seçeneğimiz olmalı deme zamanı” dedi. bu zamanda. “Mesih kompleksi olan Silikon Vadisi multi-milyonerlerinin ne istediğimize karar vermelerine izin vermemeliyiz.” AGI’nin oluşturulması, henüz gerçeğe dönüşmekten çok uzak olsa da, uzmanlar ve etikçiler arasında sıcak bir konudur.


Kaynak : “ZDNet.com”





genel-15