Bilmeniz gerekenler
- OpenAI, yapay zeka alanında güvenlik önlemlerini ve uygulamalarını teşvik eden önerilen bir yasa tasarısına karşı çıktı.
- ChatGPT üreticisi yasa tasarısının bazı hükümlerini desteklerken, düzenlemelerin “federal düzeyde şekillendirilmesi ve uygulanması” gerektiğini iddia ediyor.
- Eski OpenAI araştırmacıları, düzenlemeler olmaksızın gelişmiş ve sofistike yapay zeka modellerinin geliştirilmeye devam edilmesinin, insanlar için felaket niteliğinde zararlara yol açabileceğini söylüyor.
OpenAI’nin 5 milyar dolarlık zarar tahminleriyle iflasın eşiğinde olduğu iddiaları arasında, ChatGPT üreticisi, teknolojinin bariyerlerden çıkmasını önlemek için güvenlik protokolleri kurmayı amaçlayan önerilen bir AI tasarısına (SB 1047) karşı çıktı (aracılığıyla) İş İçeriden).
Gizlilik ve güvenlik, kullanıcıların başlıca endişeleridir ve düzenleme ve politikalara acil ihtiyaç duyulmasına neden olur. OpenAI’nin önerilen yasa tasarısına karşı çıkması, eski OpenAI araştırmacıları William Saunders ve Daniel Kokotajlo da dahil olmak üzere tepki aldı.
İçinde OpenAI’nin muhalefetine yönelik bir mektup Araştırmacılar önerilen yapay zeka tasarısına ilişkin şunları belirtiyor:
“OpenAI’ye katıldık çünkü şirketin geliştirmekte olduğu inanılmaz derecede güçlü AI sistemlerinin güvenliğini sağlamak istedik. Ancak OpenAI’den istifa ettik çünkü AI sistemlerini güvenli, dürüst ve sorumlu bir şekilde geliştireceğine olan güvenimizi kaybettik.”
Mektupta, ChatGPT üreticisinin, kontrolden çıkmasını önleyecek ayrıntılı güvenlik önlemlerine sahip olmadan, karmaşık ve gelişmiş yapay zeka modelleri geliştirdiği iddia edildi.
İlginçtir ki, OpenAI GPT-40 lansmanını aceleyle yapmış gibi görünüyor ve bildirildiğine göre testler başlamadan önce bile etkinlik için davetiyeler göndermiş. Şirket, güvenlik ve hizalama ekibinin baskı altında olduğunu ve test için çok az zaman kaldığını kabul etti.
Ancak teknoloji firması, güvenlik süreçlerinden ziyade parlak ürünleri önceliklendirdiği iddialarına rağmen ürünü gönderirken hiçbir köşeyi kesmediğini söylüyor. Araştırmacılar, bariyersiz AI modellerinin geliştirilmesinin “halk için öngörülebilir felaket zararı riskleri taşıdığını” belirtti.
Yapay zeka düzenlemesi hayati önem taşıyor ancak karşıt güçler daha güçlü
OpenAI CEO’su Sam Altman, düzenlemeye olan ihtiyacı açıkça dile getirdi. CEO’ya göre, teknoloji, bu gelişmelerin güvenlik testlerini sağlayan uluslararası bir kurum tarafından bir uçak gibi düzenlenmeli.Büyük resmi görmek için bir ajans tabanlı yaklaşımı zorlamamın sebebi, bunu kanuna uygun bir şekilde yazmak değil, 12 ay içinde her şeyin yanlış yazılmış olması.” diye ekledi Altman.
Eski OpenAI araştırmacılarına göre, Altman’ın yapay zeka düzenlemesini savunması sadece bir aldatmaca olabilir çünkü “gerçek düzenleme masaya yatırıldığında, o buna karşı çıkıyor.” Ancak, İş İçeridenOpenAI sözcüsü şunları söyledi:
“SB 1047’ye ilişkin tutumumuzun yanlış yorumlanmasına kesinlikle katılmıyoruz.”
Birinde ayrı mektup OpenAI tarafından Şirketin Strateji Sorumlusu Jason Kwon, Kaliforniya Senatörü Scott Wiener’a (AI yasa tasarısı sponsoru) yaptığı açıklamada, yasa tasarısına karşı çıkmasının birkaç nedenini vurguladı. Bu nedenlerden biri de düzenlemenin “federal düzeyde şekillendirilmesi ve uygulanması” önerisiydi.
OpenAI Baş Strateji Sorumlusu Jason Kwon’a göre:
“Eyalet yasalarından oluşan bir karmaşa yerine, federal olarak yönetilen bir yapay zeka politikaları seti, inovasyonu teşvik edecek ve ABD’yi küresel standartların geliştirilmesinde öncü konuma getirecektir.”
Tasarının sonunda yasalaşıp yasalaşmayacağı veya ChatGPT üreticisinin önerdiği değişikliklerin dahil edilip edilmeyeceği belirsizliğini koruyor. “Kongre’nin harekete geçmesini bekleyemeyiz; anlamlı bir AI düzenlemesi geçirmeye istekli olmadıklarını açıkça söylediler. Eğer bunu yaparlarsa, CA mevzuatını önleyebilir,” diye sonuca vardı araştırmacılar.