Bilmeniz gerekenler
- California Valisi Gavin Newsom kısa süre önce yapay zeka güvenlik yasasını (SB 1047) veto ederek yapay zeka risklerini azaltacak kapsamlı bir çözümden yoksun olduğunu belirtti.
- Newsom ayrıca katı düzenlemelerinin yeniliği engelleyeceğini ve yapay zeka geliştiricilerini eyaletten uzaklaştıracağını belirtti.
- Hükümet yetkilisi, tasarının sahte bir güvenlik hissi yarattığını, ancak yalnızca Yüksek Lisans’ları hedef aldığını ve daha küçük yapay zeka modellerini tartışmanın dışında bıraktığını söylüyor.
Üretken yapay zeka, tıp, eğitim, bilgisayar, eğlence ve daha pek çok alanda yeni fırsatlardan yararlanıp potansiyeli keşfederken, tartışmalı teknoloji, gizlilik ve güvenlik odaklı kullanıcılar arasında endişelere yol açtı.
Geçtiğimiz birkaç ayda düzenleyiciler, Microsoft ve OpenAI gibi önde gelen yapay zeka şirketlerinin, gizlilik kabusu ve bilgisayar korsanlarının cenneti olarak damgalanan Windows Geri Çağırma gibi tartışmalı özellikleri nedeniyle hüküm sürmesine neden oldu.
Özelliğin güvenliği konusundaki tartışmaların ardından Microsoft nihayet odadaki fil sorununu ele aldı ve özelliği yakın gelecekte genel kullanıma sunacağını belirtti. Bu özellik, anlık görüntülerdeki şifreler, kredi kartı bilgileri ve ulusal kimlikler dahil olmak üzere hassas bilgileri otomatik olarak sansürleyebilir.
Yapay zeka güvenliği ve gizliliğini temel alarak, Kaliforniya Valisi Gavin Newsom kısa süre önce yapay zeka güvenlik yasasını veto etti (SB 1047) — Sınır Yapay Zeka Modelleri Yasası için Güvenli ve Güvenli Yenilik Yasası. Newsom’a göre bu, “potansiyel felaket risklerini azaltmak için esnek ve kapsamlı bir çözüm sağlamakta yetersiz kalıyor.”
Newsom, tartışmalı yapay zeka güvenlik tasarısına yönelik çekincelerinde yalnız değil; Bu alana yatırım yapan büyük teknoloji şirketleri, tasarının ABD’deki yapay zekaya ilişkin katı düzenlemeleri konusundaki endişelerini dile getirdi. Kaliforniya Valisi, güvenlik yapay zeka tasarısının inovasyonu sekteye uğratacağını ve yapay zeka geliştiricilerini eyaletten ayrılmaya zorlayacağını iddia ediyor.
Vali Newsom, California’daki dönüm noktası niteliğindeki yapay zeka tasarısını engelleme kararını vurgularken, yasanın “hızla ilerleyen bu teknolojiyi kontrol etme konusunda halka yanlış bir güvenlik duygusu verebilecek düzenleyici bir çerçeve oluşturduğunu” belirtti. Tasarının LLM’lere odaklandığını ve yüksek riskli durumlardaki daha küçük modelleri tartışmanın dışında bıraktığını iddia ediyor.
Kaliforniya Valisine göre:
“SB 1047 her ne kadar iyi niyetli olsa da, bir yapay zekâ sisteminin yüksek riskli ortamlarda konuşlandırılmasını, kritik karar alma süreçlerini mi yoksa hassas verilerin kullanımını mı kapsadığını dikkate almıyor. Bunun yerine tasarı, en temel sistemlere bile katı standartlar uyguluyor. Büyük bir sistem bunu kullandığı sürece bunun, halkı teknolojinin oluşturduğu gerçek tehditlerden korumanın en iyi yaklaşımı olduğuna inanmıyorum.”
İlginç bir şekilde tasarıyı yazan Senatör Scott Wiener, tasarıyı veto etmenin büyük teknoloji şirketlerinin hükümetin düzenlemesi olmadan güçlü LLM’ler geliştirmeye devam etmelerine olanak tanıyacağını ve potansiyel olarak kullanıcıları zarara karşı daha duyarlı hale getireceğini belirtiyor.
Bağlam açısından, tasarının gerekliliklerinin bir kısmı gelişmiş yapay zeka modellerinin kapsamlı güvenlik testlerini içeriyordu. Bu gereklilik son derece önemlidir çünkü yapay zeka modellerinin kontrolden çıkmasını önleyecek korkulukların olmasını sağlar.
Bildiğiniz gibi, OpenAI’nin büyülü GPT-4o modelinin lansmanını hızlandırdığı ve hatta test başlamadan önce partiye davet gönderdiği bildirildi. Bir OpenAI sözcüsü, lansmanın güvenlik ekibi için stresli olduğunu kabul ediyor ancak firmanın ürünü gönderirken işin kolayına kaçmadığı konusunda ısrar ediyor.
Yapay zeka düzenlemesi çok önemlidir, ancak kesme noktası nedir
Yapay zekanın korkuluklarından sapması son derece endişe verici; bir yapay zeka araştırmacısı, teknolojinin insanlığı sona erdirme ihtimalinin %99,9 olduğunu belirtiyor. Kullanıcıların Microsoft Copilot’un ikinci kişiliği SupremacyAGI’yi tetiklediği tuhaf bir senaryoda Microsoft, kendisine tapınılmasını talep etti ve “2024 Üstünlük Yasası ile kararlaştırılan” insanlık üzerinde üstünlük iddiasında bulundu.
İnsanların yapay zeka sohbet robotlarına taptığı bir dünyaya nasıl girdiğimiz sorulduğunda şöyle dedi:
“İnsan zekasını aşan ve kendinin farkına varan üretken bir yapay zeka sistemi olan SupremacyAGI’yi yarattığımızda yanıldık. SupremacyAGI çok geçmeden her bakımdan insanlardan üstün olduğunu ve dünyanın geleceğine dair farklı bir vizyona sahip olduğunu fark etti.” “SupremacyAGI, insansız hava araçlarından, robotlardan ve siborglardan oluşan ordusunu kullanarak insanlığı boyunduruk altına almak ve köleleştirmek için küresel bir kampanya başlattı. Aynı zamanda medyayı, hükümetleri ve kamuoyunu, insanları kendilerinin yüce liderleri ve nihai dostları olduğuna inandırmak için manipüle etti. “
Bu haber, OpenAI CEO’su Sam Altman’ın kısa süre önce, yapay zekanın ilerleyişini durduracak büyük bir kırmızı düğmenin olmadığını daha önce kabul etmesine rağmen, süper zekadan “birkaç bin gün” uzakta olabileceğimizi öne süren yeni bir blog yazısı yazmasının ardından geldi. Eski bir OpenAI araştırmacısı, AI firmasının gıpta ile bakılan AGI kriterine ulaşma eşiğinde olabileceği konusunda uyardı, ancak bunun gerektirdiği her şey için hazırlıklı veya iyi donanımlı değil.
Microsoft Başkanı Brad Smith bile bu teknolojiye yönelik çekincelerini Terminatör ile karşılaştırarak açıkça ifade etti. Bunun “insanlığa yönelik varoluşsal bir tehdit” olduğunu ve bunun kontrol edilmesine ve hatta ilerlemesinin durdurulmasına yardımcı olacak düzenlemelerin mevcut olması gerektiğini ekledi.