Üretken yapay zekanın etiği konusunda tartışmalar devam ederken, Kaliforniya Eyalet Meclisi ve Senatosu önemli bir adım attı Sınır Yapay Zeka Modelleri için Güvenli ve Emniyetli Yenilik Yasası’nı geçirerek (SB 1047). Bu mevzuat, ABD’de yapay zeka için ilk büyük düzenleyici çabalardan birini temsil ediyor.

Geliştiriciler, güvenli olmadığı düşünülen herhangi bir AI modelini hızlı ve tamamen devre dışı bırakmak zorundadır

Silikon Vadisi’nden Washington’a kadar sıcak bir tartışma konusu olan yasa tasarısı, Kaliforniya’daki AI şirketlerine bazı temel kurallar getirecek. Başlangıç ​​olarak, gelişmiş AI modellerini eğitmeye başlamadan önce, şirketler işler ters giderse sistemi hızla ve tamamen kapatabileceklerinden emin olmalılar. Ayrıca, eğitimden sonra modellerini güvenli olmayan değişikliklerden korumak ve modelin ciddi riskler oluşturup oluşturmayacağını veya önemli bir zarara yol açıp açmayacağını anlamak için testleri daha yakından takip etmek zorunda kalacaklar.

ChatGPT’nin arkasındaki şirket olan OpenAI dahil olmak üzere SB 1047’yi eleştirenler, yasanın felaket risklerine aşırı odaklandığı ve istemeden küçük, açık kaynaklı AI geliştiricilerine zarar verebileceği konusunda endişelerini dile getirdiler. Bu itiraza yanıt olarak, yasa tasarısı olası cezai yaptırımları medeni yaptırımlarla değiştirmek üzere revize edildi. Ayrıca, Kaliforniya başsavcısının uygulama yetkilerini sıkılaştırdı ve yasa tarafından oluşturulan yeni bir “Sınır Modelleri Kurulu”na katılma kriterlerini değiştirdi.

Vali Gavin Newsom’un yasa tasarısını onaylamak veya veto etmek konusunda kararını vermek için eylül ayı sonuna kadar süresi var.

Yapay zeka teknolojisi yıldırım hızında gelişmeye devam ederken, düzenlemelerin kullanıcıları ve verilerimizi güvende tutmanın anahtarı olduğuna inanıyorum. Son zamanlarda Apple, Amazon, Google, Meta ve OpenAI gibi büyük teknoloji şirketleri, Biden yönetimi tarafından ortaya konulan bir dizi yapay zeka güvenlik yönergesini benimsemek için bir araya geldi. Bu yönergeler, yapay zeka sistemlerinin davranışlarını test etme taahhütlerine odaklanarak, önyargı göstermemelerini veya güvenlik riskleri oluşturmamalarını sağlamaya odaklanıyor.

Avrupa Birliği de AI konusunda daha net kurallar ve yönergeler oluşturmak için çalışıyor. Başlıca amacı kullanıcı verilerini korumak ve teknoloji şirketlerinin AI modellerini eğitmek için bu verileri nasıl kullandıklarını incelemek. Ancak Meta ve Spotify’ın CEO’ları yakın zamanda AB’nin düzenleyici yaklaşımıyla ilgili endişelerini dile getirerek, Avrupa’nın karmaşık düzenlemeleri nedeniyle geride kalma riskiyle karşı karşıya kalabileceğini öne sürdüler.





telefon-1