ABD’li milletvekilleri, gelişmekte olan yapay zekanın çevresine hangi bariyerleri koyacaklarıyla boğuşuyorlar, ancak ChatGPT’nin Washington’un dikkatini çekmesinden aylar sonra, fikir birliği kesin olmaktan çok uzak.

ABD’li bir senatör, kongre çalışanları, yapay zeka şirketleri ve çıkar grupları ile yapılan röportajlar, tartışılmakta olan bir dizi seçenek olduğunu gösteriyor.

Tıp ve finansta olduğu gibi bazı teklifler, insanların hayatlarını veya geçim kaynaklarını riske atabilecek yapay zekaya odaklanıyor. Diğer olasılıklar, AI’nın ayrımcılık yapmak veya birinin medeni haklarını ihlal etmek için kullanılmamasını sağlayan kuralları içerir.

Başka bir tartışma, AI geliştiricisinin mi yoksa onu tüketicilerle etkileşimde bulunmak için kullanan şirketin mi düzenleneceğidir. Chatbot hissi ChatGPT’nin arkasındaki girişim olan OpenAI, bağımsız bir yapay zeka düzenleyicisini tartıştı.

Hangi yaklaşımların galip geleceği belirsiz, ancak IBM ve ABD Ticaret Odası da dahil olmak üzere iş dünyasından bazıları, risk temelli bir yaklaşım olarak adlandırdıkları tıbbi teşhisler gibi yalnızca kritik alanları düzenleyen yaklaşımı destekliyor.

Kongre’nin yeni yasaların gerekli olduğuna karar vermesi halinde, ABD Odası’nın Yapay Zeka Komisyonu, Oda’nın Teknoloji Etkileşim Merkezi’nden Jordan Crenshaw, “riskin bireyler üzerindeki etkisine göre belirlenmesini” savunur. “Bir video önerisi, sağlık veya mali konularda alınan kararlar kadar yüksek risk teşkil etmeyebilir.”

ChatGPT’nin kulağa insan gibi gelen düzyazısı gibi yeni içerik oluşturmak için verileri kullanan üretken yapay zekanın artan popülaritesi, hızla gelişen teknolojinin sınavlarda kopya çekmeyi teşvik edebileceği, yanlış bilgileri besleyebileceği ve yeni nesil dolandırıcılıklara yol açabileceği endişelerini ateşledi.

AI aldatmacası, OpenAI CEO’ları, destekçisi Microsoft ve Alphabet tarafından bu ay Beyaz Saray’a yapılacak bir ziyaret de dahil olmak üzere bir dizi toplantıya yol açtı. Başkan Joe Biden, CEO’larla bir araya geldi.

Kongre yardımcıları ve teknoloji uzmanları, Kongre’nin de benzer şekilde devreye girdiğini söylüyor.

CEO’su da Beyaz Saray toplantısına katılan yüksek profilli yapay zeka girişimi Anthropic’in kurucu ortağı Jack Clark, “Meclis ve Senato genelindeki personel temelde uyandı ve hepsinden bu konuya el atmaları isteniyor” dedi. “İnsanlar, kısmen sosyal medyanın önüne geçemediklerini düşündükleri için yapay zekanın önüne geçmek istiyor.”

Pro-tech İlerleme Odası başkanı Adam Kovacevich, milletvekilleri hız kazandıkça, Big Tech’in ana önceliğinin “erken aşırı tepkiye” karşı çıkmak olduğunu söyledi.

Senato Çoğunluk Lideri Chuck Schumer gibi milletvekilleri yapay zeka sorunlarını iki partili bir şekilde ele almaya kararlıyken, gerçek şu ki Kongre kutuplaşmış durumda, gelecek yıl Başkanlık seçimi var ve milletvekilleri borç tavanını yükseltmek gibi diğer büyük meseleleri ele alıyor.

Schumer’in önerdiği plan, bağımsız uzmanların yeni AI teknolojilerini piyasaya sürülmeden önce test etmesini gerektiriyor. Ayrıca şeffaflık ve hükümete zararı önlemek için ihtiyaç duyduğu verileri sağlama çağrısında bulunuyor.

Devlet mikro yönetimi

Riske dayalı yaklaşım, örneğin kanseri teşhis etmek için kullanılan yapay zekanın Gıda ve İlaç İdaresi tarafından inceleneceği, eğlence amaçlı yapay zekanın ise düzenlenemeyeceği anlamına gelir. Avrupa Birliği benzer kuralları geçirmeye doğru ilerledi.

Ancak risklere odaklanmak, hükümetin yapay zeka görev gücü için çağrıda bulunan bir yasa tasarısı çıkaran Demokrat Senatör Michael Bennet için yetersiz görünüyor. Mahremiyete, sivil özgürlüklere ve haklara öncelik vermek için “değerlere dayalı bir yaklaşımı” savunduğunu söyledi.

Bir Bennet yardımcısı, riske dayalı kuralların çok katı olabileceğini ve yapay zekanın beyaz üstünlüğünü destekleyen videolar önermek için kullanması gibi tehlikeleri tespit edemeyebileceğini ekledi.

Muhabirlerle konuşma yetkisi olmayan kongre tartışmalarını takip eden bir kişiye göre, yasa koyucular ayrıca AI’nın ırk ayrımcılığı yapmak için, belki de kimin düşük faizli ipotek alacağına karar verirken kullanılmamasını sağlamanın en iyi yolunu tartıştılar.

OpenAI’de personel, daha geniş bir gözetim üzerinde düşündü.

Bir OpenAI araştırma bilimcisi olan Cullen O’Keefe, Stanford Üniversitesi’nde Nisan ayında yapılan bir konuşmada, şirketlerin güçlü AI modellerini eğitmeden veya bunları kolaylaştıran veri merkezlerini çalıştırmadan önce lisans almasını zorunlu kılacak bir ajansın kurulmasını önerdi. O’Keefe, teşkilatın AI Güvenlik ve Altyapı Güvenliği Ofisi veya OASIS olarak adlandırılabileceğini söyledi.

Teklif hakkında sorulan OpenAI’nin baş teknoloji sorumlusu Mira Murati, güvenilir bir kurumun geliştiricileri güvenlik standartlarına karşı “sorumlu tutabileceğini” söyledi. Ancak mekanikten daha önemli olan, “standartların neler olduğu, hafifletmeye çalıştığınız risklerin neler olduğu” konusunda anlaşmaktı.

Oluşturulacak son büyük düzenleyici, 2007-2008 mali krizinden sonra kurulan Tüketici Mali Koruma Bürosu idi.

Bazı Cumhuriyetçiler herhangi bir AI düzenlemesine karşı çıkabilir.

Reuters’e konuşan bir Senato Cumhuriyetçi yardımcısı, “Yapay zeka düzenleme önerilerinin, arama motorları ve algoritmalar gibi bilgisayar kodlarının hükümetin mikro yönetimi için mekanizma haline gelmemesine dikkat etmeliyiz.”

© Thomson Reuters 2023


Google I/O 2023, Google’ın ilk katlanabilir telefonunun ve Pixel markalı tabletinin lansmanının yanı sıra yapay zekaya önem verdiğini defalarca söylediğini gördü. Bu yıl şirket, uygulamalarını, hizmetlerini ve Android işletim sistemini yapay zeka teknolojisiyle güçlendirecek. Bunu ve daha fazlasını Gadgets 360 podcast’i Orbital’de tartışıyoruz. Orbital şu ​​adreste mevcuttur: spotify, Gaana, JioSaavn, Google Podcast’leri, Apple Podcast’leri, Amazon Müzik ve podcast’lerinizi nereden alırsanız alın.
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8