AI Düzenlemesi Nasıl Görünürdü? başlıklı makale için resim

Fotoğraf: McNamee’yi kazan (Getty Resimleri)

Çıkarımlar:

  • Yapay zekayı düzenleyecek yeni bir federal kurum kulağa yararlı geliyor ancak teknoloji endüstrisinden gereksiz yere etkilenebilir. Bunun yerine, Kongre hesap verebilirliği yasalaştırabilir.
  • Hükümet, şirketlere gelişmiş yapay zeka teknolojilerini piyasaya sürmeleri için lisans vermek yerine, denetçilere lisans verebilir ve şirketleri kurumsal inceleme kurulları kurmaya zorlayabilir.
  • Hükümet, teknoloji tekellerini dizginleme konusunda büyük bir başarı elde edemedi, ancak ifşa gereklilikleri ve veri gizliliği yasaları, kurumsal gücü kontrol etmeye yardımcı olabilir.

OpenAI CEO’su Sam Altman, milletvekillerini AI’yı düzenlemeyi düşünmeye çağırdı. Senato tanıklığı 16 Mayıs 2023’te. Bu tavsiye, Kongre için sırada ne olduğu sorusunu gündeme getiriyor. Altman’ın önerdiği çözümler – bir AI düzenleyici kurum oluşturmak ve şirketler için lisans gerektirmek – ilginç. Ancak aynı paneldeki diğer uzmanların önerdiği şey de en az onun kadar önemli: eğitim verilerinde şeffaflık gerektiren Ve AI ile ilgili riskler için net çerçeveler oluşturmak.

Söylenmemiş bir başka nokta da, büyük ölçekli yapay zeka modelleri oluşturma ekonomisi göz önüne alındığında, endüstrinin yeni bir tür teknoloji tekelinin ortaya çıkışına tanık olabileceğiydi.

yapan bir araştırmacı olarak sosyal medya ve yapay zeka üzerine çalışıyor, Altman’ın önerilerinin önemli konulara ışık tuttuğuna ancak kendi başlarına cevaplar sağlamadığına inanıyorum. Düzenleme yararlı olacaktır, ancak hangi biçimde? Lisanslama da mantıklı, ama kimin için? Ve AI endüstrisini düzenlemeye yönelik herhangi bir çaba, şirketlerin ekonomik gücünü ve siyasi hakimiyetini hesaba katmalıdır.

Yapay zekayı düzenleyen bir kurum mu?

Dünyanın dört bir yanındaki milletvekilleri ve politika yapıcılar, Altman’ın ifadesinde ortaya çıkan bazı sorunları çoktan ele almaya başladılar. bu Avrupa Birliği’nin AI Yasası AI uygulamalarını üç risk kategorisine atayan bir risk modeline dayanmaktadır: kabul edilemez, yüksek risk ve düşük veya minimum risk. Bu sınıflandırma, hükümetler tarafından sosyal puanlama Ve işe alım için otomatik araçlar örneğin istenmeyen e-posta filtrelerinde yapay zeka kullanımından kaynaklanan risklerden farklı riskler oluşturur.

ABD Ulusal Standartlar ve Teknoloji Enstitüsü de aynı şekilde bir AI risk yönetimi çerçevesi ile oluşturulmuş kapsamlı girdi itibaren birden çok paydaşABD Ticaret Odası ve Amerikan Bilim Adamları Federasyonu’nun yanı sıra diğer iş ve meslek kuruluşları, teknoloji şirketleri ve düşünce kuruluşları dahil.

gibi federal kurumlar Eşit İstihdam Fırsatı Komisyonu ve Federal Ticaret Komisyonu AI’nın doğasında bulunan bazı riskler hakkında zaten yönergeler yayınladık. Tüketici Ürün Güvenliği Komisyonu ve diğer kurumların da oynayacağı bir rol var.

yürüten yeni bir ajans oluşturmak yerine tehlikeye girme riski Düzenlemesi amaçlanan teknoloji endüstrisi tarafından, Kongre özel ve kamu tarafından benimsenmesini destekleyebilir. NIST risk yönetimi çerçevesi ve gibi faturaları geçmek Algoritmik Sorumluluk Yasası. Bunun etkisi olurdu sorumluluk dayatmakkadar Sarbanes-Oxley Yasası ve diğer düzenlemeler şirketler için raporlama gerekliliklerini dönüştürdü. Kongre ayrıca veri gizliliğiyle ilgili kapsamlı yasalar kabul edin.

AI’nın düzenlenmesi, akademi, endüstri, politika uzmanları ve uluslararası ajanslar arasındaki işbirliğini içermelidir. Uzmanlar bu yaklaşımı şuna benzetiyor: Uluslararası organizasyonlar CERN olarak bilinen Avrupa Nükleer Araştırma Örgütü ve Hükümetlerarası İklim Değişikliği Paneli. internet oldu tarafından yönetilen gibi kar amacı gütmeyen kuruluşlar, sivil toplum, endüstri ve politika yapıcıları içeren sivil toplum kuruluşları atanmış isim ve numaralar için internet şirketi ve Dünya Telekomünikasyon Standardizasyon Meclisi. Bu örnekler, bugün endüstri ve politika yapıcılar için modeller sunmaktadır.

Bilişsel bilim insanı ve yapay zeka geliştiricisi Gary Marcus, yapay zekayı düzenleme ihtiyacını açıklıyor.

Lisanslama denetçileri, şirketler değil

OpenAI’den Altman, şirketlere yapay zeka teknolojilerini halka yayınlamak için lisans verilebileceğini öne sürse de, kendisinin haklı olduğunu açıkladı. yapay genel zekaya atıfta bulunmak, insanlık için bir tehdit oluşturabilecek insan benzeri zekaya sahip gelecekteki potansiyel yapay zeka sistemleri anlamına gelir. Bu, şirketlerin nükleer enerji gibi potansiyel olarak tehlikeli diğer teknolojileri kullanma lisansı almasına benzer. Ancak lisanslama, böylesine fütüristik bir senaryo gerçekleşmeden önce iyi bir rol oynayabilir.

Algoritmik denetim akreditasyon gerektirecektir, uygulama standartları ve kapsamlı eğitim. Hesap verebilirliği gerekli kılmak, yalnızca bireylere lisans verme meselesi değildir, aynı zamanda şirket çapında standartlar ve uygulamalar gerektirir.

Yapay zeka adaleti uzmanları, yapay zekadaki önyargı ve adalet sorunlarının yalnızca teknik yöntemlerle ele alınamayacağını, bunun yerine aşağıdakiler gibi daha kapsamlı risk azaltma uygulamaları gerektirdiğini iddia ediyor: AI için kurumsal inceleme kurullarının benimsenmesi. Örneğin, tıp alanındaki kurumsal inceleme kurulları, bireysel hakların korunmasına yardımcı olur.

Akademik kuruluşlar ve profesyonel topluluklar, benzer şekilde yapay zekanın sorumlu kullanımı için standartlar benimsemiştir. AI tarafından oluşturulan metin için yazarlık standartları veya tıpta hasta aracılı veri paylaşımı için standartlar.

Algoritmik hesap verebilirlik normlarını getirirken tüketici güvenliği, mahremiyeti ve korunmasına ilişkin mevcut yasaları güçlendirmek, karmaşık yapay zeka sistemlerinin gizemini çözmeye yardımcı olacaktır. Daha fazla veri sorumluluğu ve şeffaflığın kuruluşlara yeni kısıtlamalar getirebileceğini kabul etmek de önemlidir.

Veri gizliliği ve AI etiği bilim adamları “teknolojik gerekli süreç” ve tahmine dayalı süreçlerin zararlarını tanımak için çerçeveler. İstihdam, sigorta ve sağlık hizmetleri gibi alanlarda yapay zeka destekli karar vermenin yaygın kullanımı, lisanslama ve denetim gereklilikleri prosedür adaletini ve mahremiyet korumalarını sağlamak.

Bununla birlikte, bu tür sorumluluk hükümlerinin gerekli kılınması, sağlam tartışma AI geliştiricileri, politika yapıcılar ve geniş AI dağıtımından etkilenenler arasında. İçinde güçlü algoritmik sorumluluk uygulamalarının olmamasıtehlike görünümü destekleyen dar denetimler uygunluk.

Yapay zeka tekelleri mi?

Altman’ın ifadesinde de eksik olan şey, yatırımın kapsamı ister büyük ölçekli yapay zeka modellerini eğitmek için gerekli GPT-4temellerinden biri olan ChatGPTveya metinden resme oluşturucu Kararlı Difüzyon. Google, Meta, Amazon ve Microsoft gibi yalnızca bir avuç şirket sorumludur. dünyanın en büyük dil modellerini geliştirmek.

Bu şirketler tarafından kullanılan eğitim verilerindeki şeffaflık eksikliği göz önüne alındığında, yapay zeka etik uzmanları Timnit Gebru, Emily Bender ve diğerleri, bu tür teknolojilerin karşılık gelen gözetim riskleri olmadan geniş çapta benimsenmesi konusunda uyarıda bulundu. makine önyargısını toplumsal ölçekte büyütmek.

ChatGPT gibi araçlara yönelik eğitim verilerinin Wikipedia’ya katkıda bulunanlar, blog yazarları ve sayısallaştırılmış kitapların yazarları gibi birçok kişinin entelektüel emeğini içerdiğini kabul etmek de önemlidir. Ancak bu araçlardan elde edilen ekonomik faydalar yalnızca teknoloji şirketlerine ait.

Adalet Bakanlığı’nın antitröst davası nedeniyle teknoloji firmalarının tekel gücünü kanıtlamak zor olabilir Microsoft’a karşı gösterdi. Kongre’nin yapay zekadan kaynaklanan potansiyel algoritmik zararları ele alması için en uygun düzenleme seçeneklerinin, yapay zeka firmaları ve benzer şekilde yapay zeka kullanıcıları için ifşa gerekliliklerini güçlendirmek, yapay zeka risk değerlendirme çerçevelerinin kapsamlı bir şekilde benimsenmesini teşvik etmek ve bireysel verileri koruyan süreçler gerektirmek olabileceğine inanıyorum. haklar ve mahremiyet.

Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.

Anjana SusarlaBilgi Sistemleri Profesörü, Michigan Eyalet Üniversitesi

Bu makale şu adresten yeniden yayınlanmıştır: Konuşma Creative Commons lisansı altında. Okumak orijinal makale.



genel-7