Kamu hizmetlerini düzene sokmak ve devlet çalışanları tarafından gerçekleştirilen sıradan görevleri otomatikleştirmek için yapay zekayı (AI) ilerletmede hayati ulusal çıkarlar var. Ancak hükümet, bu çabaları desteklemek için hem BT yeteneğinden hem de sistemlerinden yoksundur.

Baş veri bilimcisi Taka Ariga, “Federal hükümet bir bütün olarak, gelişmiş teknik becerilere sahip – yapay zeka sistemlerini tasarlamak, geliştirmek, dağıtmak ve izlemek için gereken becerilere sahip – personeli işe alma, yönetme ve elde tutma konusunda engellerle karşılaşmaya devam ediyor” dedi. ABD Hükümeti Sorumluluk Ofisi.

Stanford Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü (HAI) müdür yardımcısı Daniel Ho, bir tahmine göre federal hükümetin yapay zekanın neden olduğu siber güvenlik sorunlarını ele almak için yaklaşık 40.000 BT çalışanı işe alması gerekeceğini söyleyerek aynı fikirde.

Yapay zeka araçları, Capitol Hill’de iki ayrı duruşmaya konu oldu. İç Güvenlik ve Devlet İşleri Komitesi önünde, beş yapay zeka uzmanından oluşan bir heyet, yapay zeka teknolojisinin benimsenmesinin kaçınılmaz olmasına rağmen, insan gözetimini ortadan kaldırmanın çok büyük riskler oluşturduğuna tanıklık etti. Gizlilik, teknoloji ve hukukla ilgili Senato Yargı alt komitesinin bir duruşmasında, OpenAI CEO’su Sam Altman’a IBM yöneticisi Christina Montgomery ve New York Üniversitesi fahri profesörü Gary Marcus katıldı.

Çakışan oturumlar, AI tabanlı araçların hızlı yükselişi ve evrimi ile ilgili çeşitli sorunları ve endişeleri kapsıyordu. ABD hükümetinde daha fazla vasıflı işçiye duyulan ihtiyacın ötesinde yetkililer, yapay zeka algoritmalarından alınan hatalı veya bozuk verilere dayalı önyargılarla uğraşan devlet kurumları, seçim dezenformasyonuna ilişkin korkular ve yapay zeka araçlarının ve büyük dil modellerinin altında yatan — gerçekten çalışır.

İç Güvenlik ve Devlet İşleri komitesi Başkanı Senatör Gary Peters (D-MI) açılış konuşmasında ABD’nin “potansiyel riskleri ve zararları ele alabilecek” standartlar belirleyerek yapay zeka geliştirme ve düzenlemede küresel liderliği alması gerektiğini söyledi.

En bariz tehditlerden biri mi? Cevap üretmek için OpenAI’sChatGPT gibi yapay zeka sohbet robotları tarafından kullanılan verilere genellikle satıcı topluluğu dışındaki herkes erişemez ve yapay zeka sistemlerini tasarlayan mühendisler bile sistemlerin sonuçlara nasıl ulaştığını her zaman anlamazlar.

Başka bir deyişle, AI sistemleri, kusurlu sonuçlar üretmek için genellikle kötü verilerle desteklenen tescilli teknolojiyi kullanan kara kutular olabilir.

Kötü veri girişi, kötü sonuç çıkışı?

Peters işaret etti Stanford Üniversitesi tarafından yakın zamanda yapılan bir araştırma kimin denetlenmesi gerektiğini belirlemek için kullanılan kusurlu bir Dahili Gelir Hizmeti AI algoritmasını ortaya çıkardı. Sistem, Siyah vergi mükelleflerini diğer ırkların beş katı oranında seçti.

Peters ayrıca, engellilik yardımlarına uygunluğu belirlemek için en az bir düzine eyalet tarafından konuşlandırılan yapay zeka güdümlü sistemlere atıfta bulundu, “bu, sistemin binlerce alıcıyı bağımsız yaşamalarına yardımcı olan bu kritik yardımı reddetmesiyle sonuçlandı” dedi Peters.

Peters’a göre, engellilik yardımları sistemi eyaletler tarafından “özel teknoloji” olarak kabul edildiğinden, vatandaşlar yardımların neden reddedildiğini öğrenemedi veya karara itiraz edemedi. Verileri ve işlemleri gizli tutan gizlilik yasaları, yapay zeka uygulamalarını ve sorunlarını ele alacak şekilde tasarlanmamıştır.

Peters, “Ajanslar daha fazla yapay zeka aracı kullandıkça, yanlışlıkla ifşaları veya Amerikalıların haklarına veya sivil özgürlüklerine zarar veren kasıtsız kullanımları önlemek için herhangi bir veri girişini güvenli hale getirdiklerinden ve uygun şekilde kullandıklarından emin olmaları gerekiyor” dedi.

Amerikan Sivil Özgürlükler Birliği Idaho Vakfı’ndan bir avukat olan Richard Eppink, şunları kaydetti: toplu dava AI tabanlı bir sistem nedeniyle eyaletin Medicaid programı tarafından fonları reddedilen, gelişimsel ve zihinsel engelli yaklaşık 4.000 Idahoalıyı temsil eden ACLU tarafından getirildi. Eppink, “Tescilli yapay zekanın yasal işlem haklarını rehin tutmasına izin veremeyiz” dedi.

AI ile ilgili diğer duruşmada Altman’a, vatandaşların seçimlerin GPT-4 ve onun chatbot uygulaması ChatGPT gibi büyük dil modelleri (LLM’ler) tarafından oynanabileceği konusunda endişelenmeleri gerekip gerekmediği soruldu.

“En büyük endişe duyduğum alanlardan biri” dedi. “Bu modellerin manipüle etme, ikna etme ve bire bir etkileşimli dezenformasyon sağlama konusundaki daha genel yetenekleri – gelecek yıl bir seçimle karşı karşıya kalacağımız ve bu modellerin daha iyiye gittiği göz önüne alındığında, bence bu önemli bir endişe alanı. ”

Altman, düzenlemenin “akıllıca” olacağını çünkü insanların bir yapay zeka sistemiyle mi konuştuklarını veya bir sohbet robotu tarafından oluşturulan içeriğe (resimler, videolar veya belgeler) bakıp bakmadıklarını bilmeleri gerektiğini söyledi. “Bahsettiğimiz bu tür yeteneklere sahip olabilecek bir model sağlayan bir şirketten açıklama açısından neler beklendiğiyle ilgili kurallara ve yönergelere de ihtiyacımız olacağını düşünüyorum. Bu nedenle, bu konuda gerginim.”

Bununla birlikte, insanlar hızla adapte olacak, diye ekledi ve Adobe’nin Photoshop yazılımının, yetenekleri fark edilene kadar ilk başta birçok kişiyi kandıran bir şey olduğuna işaret etti. “Ve sonra oldukça hızlı bir şekilde [people] Altman, görüntülerin photoshoplanmış olabileceğine dair bir anlayış geliştirdi” dedi. “Bu böyle olacak, ama steroidlerle.”

AI içeriğini belirtmek için filigranlar

Tennessee Üniversitesi’ndeki AI Tennessee Initiative’in direktörü Lynne Parker, AI araçları tarafından oluşturulan içeriği tanımlamanın bir yönteminin filigran eklemek olduğunu söyledi. Teknoloji, kullanıcıların içeriğin menşeini veya nereden geldiğini tam olarak anlamasını sağlar.

Komite üyesi Senatör Maggie Hassan (D-NH), yapay zeka içeriğine filigran eklenmesi konusunda gelecekte bir duruşma yapılacağını söyledi.

Altman ayrıca ABD hükümetinin üç noktalı bir AI gözetim planı izlemesini önerdi:

  • Büyük yapay zeka modellerini lisanslamak ve hükümet standartlarını karşılamayanları iptal etmekle görevli bir devlet kurumu oluşturun.
  • Tehlikeli olup olmadıklarını değerlendirme yeteneğini içeren LLM güvenlik standartları oluşturun. Diğer ürünler gibi, LLM’lerin de “kendi kendini kopyalayamama”, hile yapamama ve kendi başlarına hareket etmeye başlama gibi güvenlik testlerinden geçmesi gerekecekti.
  • Bağımsız uzmanlar tarafından denetlenen bağımsız bir yapay zeka denetim çerçevesi oluşturun.

Ancak Altman, Senatör Marsha Blackburn (R-TN) ve diğer komite üyelerinin önerdiği gibi, LLM’lerin nasıl eğitildiğine ilişkin şeffaflık endişelerini ele almadı.

Parker da federal eylem çağrısında bulundu – ABD hükümetinin AI’dan sorumlu bir şekilde yararlanmasına izin verecek yönergeler. Daha sonra vatandaş haklarının korunması, NIST’in önerdiği gibi yerleşik kuralların kullanımı dahil olmak üzere 10 tane listeledi. AI Yönetim Çerçevesive federal bir AI konseyinin oluşturulması.

Parker, AI sistemlerinin geliştirilmesini ve konuşlandırılmasını engelleyen zahmetli veya ağır gözetime ihtiyaç olmadığını savundu. Bunun yerine, Bilim ve Teknoloji Ofisi gibi mevcut önerilen yönergeler Yapay Zeka Haklar Bildirgesi Taslağı yüksek riskli konuları ele alacaktır.

Yapay zekanın sorumlu kullanımının tanımlanması da önemlidir; bu, Yönetim ve Bütçe Ofisi gibi kurumlara sorumluluk verilmesi gereken bir şeydir.

Bir endişe: Chatbot ve diğer AI teknolojileri satıcıları, yeni uygulamalar geliştirmeye yardımcı olmak için eyalet ve federal kurumlardan cep telefonu kayıtları ve vatandaş adresleri gibi kamuya açık bilgileri elde etmek için çok çalışıyor. Bu uygulamalar, onlara daha iyi pazarlama yapmak için insanları ve çevrimiçi alışkanlıklarını izleyebilir.

Çin yapay zeka hamlesi yapıyor

Senato komitesi, Çin’in hem AI geliştirme hem de standartlarda lider olduğuna dair endişeleri de duydu. Haberler Kıdemli Editörü Jacob Siegel, “Bir tuzağa yakalanmış gibiyiz” dedi. Tablet Dergisi. “Yapay zekanın ilerlemesini teşvik etmede hayati bir ulusal çıkar var, ancak şu anda hükümetin yapay zekayı birincil kullanımı, kendisinin veya üçüncü taraf ortaklarının zararlı bulduğu bilgileri sansürlemek için siyasi bir silah gibi görünüyor.”

Çevrimiçi dergisi Yahudi haberlerine ve kültürüne odaklanan Siegel, bir istihbarat subayı ve Irak ve Afganistan Savaşı gazisi olarak görev yaptı.

Bugüne kadarki Amerikan AI yönetişiminin, yukarıdan aşağıya, siyasi parti güdümlü bir sosyal kontrol ile Çin modelini taklit ettiğini savundu. “Bu yönde devam etmek, özyönetim geleneğimizin ve Amerikan yaşam tarzının sonu anlamına gelecektir.”

Siegel, teröre karşı savaştaki deneyimlerinin kendisine “AI devrimine bir bakış” sağladığını söyledi. Teknolojinin şimdiden “Amerika’nın siyasi sistemini ve kültürünü, bizim demokrasi ve özyönetim sistemimizle zaten bağdaşmadığı kanıtlanmış ve yakında geri döndürülemez hale gelebilecek şekillerde yeniden yaptığını” söyledi.

Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA) direktörü Jen Easterly’nin bu ayın başlarında verdiği ve Çin’in AI’nın değerlerini temsil etmesini sağlamak için zaten korkuluklar kurduğunu söyleyen ifadesini çağırdı. Siegel, “Ve ABD de aynısını yapmalı” dedi.

Yargı Komitesi, AI’nın dönüştürücü potansiyelini ve risklerini tartışmak için Mart ayında bir duruşma düzenledi. Bugünkü duruşma, yapay zekanın hükümetin hizmetleri daha verimli bir şekilde sunmasına ve aynı zamanda mahremiyet, ifade özgürlüğü ve önyargıya izinsiz girişlerden kaçınmasına nasıl yardımcı olabileceğine odaklandı.

Sansürle ilgili endişeler

Senatör Rand Paul (R-KY), ChatGPT gibi yapay zekanın yalnızca beslediği hatalı verilerle hareket etmekle kalmayıp, aynı zamanda hükümetin belirlediği şeye dayanarak bilerek dezenformasyon ve sansür serbest konuşma üretebildiği, özellikle uğursuz, Orwell benzeri bir senaryo çizdi. daha iyi.

Örneğin Paul, COVID-19 salgını sırasında bir özel sektör-kamu ortaklığının Twitter gibi özel şirketlerle uyum içinde çalışarak aşı kökenleri ve onaylanmamış tedaviler hakkındaki tartışmalı gönderilerin keşfini otomatikleştirmek ve bunları silmek için yapay zekayı nasıl kullandığını anlattı.

“İddialarına göre amaç, yabancı kötücül etkilerle mücadele etmekti. Ancak gerçekte hükümet, yabancı yanlış bilgileri veya dezenformasyonları bastırmıyordu. Amerikalıların yerel konuşmalarını sansürlemek için çalışıyordu, ”dedi Paul. “George Orwell gurur duyardı.”

Paul, 2020’den bu yana federal hükümetin özel yapay zeka sistemleri için 500’den fazla sözleşme imzaladığını söyledi. Senatör, sözleşmelerin teknolojisinin “internette madencilik yapmak, zararlı anlatılara işaret eden konuşmaları belirlemek, bu tehditleri izlemek ve mesajlar viral olmadan önce karşı önlemler geliştirmek” için kullanılan şirketlere gittiğini iddia etti.

Telif hakkı © 2023 IDG Communications, Inc.



genel-13