Biden Yönetimi, güvenli ve güvenilir olanı geliştirmek için yeni “uzlaşı endüstri standartları” oluşturmayı ve potansiyel olarak felaketle sonuçlanabilecek suiistimalleri önlemek için yeni korkuluklar kurmayı amaçlayan türünün ilk örneği bir yapay zeka yürütme emriyle ilerliyor. Bugünün icra emri Dünyanın dört bir yanındaki hükümetlerdeki yasa yapıcılar, ortaya çıkan ve öngörülemeyen teknolojide zararın en iyi şekilde nasıl önlenebileceğiyle uğraşırken, yapay zeka düzenlemelerinde önemli bir dönüm noktasına işaret ediyor.

Yapay zeka uzmanları Pazartesi günü ikiye bölündü. Birçoğu Biden’ın emrinin gidişatı konusunda temkinli bir iyimserlik dile getirirken, diğerleri hükümetin yaklaşımını milyarlarca dolarlık teknoloji şirketlerinin gönüllü iyiliklerine çok fazla güvenmekle suçladı.

Biden’ın talimatı sekiz kategoriye ayrılıyor:

  • Yapay Zeka Güvenliği ve Güvenliği için Yeni Standartlar
  • Amerikalıların Gizliliğinin Korunması
  • Eşitlik ve Sivil Hakların Geliştirilmesi
  • Tüketicileri, Hastaları ve Öğrencileri Korumak
  • İşçileri Desteklemek
  • Yenilik ve Rekabeti Teşvik Etmek
  • Yurtdışında Amerikan Liderliğini Geliştirmek
  • Yapay Zekanın Sorumlu ve Etkili Hükümet Kullanımının Sağlanması

Standart konuda emir, büyük yapay zeka şirketlerinden güvenlik testi sonuçlarını hükümetle paylaşmalarını ve yapay zeka sistemlerinin güvenli ve güvenilir olmasını sağlamak için yeni araçlar geliştirmelerini isteyecek. Aynı zamanda yapay zeka geliştiricilerini her türlü olumsuzluktan korunmak için çeşitli yeni araçlar ve standartlar geliştirmeye çağırıyor. Yapay zeka felaket felaket senaryolarıYapay zeka tarafından üretilen biyolojik silahlardan yapay zeka destekli dolandırıcılığa ve siber saldırılara kadar. Çok sayıda ilgili devlet kurumunun başkanları, yapay zekanın kendi kritik altyapı alanlarına yönelik oluşturduğu potansiyel tehlikeleri değerlendiren yıllık bir rapor sunmakla görevlendirilecek. Bu raporlar, altyapıyı kritik arızalara karşı daha savunmasız hale getirmek için yapay zekanın nasıl kullanılabileceğine dair bir değerlendirme içerecek.

İleriye yönelik yapay zeka geliştiricilerinin, araçlarının ulusal güvenlik riski oluşturabileceği tespit edilirse güvenlik testi sonuçlarını federal hükümetle paylaşmaları gerekecek. Biden yönetimi, bu gereklilikleri uygulamak için ilk olarak 1950’de kabul edilen Savunma Üretimi Yasasını kullanıyor.

Uluslararası Gizlilik Profesyonelleri Birliği Başkan Yardımcısı ve Baş Bilgi Sorumlusu Caitlin Fennessy, e-postayla gönderilen bir açıklamada, “Yapay zekayı düzenlemek için Savunma Üretim Yasası’ndan yararlanmak, öngörülen ulusal güvenlik risklerinin önemini ve Yönetimin harekete geçme konusundaki aciliyetini açıkça ortaya koyuyor” dedi.

Federal devlet kurumları burada özel sektörle birlikte çalışacak. Örneğin Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), halka sunulmadan önce yapay zeka modellerinin “kırmızı takım” haline getirilmesine yönelik standartların geliştirilmesinden sorumlu olacak. Bu arada Enerji Bakanlığı ve İç Güvenlik Bakanlığı da altyapı ve diğer kritik sistemlere yönelik potansiyel tehditleri inceleyecek.

Biden, yapay zeka tarafından oluşturulan materyalleri tanımlamak için yeni girişimler çağrısında bulunuyor

İlerleyen süreçte, emir, Ticaret Bakanı’nın genellikle filigranlama olarak adlandırılan bir uygulama olan yapay zeka tarafından oluşturulan içeriğin etiketlenmesine yönelik bir kılavuz geliştirmesini gerektirecektir. Sekreterin, yapay zeka tarafından oluşturulan medyayı tanımlamak ve etiketlemek için mevcut yetenekleri tanımlayan ve aynı zamanda üretken yapay zekanın Çocuklara Yönelik Cinsel İstismar Materyali oluşturmak için kullanılmasını engelleyebilecek araçları tanımlayan bir rapor hazırlaması gerekecektir. Çocukları seks eylemlerinde tasvir eden, yapay zeka tarafından oluşturulan içerik interneti doldurmaya başladı açık kanun veya düzenlemelerin bulunmamasından kaynaklanmaktadır.

Beyaz Saray, Salı günü yayınlanan bir bilgi notuna göre, filigranlama ve uygun etiketlemeye odaklanmanın “Amerikalıların hükümetlerinden aldıkları iletişimlerin gerçek olduğunu bilmelerini kolaylaştıracağını” umuyor. Ancak gidecekleri çok uzun bir yol olabilir. Mevcut üretken yapay zeka dedektörlerinin tutarsız olduğu kanıtlandı. yakın zamanda OpenAI kendi AI metin algılayıcısının gerçekten çalışmadığını kabul etti.

Başka yerlerde, emir önleme çabalarına odaklanıyor Yapay zekanın insanlara karşı ayrımcılık yapmak için kullanılmasına son. Benzer şekilde emir, yapay zekanın ceza verme, şartlı tahliye ve duruşma öncesi tahliyenin yanı sıra gözetleme ve öngörücü polislik alanlarında nasıl kullanıldığını belirlemek için yeni ceza adaleti standartlarının ve en iyi uygulamaların geliştirilmesini talep ediyor. Kararın metni, bazı gizlilik savunucularının umduğu gibi, bu kullanım durumlarından herhangi birinin doğrudan yasaklanmasını gerektirmiyor.

Yönetim, Gizmodo tarafından elde edilen yürütme emrinin bir kopyasında, “Yapay zekayı geliştiren ve dağıtanları, adalet sistemi ve Federal Hükümet de dahil olmak üzere, yasa dışı ayrımcılık ve istismara karşı koruma sağlayan standartlara karşı sorumlu tutmak gerekir” diye yazdı. “Ancak o zaman Amerikalılar herkes için sivil hakları, eşitliği ve adaleti ilerletme konusunda yapay zekaya güvenebilirler.”

Yönetim şöyle devam etti: Federal hükümet Yapay zeka şirketleri tarafından toplanan verilerin ve bu verilerin saklanmasının “yasal, güvenli ve gizliliği teşvik eden” olmasını sağlamak için harekete geçecektir. Biden yönetimi burada bir kez daha zorlu bir mücadeleyle karşı karşıya. Birden fazla mecradaki içerik oluşturucular zaten dava açtı OpenAI ve diğer yapay zeka üreticileri Algoritmalarını eğitmek için telif hakkıyla korunan materyalleri uygunsuz bir şekilde topladıkları iddiaları üzerine. Çalışmalar ayrıca yapay zeka modellerinin şu amaçlarla nasıl kullanılabileceğini de gösterdi: kişisel nitelikleri çıkarsama sözde anonim kullanıcılar hakkında.

Biden’ın emri aynı zamanda, birçoğu yapay zeka gelişmelerinden etkilenebilecek işçilere masada bir koltuk teklif etmenin önemini de vurguluyor. Kararda, yapay zeka modellerinin işçi haklarını baltalayacak, iş kalitesini kötüleştirecek, gereksiz gözetimi teşvik edecek veya piyasa rekabetini azaltacak şekilde geliştirilmemesi gerektiği belirtiliyor.

Bu bakımdan Biden yönetimi partiye geç kaldı. ChatGPT tarzı büyük dil modelleri halihazırda İşten çıkarmalara katkıda bulundu son aylarda çeşitli beyaz yakalı sektörlerde, satıştan gazetecilik. Tüm işaretler bu eğilimin daha da kötüleştiğine işaret ediyor gibi görünüyor.

Biden’ın emri, benzer şekilde, küresel yapay zeka teknoloji yarışında üstünlüğünü sürdürmek için ABD’nin yurt dışından daha fazla yapay zeka yeteneğini çekmesi ihtiyacına önemli ölçüde yer ayırıyor. Bu işe alım çabasının bir kısmı göçmenlik kısıtlamalarının hafifletilmesi anlamına geliyor. Karar, ABD’deki yapay zeka projelerinde çalışmak isteyen ABD vatandaşı olmayanlar için vize dilekçeleri ve başvurularının hızlandırılması çağrısında bulunuyor. Ayrıca Ticaret Bakanı’na dünya çapında en iyi yapay zeka yeteneklerini belirlemeye ve çekmeye odaklanan bir program düşünmesi talimatını da veriyor.

Fennessy, “Yapay zeka yönetişim uzmanlarına ve eğitime odaklanmak, yapay zeka güvenlik önlemlerinin teknolojinin derinlemesine anlaşılmasıyla geliştirilmesini ve inovasyonun güvenebileceğimiz bir şekilde ilerlemesini sağlamak için gerekli bağlamı kullanmasını sağlayacaktır” diye ekledi.

Biden’ın emri, AI kullanımlarının yanı sıra giderek daha güçlü modelleri eğitmek için kullanılan verileri de ele almaya çalışıyor. Karar, özellikle devlet kurumlarını, veri komisyoncularından temin edilenler de dahil olmak üzere ticari olarak mevcut bilgileri nasıl topladıklarını ve kullandıklarını değerlendirmeye çağırıyor.

Düzen oluşuyor önceki gönüllü taahhütler Filigranlama ve test gereksinimleri konusunda dünyanın önde gelen yedi AI firmasından. Bu “taahhütler” aslında teknoloji devlerinin kendi kendilerini denetlemesi anlamına geliyor. Bu emir, aksine, yürütme kaleminin ağırlığını değiştiriyor, ancak devlet kurumlarının yeni yönergelere uymayan firmaları cezalandırmak için ne kadar ileri gidecekleri belli değil. Tüm idari emirler gibi, Biden’ın yapay zeka girişimleri de yeniden seçilmeyi başaramazsa ve halefi rotayı tersine çevirmeye karar verirse geçersiz kılınabilir.

Yine de Beyaz Saray Özel Kalem Müdürü Bruce Reed CNBC’ye söyledi siparişte yer alan bu ve diğer kuralların “yapay zeka güvenliği, emniyeti ve güveni konusunda dünyadaki herhangi bir hükümetin şimdiye kadar gerçekleştirdiği en güçlü eylemler dizisi” olduğuna inanıyor.

Uzmanlar, kararın doğru yönde atılmış bir adım olduğunu ancak daha sıkı politika ayrıntılarına ihtiyaç olduğunu söylüyor

Bu alandaki yapay zeka uzmanları şu ana kadar emre temkinli bir iyimserlikle yanıt verdi. Biden’ın emri belirli ayrıntılardan yoksun olabilir, ancak yine de yapay zeka düzenlemelerini ele almak için “tüm hükümet” yaklaşımının sinyalini veriyor. Siyasi olarak bölünmüş bir Kongre’de anlamlı yapay zeka mevzuatını geçirmenin zorluğu göz önüne alındığında bu özellikle güven verici.

Demokrasi ve Teknoloji Merkezi CEO’su Alexandra Reeve Givens, e-postayla gönderilen bir açıklamada, “Yönetim Kararı, yapay zekanın sorumlu bir şekilde geliştirilmesini ve yönetilmesini desteklemek için tüm hükümetin dikkate değer bir çabasını temsil etme yolunda görünüyor” dedi. “Yönetim’in hem karmaşık temel modellerinin ortaya çıkan risklerine hem de yapay zeka sistemlerinin hâlihazırda insan haklarını etkilediği birçok yola odaklandığını görmek dikkate değer; bu, kamu yararına çalışan uzmanlar ve savunucular tarafından dile getirilen birçok endişeye yanıt veren çok önemli bir yaklaşım.”

Ancak herkes siparişten memnun olarak ayrılmadı. Gizlilik savunucuları, Amerikalılara karşı gözetleme veya ayrımcılık yapmak için zaten kullanılmış olan yapay zeka modellerinin etkinliği konusunda şu veya bu şekilde daha güçlü bir pozisyon almayı reddettiği için uzun süren kararı eleştirdi. Mozilla Başkanı Mark Surman gibi bazıları da emrin, Meta ve Google gibi yapay zeka üreticileri arasında önemli bir farklılık alanı olan açık kaynaklı yapay zeka girişimlerine vurgu yapılmamasını sorguladı.

Surman e-postayla yaptığı açıklamada, “Keşke Yönetici Kararı’nda açık kaynak ve açık bilim hakkında bir şeyler görebilseydik” dedi. “Yapay zekanın faydalarının yalnızca kârın temel motivasyon kaynağı olduğu durumlarda uygulanmasını görmek yerine insanlığın çoğunluğuna ulaşmasını istiyorsak açıklık ve şeffaflık çok önemlidir.”

Gözetleme Teknolojisi Gözetim Projesi İcra Direktörü Albert Fox Cahn gibi diğerleri ise, yüz tanıma ve diğer biyometrik gözetim sistemleri gibi istilacı yapay zeka teknolojilerine karşı katı bir duruş sergilemek için kaçırılmış bir fırsat olduğunu savunarak kararı kınadı.

Fox Cahn yaptığı açıklamada, “Yapay zekanın pek çok türünün piyasaya sürülmesine izin verilmemeli” dedi. “Ve bu tekliflerin çoğu, kötü niyetli yapay zekanın piyasada kalmasına izin veren düzenleyici bir tiyatrodan başka bir şey değil.

Belki de en önemlisi, geniş kapsamlı yönetim emrinde hâlâ yapay zeka firmalarını sorumlu tutacak pek çok şey bulunmuyor. Şimdilik federal hükümet, bazıları “hızlı hareket et ve işleri boz” teknoloji ahlakını somutlaştırmaya istekli görünen büyük yapay zeka firmalarıyla aynı çizgide yürüyebileceklerini umuyor.

Fox Cahn, “Beyaz Saray, şirketler ve ajanslar tarafından kolaylıkla oyuna getirilebilecek yapay zeka denetim tekniklerine aşırı güvenme hatasını sürdürüyor” diye ekledi.

Güncelleme 16:45 EST: Yönetici emrinden ayrıntılar ve yapay zeka uzmanlarının açıklamaları eklendi.



genel-7