Birleşik Krallık hükümeti, son haftalarda gelişmekte olan AI güvenliği alanında uluslararası bir hareket ettirici ve sarsıcı olarak imajını geliştirmeye çalışıyor – geçen ay konuyla ilgili yapılacak bir zirvenin gösterişli bir duyurusunu ve bir taahhüdünü bıraktı. söylediği gibi “son teknoloji” AI güvenlik araştırması yapacak temel bir model görev gücüne 100 milyon £ harcayın.

Yine de Birleşik Krallık başbakanı ve Silikon Vadisi süper hayranı Rishi Sunak liderliğindeki aynı hükümet, AI uygulamalarını düzenlemek için yeni iç mevzuatı geçirme ihtiyacından kaçındı – bu, markaların “inovasyon yanlısı” konulu kendi politika belgesinin bir duruşu.

Aynı zamanda, yapay zeka güvenliğine karşı çalışma riski taşıyan ulusal veri koruma çerçevesinin deregülasyon reformunu geçirmenin ortasındadır.

İkincisi, bağımsız araştırma odaklı kuruluşun vardığı birkaç sonuçtan biridir. Ada Lovelace EnstitüsüNuffield Vakfı hayırsever güveninin bir parçası, Birleşik Krallık’ın yapay zekayı düzenlemeye yönelik yaklaşımını inceleyen ve diplomatik gibi görünen ancak bazen bakanlar için oldukça garip bir okuma yapan yeni bir raporda.

Rapor, bu alanda hükümet politikasını/güvenilirliğini yükseltmek için tam 18 tavsiye içeriyor – örneğin, Birleşik Krallık bu konuda ciddiye alınmak istiyorsa.

Enstitü, AI güvenliğinin “pahalı” bir tanımını savunuyor – “AI sistemleri daha yetenekli hale geldikçe ve toplumda yerleşik hale geldikçe ortaya çıkan çok çeşitli zararları yansıtıyor”. Dolayısıyla rapor, “AI sistemlerinin bugün neden olabileceği” düzenlemesinin nasıl yapılacağı ile ilgileniyor. Onlara gerçek dünyadaki yapay zeka zararları deyin. (Son zamanlarda teknoloji endüstrisindeki bazı yüksek profilli figürler tarafından şişirilmiş, görünüşe göre politika yapıcıların dikkatini dağıtmak amacıyla bilim kurgudan ilham alan teorik olası gelecekteki risklerle değil.)

Şimdilik, Sunak hükümetinin (gerçek dünya) AI güvenliğini düzenleme yaklaşımının çelişkili olduğunu söylemek doğru olur; güvenliği savunmak istediğini iddia eden gösterişli, endüstri liderliğindeki PR’a ağırlık veriyor, ancak yanlış değerlendirilmiş otomasyon uygulamalarından kaynaklanabileceğini bildiğimiz çok sayıda risk ve zarara karşı korunmak için somut kurallar belirlemeye yönelik politika önerilerini hafife alıyor.

İşte Ada Lovelace Enstitüsü birincil gerçek bombasını atıyor:

Birleşik Krallık Hükümeti, Birleşik Krallık toplumu ve ekonomisine fayda sağlamak için yapay zeka teknolojilerinin geliştirilmesinden ve yaygınlaşmasından yararlanarak ve 2023 sonbaharında küresel bir zirveye ev sahipliği yaparak Birleşik Krallık’ı bir “AI süper gücü” yapma hedefini ortaya koydu. İngiltere’nin gelecekteki AI ekonomisi için platform sağlayacak olan yerel düzenleme.

TRaporun tavsiyeler listesi, Enstitü’nün Birleşik Krallık’ın yapay zekaya yönelik mevcut yaklaşımında iyileştirme için pek çok alan gördüğünü netleştirmek için devam ediyor.

Bu yılın başlarında hükümet, AI’yı yerel olarak düzenlemeye yönelik tercih ettiği yaklaşımı yayınladı – bu aşamada yeni mevzuata veya gözetim organlarına ihtiyaç görmediğini söyledi. Beyaz kitap bunun yerine, hükümetin mevcut, sektöre özel (ve/veya kesişen) düzenleyicilerin “yetkileri dahilinde yapay zekayı yorumlaması ve uygulaması” gerektiğini önerdiği bir dizi esnek ilke önerdi. AI’nın yeni kullanımlarını denetlemek için herhangi bir yeni yasal yetki veya ekstra fon olmadan.

Tanıtım belgesinde belirtilen beş ilke şunlardır: Emniyet, emniyet ve sağlamlık; Uygun şeffaflık ve açıklanabilirlik; adalet; Hesap verebilirlik ve yönetişim; İtiraz edilebilirlik ve tazmin. Bunların hepsi kağıt üzerinde kulağa hoş geliyor – ancak yapay zeka güvenliğini düzenleme söz konusu olduğunda tek başına kağıt açıkça yeterli olmayacak.

Birleşik Krallık’ın, mevcut düzenleyicilerin yapay zeka konusunda ne yapacaklarına karar vermelerine izin verme planı, sadece bazı geniş kapsamlı ilkelerle ve hiçbir yeni kaynak olmadan, milletvekillerinin riske dayalı bir çerçeve üzerinde anlaşmaya varmakla meşgul oldukları AB’ninkiyle çelişiyor. yönetici 2021’de teklif etti.

Birleşik Krallık’ın mevcut, çok çalışan düzenleyicilere, yapay zeka gelişmelerini kötü aktörler üzerindeki sonuçları dayatma yetkisi olmadan kendi yamalarında izlemek için yeni sorumluluklar yükleme şeklindeki kısıtlı bütçe yaklaşımı, en hafif deyimiyle yapay zeka güvenliği konusunda pek inandırıcı görünmüyor.

İnovasyon yanlısı olmak için çekim yapıyorsanız bile tutarlı bir strateji gibi görünmüyor – çünkü AI geliştiricilerinin, en son AI patlamasından çok önce hazırlanmış, sektöre özgü ve kesişen mevzuatın tüm bir yamasını düşünmesini gerektirecektir. Geliştiriciler ayrıca kendilerini bir dizi farklı düzenleyici kurumun gözetimine tabi bulabilirler (yukarıda belirtilen ilkeleri uygulamak için kaynak ve yasal ateş gücü eksikliği göz önüne alındığında dikkatleri zayıf olabilir). Yani, gerçekten, bir tarif gibi görünüyor AI uygulamalarına hangi mevcut kuralların uygulanabileceği konusundaki belirsizlik. (Ve büyük olasılıkla, sektöre, kullanım durumuna ve dahil olan gözetim organlarına vb. bağlı olarak düzenleyici yorumlardan oluşan bir patchwork. Dolayısıyla, netlik değil, kafa karışıklığı ve maliyet.)

Ada Lovelace Enstitüsü’nün raporunun da işaret ettiği gibi, Birleşik Krallık’taki mevcut düzenleyiciler yapay zekaya nasıl yaklaşacaklarına dair hızlı bir şekilde rehberlik sunsalar bile – bazılarının zaten yaptığı veya üzerinde çalıştığı gibi – yine de birçok boşluk olacaktır – çünkü kapsama boşlukları İngiltere’nin mevcut düzenleyici ortamı. Bu nedenle, bu yaklaşımı biraz daha genişletme önerisi, düzenleyici tutarsızlığın ortaya çıktığını ve hatta yapay zeka kullanımı tüm sektörlerde ölçeklendiğinde/patladığında daha da arttığını ima ediyor.

İşte yine Enstitü:

Birleşik Krallık ekonomisinin büyük bir bölümü şu anda düzenlenmemiştir veya yalnızca kısmen düzenlenmiştir. Aşağıdakileri içeren bu bağlamlarda YZ ilkelerini uygulamaktan kimin sorumlu olacağı belirsizdir: düzenlenmiş sektörlerde bile düzenleyiciler tarafından kapsamlı bir şekilde izlenmeyen işe alım ve istihdam gibi hassas uygulamalar; düzensiz bir düzenleyiciler ağı tarafından izlenen ve uygulanan eğitim ve polislik gibi kamu sektörü hizmetleri; yardım idaresi veya vergi kaçakçılığının tespiti gibi genellikle doğrudan düzenlenmeyen merkezi hükümet daireleri tarafından yürütülen faaliyetler; perakende gibi özel sektörün düzenlemeye tabi olmayan bölümleri.

“Yapay zeka her sektörde konuşlandırılıyor ve kullanılıyor, ancak Birleşik Krallık’ın yapay zeka için yaygın yasal ve düzenleyici ağı şu anda önemli boşluklara sahip. Koruma önlemlerinin ekonomi genelinde yayılmasını sağlamak için daha net haklara ve yeni kurumlara ihtiyaç var” dedi.

Hükümetin iddia ettiği “AI liderliği” pozisyonu için büyüyen bir başka çelişki de, ülkenin küresel bir AI güvenlik merkezi olma hedefinin, insanların verileri için yerel korumaları sulandırmaya yönelik tren içi çabalar tarafından – örneğin ne zaman korumaların düşürülmesi gibi – doğrudan baltalanmasıdır. düzenleyici olmayan Veri Koruma ve Dijital Bilgi Yasası (No. 2) yoluyla önemli ve/veya yasal etkiye sahip otomatik kararlara tabidirler.

Hükümet şimdiye kadar, AB’den türetilen veri koruma kural kitabını yırtıp atmaya yönelik en kafa sallayan Brexit yanlısı önerilerden kaçınmış olsa da (otomatik kararlar için korumayla ilgili olan) 22. Maddenin tamamını Birleşik Krallık’ın Genel Veri Koruma Yönetmeliğinden basitçe silmek gibi. Birleşik Krallık’ı küresel bir AI güvenlik merkezi haline getirme konusundaki yeni hedefine rağmen, vatandaşların mevcut veri koruma yasası kapsamında çeşitli şekillerde yararlandığı koruma düzeyini düşürme planında ilerliyor.

“Birleşik Krallık’ta şu anda yürürlükte olan veri korumaya yönelik yasal çerçeve olan Birleşik Krallık GDPR’si, bireyleri ve toplulukları olası yapay zeka zararlarından korumak için hayati önem taşıyan korumalar sağlıyor. Mart 2023’te mevcut haliyle masaya yatırılan Veri Koruma ve Dijital Bilgi Yasası (No. 2), bu korumaları önemli ölçüde değiştiriyor,” diye uyarıyor Enstitü, örneğin Yasa Tasarısının birçok otomatik karar türü üzerindeki yasağı kaldırdığına işaret ederek – ve bunun yerine veri kontrolörlerinin, uygulamada daha düşük bir koruma seviyesi olduğunu iddia ettiği “bir bireyin karara itiraz etmesini sağlayacak önlemler gibi önlemler” almasını zorunlu kılmak.

“Hükümetin önerdiği çerçevenin mevcut mevzuata ve düzenleyicilere dayanması, veri koruma gibi temel düzenlemelerin yapay zekayı uygun şekilde yönetmesini daha da önemli hale getiriyor” diye devam ediyor. “Ada Lovelace Enstitüsü tarafından görevlendirilen yasal tavsiye… mevcut otomatik işleme korumalarının, kredi başvurusu gibi günlük hizmetlerle etkileşimde bulunan kişilere pratikte yeterli koruma sağlamayabileceğini öne sürüyor.”

Rapor, “Toplu olarak ele alındığında, Yasa Tasarısındaki değişiklikler, Hükümetin yapay zeka için düzenleyici önerilerini daha da baltalama riski taşıyor” diye ekliyor.

Bu nedenle Enstitünün ilk tavsiyesi, hükümetin rVeri koruma reform tasarısının “hesap verebilirlik çerçevesindeki değişiklikler gibi yapay zekanın güvenli bir şekilde geliştirilmesini, konuşlandırılmasını ve kullanılmasını baltalaması muhtemel” unsurları düşünün. Ayrıca, hükümetin diğer yasal boşlukları doldurmak ve insanlar için yeni haklar ve korumalar getirmek amacıyla Birleşik Krallık yasalarındaki mevcut haklara ve korumalara bakmak için incelemesini genişletmesini tavsiye ediyor.e gerektiğinde yapay zekanın verdiği kararlardan etkilenir.

Rapordaki diğer tavsiyeler arasında, düzenleyicilere “sıkı şeffaflık ve hesap verebilirlik yükümlülükleri” de dahil olmak üzere yukarıda belirtilen ilkelere uymaları için yasal bir görev getirilmesi ve yapay zeka ile ilgili zararların üstesinden gelmeleri için onlara daha fazla fon/kaynak sağlanması yer alıyor; dahil olmak üzere düzenleyiciler için ortak bir dizi yetkinin getirilmesini araştırıyor. önceden, geliştirici odaklı düzenleme yeteneği; ve hükümetin, yapay zekadan olumsuz şekilde etkilenen insanları desteklemek için bir yapay zeka ombudsmanının kurulup kurulmayacağına bakması gerektiği.

Enstitü ayrıca hükümete, AB’nin halihazırda önde olduğu başka bir alan olan yapay zeka ve sorumlulukla ilgili yasayı netleştirmesini tavsiye ediyor.

Enstitü, OpenAI’nin ChatGPT’si gibi üretken yapay zeka araçları etrafındaki viral vızıltı sayesinde son zamanlarda Birleşik Krallık hükümetinin özel ilgi ve dikkatini toplayan bir alan olan temel model güvenliği konusunda da hükümetin daha ileri gitmesi gerektiğine inanıyor ve Birleşik Krallık merkezli geliştiricilere şu tavsiyelerde bulunuyor: düzenleyicilerin çok hızlı hareket eden bir teknolojinin zirvesinde kalmasını kolaylaştırmak için temel modellere zorunlu raporlama gereklilikleri verilmelidir.

Hatta OpenAI, Google DeepMind ve Anthropic gibi önde gelen temel model geliştiricilerin, kendileri (veya birlikte çalıştıkları herhangi bir alt işleyici) yeni modellerin büyük ölçekli eğitimlerine başladıklarında hükümete bildirimde bulunmaları gerektiğini önermektedir.

“Bu, Hükümete AI yeteneklerindeki ilerlemeler hakkında erken bir uyarı sağlayarak, politika yapıcıların ve düzenleyicilerin habersiz kalmak yerine bu gelişmelerin etkisine hazırlanmalarına olanak tanıyacaktır.” modelleri eğitmek için kullanılan veriler; kurum içi denetimlerden elde edilen sonuçlar; ve tedarik zinciri verileri.

Diğer bir öneri ise, hükümetin yapay zeka Ar-Ge’sindeki eğilimlere ilişkin kendi anlayışını desteklemek için küçük pilot projelere yatırım yapmasıdır.

Ada Lovelace Enstitüsü müdür yardımcısı Michael Birtwistle yaptığı açıklamada rapor bulgularını yorumlayarak şunları söyledi:

Hükümet, Birleşik Krallık’ın AI düzenlemesinde dünya lideri olmak için eşsiz bir fırsata sahip olduğunu ve başbakanın bu konudaki küresel liderliği için takdir edilmesi gerektiğini haklı olarak kabul etmektedir. Bununla birlikte, Birleşik Krallık’ın AI düzenlemesi konusundaki güvenilirliği, Hükümetin kendi ülkesinde dünya lideri bir düzenleyici rejim sunma becerisine dayanmaktadır. Uluslararası koordinasyona yönelik çabalar memnuniyetle karşılanmakla birlikte yeterli değildir. Hükümet, AI konusunda ciddiye alınmak ve küresel emellerine ulaşmak istiyorsa, yerel düzenleme önerilerini güçlendirmelidir.



genel-24