Birleşik Krallık hükümetinin geçen hafta bu sonbaharda bir “küresel” AI güvenlik zirvesine ev sahipliği yapmayı planladığını açıklamasının ardından, başbakan Rishi Sunak, Londra Teknoloji Haftası’nı başka bir haberle başlattı – konferans katılımcılarına OpenAI, Google DeepMind ve Anthropic’in taahhütte bulunduğunu söyledi. değerlendirme ve güvenlik araştırmalarını desteklemek için yapay zeka modellerine “erken veya öncelikli erişim” sağlamak.
Sunak, son haftalarda yapay zeka devlerinin, teknolojinin düzgün bir şekilde düzenlenmediği takdirde ortaya çıkabileceği varoluşsal ve hatta yok olma düzeyindeki riskler hakkında uyarıda bulunmasının ardından, yapay zeka güvenliği konusuna daha hızlı bir geçiş yaptı.
“Son teknoloji yapacağız [AI] burada, Birleşik Krallık’ta güvenlik araştırması,” diye söz verdi Sunak bugün. “Uzman görev gücümüz için 100 milyon £ ile, AI güvenliğine diğer tüm hükümetlerden daha fazla fon ayırıyoruz.
Bu yapay zeka güvenlik görev gücü, yapay zeka temel modellerine odaklanacak. hükümet de dedi.
Sunak, “Sınır laboratuvarları olan Google DeepMind, OpenAI ve Anthropic ile çalışıyoruz” diye ekledi. “Daha iyi değerlendirmeler yapmak ve bu sistemlerin fırsatlarını ve risklerini daha iyi anlamamıza yardımcı olmak için araştırma ve güvenlik amaçlarıyla modellere erken veya öncelikli erişim vermeyi taahhüt ettiklerini duyurmaktan memnuniyet duyuyorum.”
Başbakan ayrıca, çabayı iklim değişikliğiyle mücadelede küresel katılım sağlamayı amaçlayan COP İklim konferanslarına benzetmeye çalışarak, yaklaşan AI güvenlik zirvesine ilişkin daha önce yaptığı duyuruyu yineledi.
“Tıpkı iklim değişikliğiyle mücadele etmek için COP aracılığıyla birleştiğimiz gibi, Birleşik Krallık da bu yıl içinde ilk küresel AI Güvenliği Zirvesi’ne ev sahipliği yapacak.” , küresel yapay zeka güvenlik yönetmeliği.”
AI güvenliğini yaymak, Sunak’ın hükümeti için belirgin bir vites değişikliğidir.
Mart gibi yakın bir tarihte, tam yapay zeka amigo modundaydı – bir teknik incelemede “bir AI düzenlemesine yenilik yanlısı yaklaşım”. Makalede belirtilen yaklaşım, birkaç “esnek ilke” belirlemek yerine yapay zeka için ısmarlama yasalara (veya özel bir AI bekçi köpeğine) duyulan ihtiyaçtan kaçınarak güvenlik endişelerini küçümsedi. Hükümet ayrıca yapay zeka uygulamalarının gözetiminin, antitröst gözlemcisi ve veri koruma kurumu gibi mevcut düzenleyici kurumlar tarafından yürütülmesi gerektiğini önerdi.
Birkaç ay hızlı ilerleyin ve Sunank şimdi Birleşik Krallık’ın küresel bir AI güvenlik gözlemcisine ev sahipliği yapmasını istemek açısından konuşuyor. Ya da en azından, öğrenme algoritmalarının çıktılarının nasıl değerlendirileceğine ilişkin araştırmalara hakim olarak Birleşik Krallık’ın yapay zeka güvenliği tartışmasına sahip olmasını istiyor.
Üretken yapay zekadaki hızlı gelişmeler, bir dizi teknoloji devinin ve yapay zeka endüstrisi figürlerinin teknolojinin kontrolden çıkabileceği konusunda uyardığı kamuoyu açıklamalarıyla birleştiğinde, Downing Caddesi’nde hızlı bir strateji yeniden düşünmesine yol açmış gibi görünüyor.
Ayrıca, yapay zeka devlerinin son haftalarda Sunak’ın kulağına şahsen eğildiği, Başbakan ile OpenAI, DeepMind ve Anthropic’in CEO’ları arasında hükümetin yapay zeka konusundaki ruh halinin değişmesinden kısa bir süre önce gerçekleşen toplantılarla dikkat çekicidir.
Yapay zeka devlerinden oluşan bu üçlü, Birleşik Krallık’a modellerine gelişmiş erişim sağlama taahhütlerine bağlı kalırsa, ülkenin, algoritmik şeffaflığı zorunlu kılan herhangi bir yasal gözetim rejimi dönmeden önce de dahil olmak üzere, etkili değerlendirme ve denetim teknikleri geliştirmeye yönelik araştırmalara liderlik etme şansı vardır. (Avrupa Birliği’nin AI Yasası taslağının örneğin 2026’ya kadar yasal olarak yürürlüğe girmesi beklenmiyor; ancak AB’nin Dijital Hizmetler Yasası zaten yürürlükte ve teknoloji devlerinden şimdiden bir miktar algoritmik şeffaflık gerektiriyor).
Aynı zamanda, Birleşik Krallık’ın, gelişmekte olan AI güvenlik çabalarının endüstri tarafından ele geçirilmesine karşı kendisini savunmasız hale getirme riski de var. Ve yapay zeka devleri, sistemlerine seçici erişim sağlayarak yapay zeka güvenlik araştırmaları etrafındaki sohbete hakim olursa, işletmeleri için geçerli olacak gelecekteki Birleşik Krallık yapay zeka kurallarını şekillendirmek için iyi bir konuma sahip olabilirler.
Yapay zeka teknoloji devlerinin, kendilerine yasal olarak bağlayıcı herhangi bir yapay zeka güvenlik çerçevesi uygulanmadan önce ticari teknolojilerinin güvenliğine yönelik kamu tarafından finanse edilen araştırmalara yakın katılımı, en azından yapay zeka güvenliğine nasıl bakıldığını ve hangi bileşenlerin, konuların ve konuların çerçeveleneceğini gösteriyor. temalara öncelik verilir (ve bu nedenle önemsizleştirilir). Ve ne tür bir araştırmanın gerçekleştiğini etkileyerek, ne kadar erişim sağladıklarına bağlı olabilir.
Bu arada yapay zeka etik uzmanları, “süper zeki” yapay zekaların insanlar için oluşturabileceği risklere ilişkin manşetlere konu olan korkuların, önyargı ve ayrımcılık, mahremiyetin kötüye kullanılması, telif hakkı ihlali ve çevresel kaynak dahil olmak üzere mevcut yapay zeka teknolojilerinin hâlihazırda ürettiği gerçek dünya zararlarına ilişkin tartışmaları bastırdığı konusunda uzun süredir uyarıyorlar. sömürü.
Bu nedenle Birleşik Krallık hükümeti, yapay zeka devlerinin katılımını bir PR darbesi olarak görse de, yapay zeka zirvesi ve daha geniş yapay zeka güvenliği çabaları sağlam ve güvenilir sonuçlar verecekse, bağımsız araştırmacıların, sivil toplum gruplarının ve gruplarının katılımını sağlamalıdır. orantısız bir şekilde otomasyondan zarar görme riskiyle karşı karşıya, yalnızca “parlak yapay zeka şirketleri” ile yerel akademisyenler arasındaki ortaklık planını ilan etmekle kalmıyor – verilen akademik araştırma zaten genellikle teknoloji devlerinin finansmanına bağımlıdır.