Güney Kore’nin Seul kentinde başlayacak yapay zeka güvenlik zirvesi öncesinde bu hafta daha sonraev sahibi Birleşik Krallık bu alandaki çabalarını genişletiyor. AI platformlarındaki riskleri değerlendirme ve ele alma iddialı hedefiyle Kasım 2023’te kurulan Birleşik Krallık’taki bir kurum olan AI Güvenlik Enstitüsü, San Francisco’da ikinci bir yer açacağını söyledi.

Buradaki fikir, OpenAI, Anthropic, Google ve Meta’nın yanı sıra temel yapay zeka teknolojisinin inşa edildiği Bay Area’nın bulunduğu, şu anda yapay zeka gelişiminin merkez üssü olan yere yaklaşmaktır.

Temel modeller, üretken yapay zeka hizmetlerinin ve diğer uygulamaların yapı taşlarıdır ve ilginçtir ki, Birleşik Krallık, ABD ile iki ülkenin yapay zeka güvenliği girişimleri konusunda işbirliği yapmasına yönelik bir Mutabakat Zaptı imzalamış olsa da, Birleşik Krallık hâlâ bir yapay zeka oluşturmaya yatırım yapmayı seçiyor. Sorunun üstesinden gelmek için ABD’de doğrudan varlığı.

Birleşik Krallık bilim, inovasyon ve teknolojiden sorumlu dışişleri bakanı Michelle Donelan, TechCrunch ile yaptığı röportajda, “İnsanların San Francisco’da sahada bulunması, onlara bu yapay zeka şirketlerinin çoğunun genel merkezine erişim sağlayacak” dedi. “Bazılarının burada Birleşik Krallık’ta üsleri var, ancak orada da bir üs sahibi olmanın, ek bir yetenek havuzuna erişmenin ve daha fazla işbirliği içinde çalışabilmenin ve el ele tutuşmanın çok yararlı olacağını düşünüyoruz. ABD ile.”

Bunun bir nedeni, Birleşik Krallık açısından bu merkez üssüne daha yakın olmanın yalnızca neyin inşa edildiğini anlamak açısından yararlı olması değil, aynı zamanda Birleşik Krallık’a bu firmalar nezdinde daha fazla görünürlük sağlamasıdır; yapay zeka ve teknolojinin genel olarak görüldüğü göz önüne alındığında bu önemlidir. İngiltere’yi ekonomik büyüme ve yatırım için büyük bir fırsat olarak görüyoruz.

OpenAI’de Superalignment ekibiyle ilgili yaşanan en son drama göz önüne alındığında, orada bir varlık oluşturmak için özellikle tam zamanında bir an gibi geliyor.

Kasım 2023’te faaliyete geçen Yapay Zeka Güvenlik Enstitüsü şu anda nispeten mütevazı bir olay. Yapay zeka modelleri geliştiren şirketlere yapılan milyarlarca dolarlık yatırım ve dolayısıyla onların teknolojilerini almak için kendi ekonomik motivasyonları göz önüne alındığında, bugün organizasyonda sadece 32 kişi çalışıyor; yapay zeka teknolojisinin Goliath’ının gerçek bir David’i. kapıdan çıkıp ödeme yapan kullanıcıların eline geçiyor.

Yapay Zeka Güvenlik Enstitüsü’nün en dikkate değer gelişmelerinden biri, temel yapay zeka modellerinin güvenliğini test etmeye yönelik ilk araç seti olan Inspect’in bu ayın başlarında piyasaya sürülmesiydi.

Donelan bugün bu sürümden “birinci aşama” çalışması olarak bahsetti. Karşılaştırmalı modellerin güncellenmesinin zor olduğu kanıtlanmış olmakla kalmadı, aynı zamanda katılım şimdilik büyük ölçüde isteğe bağlı ve tutarsız bir düzenlemedir. Birleşik Krallık’taki bir düzenleyici kurumdan üst düzey bir kaynağın belirttiği gibi, şirketlerin bu noktada modellerini incelemeye tabi tutma konusunda herhangi bir yasal yükümlülüğü yok; ve her şirket, modellerin piyasaya sürülmeden önce incelenmesine istekli değildir. Bu, riskin tespit edilebildiği durumlarda atın çoktan kaçmış olabileceği anlamına gelebilir.

Donelan, Yapay Zeka Güvenlik Enstitüsü’nün hâlâ yapay zeka şirketleriyle onları değerlendirmek için en iyi şekilde nasıl iletişime geçileceğini geliştirdiğini söyledi. “Değerlendirme sürecimiz başlı başına yeni gelişen bir bilimdir” dedi. “Yani her değerlendirmede süreci geliştireceğiz ve daha da ustalaştıracağız.”

Donelan, Seul’deki hedeflerden birinin Inspect’i zirvede bir araya gelen düzenleyicilere tanıtmak ve onların da bunu benimsemelerini sağlamak olacağını söyledi.

“Artık bir değerlendirme sistemimiz var. İkinci aşamanın aynı zamanda yapay zekayı toplumun tamamında güvenli hale getirmekle ilgili olması gerekiyor” dedi.

Donelan, uzun vadede İngiltere’nin daha fazla yapay zeka mevzuatı oluşturacağına inanıyor, ancak Başbakan Rishi Sunak’ın konu hakkında söylediklerini tekrarlayarak, yapay zeka risklerinin kapsamını daha iyi anlayana kadar bunu yapmaya direnecek.

Enstitü tarafından yayınlanan son uluslararası AI güvenlik raporunun öncelikle bugüne kadarki araştırmaların kapsamlı bir resmini elde etmeye odaklandığını belirterek, “Düzgün bir şekilde kavrama ve tam bir anlayışa sahip olmadan yasa çıkarmaya inanmıyoruz” dedi. büyük boşlukların eksik olduğunu ve küresel olarak daha fazla araştırmayı teşvik etmemiz ve teşvik etmemiz gerektiğini düşünüyoruz.

“Ayrıca Birleşik Krallık’ta yasalaşma yaklaşık bir yıl sürüyor. Ve mevzuata başladığımızda yeni başlamış olsaydık, [organizing] Yapay Zeka Güvenliği Zirvesi [held in November last year]şu anda hâlâ yasa çıkarıyor olurduk ve aslında bunun için gösterecek hiçbir şeyimiz olmazdı.”

Ian Hogarth, şöyle konuştu: “Enstitü’nün ilk gününden bu yana, yapay zeka güvenliğine uluslararası bir yaklaşım benimsemenin, araştırmaları paylaşmanın ve modelleri test etmek ve sınır yapay zekanın risklerini tahmin etmek için diğer ülkelerle işbirliği içinde çalışmanın önemi konusunda net olduk” dedi, Ian Hogarth. AI Güvenlik Enstitüsü. “Bugün, bu gündemi daha da ilerletmemize olanak tanıyan çok önemli bir anı işaret ediyor ve operasyonlarımızı, Londra’daki personelimizin en başından beri getirdiği inanılmaz uzmanlığa katkıda bulunarak, teknolojik yeteneklerle dolu bir alanda ölçeklendirmekten gurur duyuyoruz.”



genel-24