OpenAI, Cambridge Üniversitesi, Harvard Üniversitesi ve Toronto Üniversitesi’nden araştırmacılar “keşif amaçlı” teklifte bulundu AI çiplerinin ve donanımının nasıl düzenleneceğine dair fikirlerve güvenlik politikalarının gelişmiş yapay zekanın kötüye kullanımını nasıl önleyebileceği.

Öneriler, gelişmiş yapay zeka sistemlerinin ve bunlara güç veren çiplerin geliştirilmesini ve kullanımını ölçmek ve denetlemek için yollar sağlıyor. Politika uygulama önerileri, sistemlerin performansının sınırlandırılmasını ve sahte çipleri uzaktan devre dışı bırakabilecek güvenlik özelliklerinin uygulanmasını içerir.

Araştırmacılar, “Son derece yetenekli yapay zeka sistemlerini eğitmek şu anda binlerce yapay zeka çipinin biriktirilmesini ve düzenlenmesini gerektiriyor” diye yazdı. “[I]Eğer bu sistemler potansiyel olarak tehlikeliyse, o zaman bu birikmiş bilgi işlem gücünün sınırlandırılması, potansiyel olarak tehlikeli yapay zeka sistemlerinin üretimini sınırlamaya hizmet edebilir.”

Insight 64’ün baş analisti Nathan Brookwood, hükümetlerin büyük ölçüde yapay zeka politikası için yazılıma odaklandığını ve makalenin tartışmanın donanım tarafını kapsayan bir tamamlayıcı makale olduğunu söylüyor.

Ancak sektörün yapay zekanın performansını etkileyen hiçbir güvenlik özelliğini hoş karşılamayacağı konusunda uyarıyor. Yapay zekayı donanım yoluyla güvenli hale getirmek “asil bir istek, ancak bunu yapanlardan hiçbirini göremiyorum. Cin lambadan çıktı ve onu geri getirmede iyi şanslar” diyor.

Kümeler Arasındaki Bağlantıları Azaltma

Araştırmacıların önerdiği tekliflerden biri, yapay zeka modellerinin kullanabileceği bilgi işlem işleme kapasitesini sınırlandıracak bir üst sınırdır. Buradaki fikir, yapay zeka sistemlerinin kötüye kullanımını tespit edebilecek ve çip kullanımını kesip sınırlandırabilecek güvenlik önlemlerini uygulamaya koymaktır.

Spesifik olarak, bellek ve çip kümeleri arasındaki bant genişliğini sınırlamaya yönelik hedefli bir yaklaşım öneriyorlar. Araştırmacılar, daha kolay alternatif olan çiplere erişimin kesilmesinin ideal olmadığını, çünkü genel yapay zeka performansını etkileyeceğini yazdı.

Makalede, bu tür güvenlik korkuluklarını uygulamanın yolları veya yapay zeka sistemlerinin kötüye kullanımının nasıl tespit edilebileceği önerilmedi.

Araştırmacılar, “Harici iletişim için en uygun bant genişliği sınırını belirlemek, daha fazla araştırmayı hak eden bir alandır” diye yazdı.

Büyük ölçekli yapay zeka sistemleri muazzam ağ bant genişliği gerektirir ve Microsoft’un Eagle ve Nvidia’nın Eos’u gibi yapay zeka sistemleri de bu sistemler arasında yer alır. dünyanın en hızlı 10 süper bilgisayarı. Ağ trafiğini analiz edebilen ve yönlendiricileri ve anahtarları yeniden yapılandırabilen P4 programlama dilini destekleyen cihazlar için ağ performansını sınırlamanın yolları mevcuttur.

Ancak Brookwood, çip üreticilerinden çipleri ve ağları yavaşlatabilecek yapay zeka güvenlik mekanizmalarını uygulamalarını istemenizde iyi şanslar olduğunu söylüyor.

“Arm, Intel ve AMD, rekabetçi olabilmek için üretebilecekleri en hızlı, en kötü çipleri üretmekle meşgul. Nasıl yavaşlayabileceğinizi bilmiyorum” diyor.

Uzak Olasılıklar Bazı Riskler Taşır

Araştırmacılar ayrıca Intel’in en yeni sunucu çiplerine yerleştirdiği bir özellik olan çiplerin uzaktan devre dışı bırakılmasını da önerdi. İsteğe Bağlı özelliği, Intel müşterilerinin AI uzantıları gibi çip üzerindeki özellikleri açıp kapatmasına olanak tanıyan bir abonelik hizmetidir. Tesla’da ısıtmalı koltuklar.

Araştırmacılar ayrıca çiplerin yalnızca yetkili tarafların kriptografik olarak imzalanmış dijital sertifikalar aracılığıyla AI sistemlerine erişmesine izin verdiği bir doğrulama planı da önerdiler. Ürün yazılımı, yetkili kullanıcılar ve uygulamalar hakkında güncellemelerle değiştirilebilecek yönergeler sağlayabilir.

Araştırmacılar bunun nasıl yapılacağına dair teknik öneriler sunmasa da fikir, gizli bilişimin çiplerdeki uygulamaları nasıl güvence altına aldığına benziyor. Yetkili kullanıcıları onaylama. Intel Ve AMD Çiplerinde gizli bilgi işlem var ancak gelişen teknoloji için henüz erken.

Politikaların uzaktan uygulanmasının da riskleri vardır. Araştırmacılar, “Uzaktan yaptırım mekanizmaları önemli dezavantajlara sahiptir ve yalnızca yapay zekadan beklenen zararın aşırı yüksek olması durumunda garanti altına alınabilir” diye yazdı.

Brookwood da aynı fikirde.

“Yapabilseniz bile, bunun peşine düşecek kötü adamlar olacak. İyi adamlara yapay kısıtlamalar koymak etkisiz olacak” diyor.



siber-1