Beyaz Saray bu hafta yeni eylemleri duyurdu siber güvenlik için önemli etkileri olacak sorumlu AI inovasyonunu teşvik etmek.

Eylemler, ekonomik etkisi ve ayrımcılık potansiyeli de dahil olmak üzere yapay zeka etrafındaki endişe yelpazesini ele almayı amaçlamaktadır. Ancak yönetimin attığı adımlar yapay zekanın siber risklerini vurguladı.

En önemlisi, Beyaz Saray ülkenin önde gelen geliştiricilerini, Ağustos ayında DEF CON 31’de yapılacak olan AI Köyünde bir etkinlik için organize etti ve bu etkinlikte algoritmaları halk tarafından sıkı bir incelemeye tabi tutulacak.

Rain Capital başkanı Chenxi Wang, “Farkındalık uyandırıyor” diyor. “Temelde ‘Bakın, yapay zekanın güvenilirliği artık bir ulusal güvenlik sorunu’ diyorlar.”

Siber Güvenli Yapay Zekaya Yönelik Eylemler

Biden-Harris Beyaz Saray, önceki tüm yönetimlerden daha fazla, AI hakkında konuştu ve AI’yı içerecek politikalar tasarladı.

Ekim ” getirdiYapay Zeka Haklar Bildirgesi Taslağı,” Ve ilişkili yürütme eylemleri. Ocak ayında, Ulusal Bilim Vakfı, bir Ulusal Yapay Zeka Araştırma Kaynağı, şimdi meyvelerini veriyor. Mart ayında, Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) AI Risk Yönetimi Çerçevesi.

Yeni AI politikaları, diğer tüm risklerin yanı sıra, AI hakkında düşünürken siber güvenliğin de akılda tutulması gerektiğini açıkça ortaya koyuyor.

“Yönetim ayrıca, özellikle siber güvenlik, biyogüvenlik ve güvenlik gibi kritik alanlarda, yapay zekanın gündeme getirdiği ulusal güvenlik endişelerini ele almak için aktif olarak çalışıyor.” Beyaz Saray duyurusu okundu. “Bu, önde gelen AI şirketlerinin AI modellerinin ve ağlarının korunması da dahil olmak üzere en iyi uygulamalara erişmesini sağlamak için ulusal güvenlik topluluğundan devlet siber güvenlik uzmanlarının desteğini almayı içerir.”

Tabii ki, söylemek başka, yapmak başka. Yapay zekadaki siber riski azaltmak için Ulusal Bilim Vakfı, diğer alanların yanı sıra yapay zeka siber güvenliği alanında araştırma sağlayacak yedi yeni Ulusal Yapay Zeka Araştırma Enstitüsüne fon sağlayacak.

DEF CON AI Köy Etkinliği

Yönetim, ülkenin önde gelen bazı AI şirketlerinin DEF CON 31’de “AI sistemlerinin sorumlu açıklama ilkeleriyle tutarlı bir kamu değerlendirmesine katılma” konusunda “bağımsız taahhüdü” olduğunu söyledi. Katılanlar arasında Anthropic, Google, Hugging Face, Microsoft yer alıyor. , Nvidia, OpenAI ve Kararlılık AI.

Amaç, meşhur kara kutuya ışık tutmak, ırk ayrımcılığına, siber güvenlik riskine ve daha fazlasına olanak sağlayan algoritmik sapmaları ortaya çıkarmak olacak. Beyaz Saray, “Bu, bu modellerin binlerce topluluk ortağı ve AI uzmanı tarafından kapsamlı bir şekilde değerlendirilmesine olanak tanıyacak” dedi. “Yapay zeka modellerinin hükümetten veya onları geliştiren şirketlerden bağımsız olarak test edilmesi, etkili değerlendirmelerinde önemli bir bileşendir.”

Wang, “Tüm bu kamu girişimleri – DEF CON, araştırma merkezleri vb. – gerçekten soruna dikkat çekiyor” diyor. “Yapay zekayı nasıl değerlendireceğimizin ve sonunda bu modellerin sonuçlarına güvenip güvenmeyeceğimizin gerçekten farkında olmamız gerekiyor.”

Yaklaşan Yapay Zeka Tehditleri

Orta halli bilgisayar korsanları şimdiden yapay zekaya saldırdı. Kötü amaçlı yazılım yayan, otomatik olarak oluşturulmuş YouTube videoları, ChatGPT’yi taklit eden kimlik avı saldırıları, ChatGPT aracılığıyla geliştirilen kötü amaçlı yazılımve daha pek çok yaratıcı yöntem.

Ancak yapay zeka ile ilgili asıl sorun çok daha büyük ve güvenli bir İnternet’in geleceğini varoluşsal olarak daha fazla tehdit ediyor. Uzmanlara göre yapay zeka, bir gün bilgisayar korsanlarının – hatta teknik beceriye sahip olmayanların – daha önce görülmemiş ölçeklerde kötü amaçlı yazılım yaymasına olanak sağlayabilir. Kötülerin tasarlamasını sağlayacak daha ikna edici kimlik avı yemleri, daha gelişmiş, uyarlanabilir kötü amaçlı yazılımeşit tüm saldırı zincirleri. Hem siviller hem de kuruluşlar için günlük yaşamın her alanına daha da entegre hale geldikçe, iyi huylu yapay zeka sistemlerimiz siber saldırı yüzeyini genişletin zaten şişkin halinin ötesinde.

Zarar verme potansiyeli de burada bitmiyor.

Wang, “Bence en büyük tehdit yanlış bilgidir. Modelinizi eğitirken hangi verileri topladığınıza ve modelin ne kadar sağlam olduğuna bağlı olarak, karar vermede yanlış bilgilerin ciddi şekilde kullanılmasına ve diğer kötü sonuçlara yol açabilir” diyor. uzun süreli etkileri olabilecek sonuçlar.”

Hükümet bu sorunu çözmeye başlayabilir mi?

Wang buna inanıyor. Yönetim ve Bütçe Ofisi’nin (OMB) özel etkisine atıfta bulunarak, “Bir girişimin arkasına para ve sözleşme değerleri koyduğunuz anda, dişleri vardır” diyor. 4 Mayıs tarihli haberlerin bir parçası olarak OMB, yapay zekanın hükümet içinde kullanımına ilişkin politika kılavuzu taslağı yayınlayacağını açıkladı.

“OMB politikalarını açıkladığında,” diye devam ediyor, “federal hükümete satış yapan, ürünlerinde veya teknolojilerinde yapay zeka olabilecek herkes bu politikalara uymak zorunda kalacak. Ve sonra bu, endüstri genelinde düzenli bir uygulama haline gelecek. .”

“Yani,” diye bitiriyor, “çok umutluyum.”



siber-1