İngiltere ve ABD, diğer 16 ülkeden uluslararası ortaklarla birlikte, güvenli yapay zeka (AI) sistemlerinin geliştirilmesine yönelik yeni yönergeler yayınladı.
ABD Siber Güvenlik ve Altyapı Güvenlik Ajansı (CISA) “Yaklaşım, müşteriler için güvenlik sonuçlarının sahiplenilmesini önceliklendiriyor, radikal şeffaflığı ve hesap verebilirliği benimsiyor ve güvenli tasarımın birinci öncelik olduğu organizasyonel yapılar kuruyor.” söz konusu.
Ulusal Siber Güvenlik Merkezi (NCSC), amacın yapay zekanın siber güvenlik seviyelerini artırmak ve teknolojinin güvenli bir şekilde tasarlanmasını, geliştirilmesini ve konuşlandırılmasını sağlamaya yardımcı olduğunu söylüyor. katma.
Yönergeler aynı zamanda ABD hükümetinin ilkelerine de dayanıyor. devam ediyor çabalar Yeni araçların kamuya açıklanmadan önce yeterince test edilmesini sağlayarak yapay zekanın oluşturduğu riskleri yönetmek, önyargı ve ayrımcılık gibi toplumsal zararları ve mahremiyet kaygılarını ele almak ve tüketicilerin yapay zekayı tanımlaması için sağlam yöntemler oluşturmak için korumalar mevcut. üretilen malzeme.
Taahhütler aynı zamanda şirketlerin, hızlı bir şekilde bulunup düzeltilebilmeleri için bir hata ödül sistemi aracılığıyla AI sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt etmelerini gerektiriyor.
en son yönergeler NCSC, “Geliştiricilerin siber güvenliğin hem AI sistem güvenliğinin önemli bir önkoşulu hem de ‘tasarım gereği güvenli’ yaklaşımı olarak bilinen, başından itibaren geliştirme sürecinin ayrılmaz bir parçası olmasını sağlamalarına yardımcı olun” dedi.
Bu, yapay zeka sistemi geliştirme yaşam döngüsü içindeki tüm önemli alanları kapsayan, güvenli tasarım, güvenli geliştirme, güvenli dağıtım ve güvenli operasyon ve bakımı kapsar ve kuruluşların sistemlerine yönelik tehditleri modellemesinin yanı sıra tedarik zincirlerini ve altyapılarını korumasını gerektirir.
Ajanslar, amacın aynı zamanda bir modelin sınıflandırmasını etkilemek, kullanıcıların yetkisiz eylemler gerçekleştirmesine izin vermek ve hassas bilgileri çıkarmak da dahil olmak üzere çeşitli şekillerde istenmeyen davranışlara neden olmayı amaçlayan yapay zeka ve makine öğrenimi (ML) sistemlerini hedef alan düşmanca saldırılarla da mücadele etmek olduğunu belirtti.
“Bu etkileri elde etmenin birçok yolu var, örneğin hızlı enjeksiyon saldırıları NCSC, “büyük dil modeli (LLM) alanında veya eğitim verilerinin veya kullanıcı geri bildirimlerinin kasıtlı olarak bozulması (“veri zehirlenmesi” olarak bilinir) “dedi.