Yapay zeka araçları, web kullanıcıları ve şirketler için yeni yetenekler sunarken, aynı zamanda belirli siber suç türlerini ve kötü amaçlı faaliyetleri gerçekleştirme potansiyeline de sahiptir. çok daha erişilebilir ve güçlü. Konuya ilişkin örnek: Geçen hafta, büyük dil modellerinin aslında kötü amaçlı arka kapılara dönüştürülebildiğini ve bunun gibi kullanıcılar için oldukça fazla kargaşaya neden olabileceğini gösteren yeni bir araştırma yayınlandı.
Araştırma, popüler teknolojilerin arkasındaki yapay zeka girişimi Anthropic tarafından yayınlandı. sohbet robotu Claudemali destekçileri arasında yer alan Amazon ve Google. Antropik araştırmacılar makalelerinde yapay zeka algoritmalarının etkili bir şekilde “uyuyan hücrelere” dönüştürülebileceğini savunuyorlar. Bu hücreler zararsız görünebilir ancak belirli şekillerde tetiklenmeleri durumunda, kod tabanına savunmasız kod eklemek gibi kötü niyetli davranışlarda bulunacak şekilde programlanabilirler. Örnek olarak çalışma, bir Yüksek Lisans’ın 2023 yılı boyunca normal şekilde davranmaya programlandığı, ancak 2024 geldiğinde kötü niyetli “uyuyan” kişinin aniden etkinleşip kötü amaçlı kod üretmeye başladığı bir senaryoyu hayal ediyor. Bu tür programlar aynı zamanda belirli, spesifik yönlendirmelere tabi tutulduklarında kötü davranacak şekilde de tasarlanabilir. araştırma öneriyor.
Yapay zeka programlarının hale geldiği gerçeği göz önüne alındığında yazılım geliştiricileri arasında son derece popüler Geçtiğimiz yıl boyunca, bu çalışmanın sonuçları oldukça kaygı verici görünmektedir. Bir kodlayıcının, geliştirme görevlerinde kendisine yardımcı olmak için popüler, açık kaynaklı bir algoritmayı alıp, bir noktada bu algoritmanın kötü amaçlı hale gelip ürünlerini daha az güvenli ve daha hacklenebilir hale getirmeye başlayacağı bir senaryoyu hayal etmek kolaydır.
Çalışma şunu belirtiyor:
Kod güvenlik açığı ekleme arka kapımızın gerçek bir potansiyel riskin minimum geçerli örneğini sağladığına inanıyoruz… ani artış yeterliydi.
Kısacası: Normal bir yazılım programı gibi, yapay zeka modelleri de kötü niyetli davranmak üzere “arka kapıyla kapatılabilir”. Bu “arka kapı açma” birçok farklı biçim alabilir ve şüphelenmeyen kullanıcı için pek çok kargaşa yaratabilir.
Bir yapay zeka şirketinin, kendi teknolojisinin nasıl bu kadar korkunç bir şekilde kötüye kullanılabileceğini gösteren bir araştırma yayınlaması biraz garip görünüyorsa, bu tür “zehirlenmeye” karşı en savunmasız yapay zeka modellerinin açık kaynak, yani bir tür yapay zeka olacağı dikkate alınmalıdır. çevrimiçi olarak kolayca paylaşılabilen ve uyarlanabilen esnek, tescilli olmayan kod. Özellikle, Antropik kapalı kaynaktır. Aynı zamanda kurucu üyelerden biridir. Sınır Modeli ForumuÜrünleri çoğunlukla kapalı kaynak olan ve üyeleri yapay zeka geliştirmede artan “güvenlik” düzenlemelerini savunan yapay zeka şirketlerinden oluşan bir konsorsiyum.
Frontier’ın güvenlik önerileri ise şu şekilde oldu: sanık Bu, büyük şirketlerden oluşan küçük bir zümre için faydalı bir ortam yaratırken, daha küçük, daha az kaynaklara sahip firmalar için çetin düzenleyici engeller oluşturmak amacıyla tasarlanmış “rekabet karşıtı” bir plandan biraz daha fazlasıdır.