En büyük ve en etkili yapay zeka (YZ) şirketleri, üretken YZ’nin geliştirilmesi ve kullanımında güvenliği ön planda tutan bir yaklaşım belirlemek için güçlerini birleştiriyor.

CoSAI olarak da bilinen Güvenli Yapay Zeka Koalisyonu, yapay zekada yer alan riskleri azaltmak için araçlar sağlamayı amaçlamaktadır. Amaç, standartlaştırılmış bariyerler, güvenlik teknolojileri ve modellerin güvenli bir şekilde geliştirilmesi için araçlar yaratmaktır.

CoSAI yaptığı açıklamada, “İlk çalışma alanlarımız arasında yapay zeka ve yazılım tedarik zinciri güvenliği ile savunmacıları değişen siber ortama hazırlamak yer alıyor” dedi.

The ilk çabalar Koalisyonun kurucu üyelerinden Google’a göre, yapay zekaya erişim ve kullanımın etrafında güvenli bir balon ve denge ve denetim sistemleri oluşturmayı ve yapay zeka modellerini siber saldırılardan korumak için bir çerçeve oluşturmayı içeriyor. Google, OpenAI ve Anthropic en yaygın kullanılan büyük dil modellerine (LLM) sahip. Diğer üyeler arasında altyapı sağlayıcıları Microsoft, IBM, Intel, Nvidia ve PayPal yer alıyor.

“AI geliştiricilerinin, anın gereklerini karşılayan ve önümüzdeki fırsatları sorumlu bir şekilde yakalayan bir AI güvenliği çerçevesine ihtiyacı var ve son kullanıcılar da bunu hak ediyor. CoSAI bu yolculuğun bir sonraki adımı ve önümüzdeki aylarda daha fazla güncelleme bekleyebiliriz,” diye yazdı Google’ın güvenlik mühendisliği başkan yardımcısı Heather Adkins ve Google Cloud’un baş bilgi güvenliği sorumlusu Phil Venables.

Öncelikli Olarak Yapay Zeka Güvenliği

Yapay zeka güvenliği, ChatGPT’nin 2022’de piyasaya sürülmesinden bu yana bir dizi siber güvenlik endişesini gündeme getirdi. Bunlar arasında sistemlere sızmak için sosyal mühendisliğin kötüye kullanılması ve yanlış bilgi yaymak için deepfake videoların oluşturulması yer alıyor. Aynı zamanda, Trend Micro ve CrowdStrike gibi güvenlik şirketleri artık şirketlerin tehditleri ortadan kaldırmasına yardımcı olmak için yapay zekaya yöneliyor.

Gartner analisti Avivah Litan, yapay zekanın güvenliği, güveni ve şeffaflığının önemli olduğunu, çünkü sonuçların kuruluşları hatalı ve bazen zararlı eylemlere ve kararlara yönlendirebileceğini söylüyor.

Litan, “Yapay zeka, onu dizginleyecek bariyerler olmadan kendi başına çalışamaz; hatalar ve istisnalar vurgulanmalı ve araştırılmalıdır” diyor.

Özel verilerden daha doğru yanıtlar üreten eklentiler olan AI aracıları gibi teknolojilerle birlikte AI güvenlik sorunları katlanarak artabilir.

Litan, “En belirsiz istisnalar hariç tüm istisnaları otomatik olarak düzeltmek için doğru araçların mevcut olması gerekiyor” diyor.

ABD Başkanı Joe Biden, özel sektörü AI güvenliği ve etiğine öncelik vermeye davet etti. Endişeleri, AI’nın eşitsizliği yayma ve ulusal güvenliği tehlikeye atma potansiyeliyle ilgiliydi.

Temmuz 2023’te Başkan Biden, şu anda CoSAI’nin bir parçası olan büyük şirketlerden güvenlik standartları geliştirme, güvenlik test sonuçlarını paylaşma ve yapay zekanın biyolojik materyaller için kötüye kullanılmasını, dolandırıcılığı ve aldatmayı önleme taahhütlerini gerektiren bir yürütme emri yayınladı.

CoSAI, ortak standartlar ve en iyi uygulamaları geliştirmek amacıyla Frontier Model Forum, Partnership on AI, OpenSSF ve MLCommons gibi diğer kuruluşlarla birlikte çalışacak.

MLCommons bu hafta Dark Reading’e, bu yılın sonbaharında nefret söylemi, istismar, çocuk istismarı ve cinsel suçlarla ilgili yanıtlara göre LLM’leri derecelendirecek bir yapay zeka güvenlik kıyaslama paketi yayınlayacağını söyledi.

CoSAI, Linux Foundation gibi açık kaynaklı geliştirme projelerini yöneten OASIS Open tarafından yönetilecek. OASIS, XML standardı etrafındaki çalışmaları ve Microsoft Word’ün .doc dosya biçimine alternatif olan ODF dosya biçimiyle tanınıyor.



siber-1