İş dünyası üretken yapay zeka konusunda tutkulu. Ancak hoş olmayan sürprizlerden kaçınmak için, bunları konuşlandırmadan önce güvenliklerini düşünmek için zaman ayırmak daha iyidir.

Anssi bunu akılda tutarak yayınladı dün çeşitli tavsiyeler içeren bir rehber. Fikir? Tasarımcıların ve kullanıcıların bu araçların dağıtımlarını güvence altına almasına yardımcı olun.

Belge, üretken bir yapay zeka sisteminin farklı yapılandırmalarını ve saldırı senaryolarını listeliyor. Otuz civarında güvenlik önerisi sunuyor. Esas olarak metin veya bilgisayar kodu üretmeyi amaçlayan LLM (Büyük Dil Modeli) araçlarına odaklanır.

Yukarı akış ve üretim saldırıları

Üretken yapay zeka sistemlerini hedef alan bilgisayar saldırıları üç ana kategoriye ayrılır:

  • Manipülasyon saldırıları, bir üretim sistemine gönderilen kötü niyetli isteklere dayanır.
  • Enfeksiyon saldırıları, eğitim aşamasında bir yapay zeka sistemini hedef alır.
  • Son olarak, sızma saldırıları üretimdeki yapay zeka sisteminden bilgi çalmayı amaçlamaktadır.

Öngörülen saldırılar arasında, örneğin modeli eğitmek için kullanılan verilere erişimi olan bir üçüncü taraf, bu erişimi verileri “zehirlemek” için kullanabilir. Sistemi üretimde bir kez ele geçirmek için yeterlidir; örneğin, kötü amaçlı bir eylemi tetiklemek için belirli bir isteğe yanıt verecek şekilde eğitmek.

Ancak eğitim sırasında eğitim verilerine veya sisteme erişimi olmasa bile yapay zeka modelinin kullandığı diğer bileşenlere erişimi olan bir saldırgan risk oluşturabilir.

Rapor, bu saldırıların çeşitli olası etkilerini tanımlıyor. Örneğin, chatbot tipi hizmetleri halkın kullanımına sunan kuruluşun itibar riski. Bu bağlamda Microsoft’un chatbotu Tay ile yaşadığı talihsiz deneyimi hatırlıyoruz.

Ayrıca, üretken yapay zeka sistemlerine bağlı diğer iş uygulamalarına yönelik bir saldırının yanallaştırılmasından da bahsediliyor.

Her düzeyde dikkat

Her durumda Anssi, eğitim aşamasından önce yapay zekaya ilişkin bir risk analizi çalışması yapılmasını öneriyor. Amaç ? Yapay zekayla bağlantılı farklı unsurları ve kuruluşun verilerinin işlenmesinden sorumlu alt tarafları tanımlayın.

Ajans ayrıca yapay zekanın nihai uygulamalarına ilişkin belirli bir uyarının sürdürülmesi çağrısında bulunuyor ve “IS üzerinde kritik eylemler için yapay zeka sistemlerinin otomatik olarak kullanılmasına” karşı tavsiyede bulunuyor. »

Üretken yapay zeka araçları birçok yayıncı tarafından görevleri otomatikleştirmek için güçlü bir araç olarak görülüyorsa Anssi, tasarımcıları bu eylemlerde belirli bir dikkatliliğe ve insan kontrolüne sahip olmaya davet ediyor. Örneğin yapay zeka modelinin gerçekleştirdiği işlemlerin loglarının titizlikle tutulması. Ama aynı zamanda bunları özel bir teknik ortamda “titizlikle” bölümlere ayırarak.

Kılavuz son olarak Microsoft’un Copilot’u gibi Gen AI’yı temel alan kaynak kodu oluşturma araçlarına bir bölüm ayırıyor. Anssi burada da dikkatli olunması çağrısında bulunuyor ve yapay zeka tarafından oluşturulan kaynak kodunun sistematik olarak kontrol edilmesini ve en kritik uygulamalar için kullanımının sınırlandırılmasını öneriyor.



genel-15