Üretken yapay zeka (GenAI), hızla birçok kurumsal BT stratejisinin odak noktası haline gelen dönüştürücü bir teknolojidir. Bu çabanın bir parçası olarak güvenlik ekipleri, kuruluşta GenAI kullanımını güvence altına almak için en iyi uygulamaları belirlemek, geliştirmek ve uygulamak için çalışıyor. Bu sadece GenAI’yi hesaba katan dahili BT güvenlik uygulamalarının gözden geçirilmesini değil, aynı zamanda ne olduğuna dair güçlü bir anlayış gerektirir. GenAI sağlayıcılarının oynadığı rol Güvenli kurumsal kullanımın desteklenmesinde. En iyi uygulamalar Bu alandaki sorular sürekli olarak gelişmektedir ancak kurumsal güvenlik ekiplerinin konuşmayı başlatmak için sorması gereken dört temel soru vardır.

Verilerim Gizli Kalacak mı?

GenAI sağlayıcıları açıkça belgelenmiş gizlilik politikalarına sahip olmalıdır. İdeal durumda, müşterilerin bilgilerinin kontrolünü ellerinde tutmaları ve bu bilgileri temel modelleri eğitmek için kullanmamaları veya açık izinleri olmadan diğer müşterilerle paylaşmamaları gerekir.

GenAI Tarafından Oluşturulan İçeriğe Güvenebilir miyim?

İnsanlar gibi GenAI da bazen bazı şeyleri yanlış anlayabilir. Ancak mükemmellik beklenemezken, şeffaflık ve hesap verebilirlik beklenmelidir. Bu, üç yolla gerçekleştirilebilir: Doğruluğu teşvik etmek için yetkili veri kaynaklarını kullanın, şeffaflığı korumak için muhakeme ve kaynaklara ilişkin görünürlük sağlayın ve sürekli iyileştirmeyi desteklemek için kullanıcı geri bildirimi için bir mekanizma sağlayın. Bu şekilde sağlayıcılar, araçların oluşturduğu içeriğin güvenilirliğinin korunmasına yardımcı olabilir.

Güvenli, Sorumlu Bir Kullanım Ortamını Korumamıza Yardımcı Olur musunuz?

Kurumsal güvenlik ekiplerinin, kuruluşlarında GenAI’nın güvenli ve sorumlu kullanımını sağlama yükümlülüğü vardır. Yapay zeka sağlayıcıları çabalarını çeşitli şekillerde destekleyebilmelidir.

Örneğin, endişe verici alanlardan biri kullanıcının teknolojiye aşırı güvenmesidir. GenAI, gerçek işçilerin yerine geçmeyi değil, işçilere günlük görevlerinde yardımcı olmayı amaçlıyor. Bu nedenle kullanıcılar, yapay zeka tarafından kendilerine sunulan bilgiler hakkında eleştirel düşünmeye teşvik edilmelidir. Sağlayıcılar, kaynaklardan gözle görülür şekilde alıntı yaparak ve dikkatli kullanımı güçlendiren dikkatle düşünülmüş bir dil kullanarak, doğru miktarda kullanıcı incelemesinin desteklenmesine yardımcı olabilir.

Belki daha az yaygın olan bir diğer risk ise içerideki kişiler tarafından düşmanca suiistimaldir. Buna, GenAI’yi tehlikeli kod oluşturmak gibi zararlı eylemlere dahil etme girişimleri de dahildir. Yapay zeka sağlayıcıları, sistem tasarımlarına güvenlik protokolleri dahil ederek ve GenAI’nın yapabilecekleri ve yapamayacakları konusunda net sınırlar koyarak bu tür risklerin azaltılmasına yardımcı olabilir.

Bu GenAI Teknolojisi Güvenlik Göz önünde bulundurularak mı Tasarlandı?

Diğer kurumsal yazılım türleri gibi GenAI teknolojisi de güvenlik göz önünde bulundurularak tasarlanmalı ve geliştirilmelidir; teknoloji sağlayıcıları da güvenlik geliştirme uygulamalarını belgelemeli ve paylaşmalıdır. Ayrıca güvenlik geliştirme yaşam döngüleri, GenAI tarafından sunulan yeni tehdit vektörlerini hesaba katacak şekilde uyarlanmalıdır. Bu, yapay zeka ve makine öğrenimine özgü tehditleri ele alacak şekilde tehdit modelleme gereksinimlerinin güncellenmesi ve kullanıcı tarafından sağlanan istemlerin katı girdi doğrulaması ve sterilize edilmesi gibi eylemleri içerir.

Yapay zekaya duyarlı kırmızı ekip oluşturma aynı zamanda sağlayıcıların istismar edilebilir güvenlik açıklarını, potansiyel olarak zararlı içerik üretimini ve buna benzer diğer sorunları aramasına olanak tanıyan güçlü bir güvenlik geliştirmesi de olabilir. Kırmızı ekip oluşturmanın son derece uyarlanabilir olma avantajı vardır ve ürünün piyasaya sürülmesinden önce ve sonra kullanılabilir; bu, GenAI gibi hızla gelişen bir teknolojinin güvenliğinin korunmasında önemli bir avantajdır.

Ortak sorumluluk

Bu sorular, kurumsal güvenlik ekiplerinin, GenAI sağlayıcılarının dört temel koruma alanındaki çabaları hakkında hayati bir anlayış kazanmasına yardımcı olabilir: veri gizliliği ve mülkiyeti, şeffaflık ve hesap verebilirlik, kullanıcı rehberliği ve politikası ve güvenli tasarım ve geliştirme.

Bunlar mükemmel bir başlangıç ​​noktası olsa da, güvenli yapay zeka hususlarına ilişkin anlayışımızı daha da genişletecek olan GenAI’nın güvenli ve sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamaya yardımcı olacak bir dizi umut verici endüstri düzeyinde girişim de hazır durumda. Ancak bir şey açık: GenAI teknolojisinin önde gelen sağlayıcıları, bu ortak sorumluluktaki rollerini anlıyor ve bunu sağlamaya hazırlar. çabaları hakkında bilgi Güvenli, emniyetli ve güvenilir yapay zekayı geliştirmek için. Öyleyse devam edin ve bu konuşmayı bugün başlatın.

– Devamını oku Microsoft Security’den İş Ortağı Perspektifleri



siber-1