Güvenlik profesyonelleri genel olarak üretken yapay zekanın (GenAI) kuruluşlarındaki potansiyel rolü konusunda hevesli olsa da, aynı zamanda bu yeni araçların kendi ortamlarında yaratabileceği etki konusunda da endişeliler. Dark Reading’in kuruluşta GenAI kullanımına ilişkin araştırması, bu teknolojiye her şeyin dahil edilmesinin potansiyel tuzakları konusunda yüksek derecede farkındalık ve endişeyi ortaya koyuyor.

Ankete katılanların neredeyse dörtte üçü ChatGPT ve diğer GenAI teknolojilerinin oluşturduğu güvenlik ve emniyet riskleri hakkında bazı endişelerini dile getiriyor. Yaklaşık aynı sayıda çalışan, tam yetkili olmasalar bile, çalışanların halka açık GenAI teknolojilerini iş amacıyla kullandığına inanıyor.

Katılımcıların çoğunluğu (%86) kuruluşların teknolojiye olan güveni sürdürmek için uygun risk yönetimi araçlarına sahip olması gerektiğini söylüyor. Bununla birlikte, riskleri azaltmak için hangi stratejilerin kullanılacağına dair sorular var; bunlar yapay zeka yönetişimi (%43), veri yönergelerini ve politikasını tanımlamak (%42), istenmeyen sonuçları belirlemek için GenAI tarafından gönderilen yanıtları gözden geçirmek (%42) veya bir Yapay zeka uygulama güvenliği programı (%40). Küçük bir çoğunluk (%57) sorumlu yapay zeka uygulamalarına odaklanan farkındalık eğitimlerinin gerekli olduğunu söylüyor.

Ankete katılanlardan biri şöyle diyor: “Keşke bu kafası karışan gençlerin riski anlayabilseydi!”

Katılımcıların %30’u, GenAI araçlarını dağıtma ve yönetme sorumluluğunun kuruluşlarında BT kapsamına girdiğini söylerken, %17’si bunun siber güvenliğin bir parçası olduğunu ve %25’i özel bir yapay zeka grubuna sahip olduğunu söylüyor. Öyle olsa bile, GenAI için güvenlik ve risk yönetiminin nihai sorumluluğu, katılımcıların %27’si için siber güvenliğin, %21’i ise özel yapay zeka grubunun sorumluluğundadır.

Kuruluşlarının GenAI güvenliği ve risk yönetimi konusunda karşılaştığı en büyük zorluklar sorulduğunda net bir çoğunluk olmasa da ankete katılanların ilk dört yanıtı şunlar oldu: Mevzuata uygunluğun GenAI için nasıl uygulandığına dair belirsizlik (%47), üçüncü olarak şeffaflığın olmaması. parti üretken yapay zeka araçları (%46), GenAI yönergeleri ve politikaları konusunda fikir birliği yok (%43) ve veri yönetişimi (%39).

Karanlık Okuma okuyucularının ne düşündüğü hakkında daha fazla bilgi edinin Kuruluştaki GenAI.



siber-1