Büyük ölçüde ChatGPT’nin teşvik ettiği üretken yapay zekaya artan ilgi, kuruluşları bu teknolojiyi nasıl kullanmaları gerektiğini düşünmeye itiyor. Ve bazıları şimdi dalmaya başlıyor.

CEO’ların yaklaşık yarısı (%43), şirketlerinin stratejik kararlar almak için halihazırda üretken yapay zeka kullandığını söylüyor. %36’sı bu teknolojiyi operasyonel kararları kolaylaştırmak için kullanıyor. Bir araştırmaya göre, bunların yarısı bunu ürün ve hizmetlerine entegre ediyor. IBM çalışması bu hafta yayınlandı. Sonuçlar, 30 küresel pazarda 3.000 CEO ile yapılan görüşmelere dayanmaktadır.

Ancak CEO’lar yapay zekanın önyargı, etik ve güvenlik gibi potansiyel risklerinin farkındadır. %57’si veri güvenliği konusunda endişe duyduklarını ve %48’i verilerin doğruluğu veya yanlılığından endişe duyduklarını söylüyor. Çalışma ayrıca, %76’sının iş ekosistemlerinde etkili siber güvenliğin tutarlı standartlar ve yönetişim gerektirdiğine inandığını ortaya koyuyor.

AI araçlarını denetleme sorunu

%56’sı, tutarlı yapay zeka standartlarının olmaması nedeniyle en az bir büyük yatırımı engellediklerini söylüyor. Yanıt verenlerin yalnızca %55’i, şirketlerinin paydaşların istediği doğru ve kapsamlı veri güvenliği ve gizlilik bilgilerini sağlayabileceğinden emin.

Bu güven eksikliği, şirketlerin tehditleri nasıl yönetmesi gerektiği konusunda yeniden düşünmeyi gerektiriyor.

Gartner analisti Avivah Litan, daha iyi sosyal mühendislik sağlamanın yanı sıra, üretken yapay zeka araçlarının bilgisayar korsanlarının kötü amaçlı kod oluşturmasını da kolaylaştırdığını söylüyor. postalamak AI ile ilişkili çeşitli risklerle uğraşmak.

Litan, üretken yapay zeka tedarikçilerinin, modellerini kötü niyetli siber güvenlik isteklerini reddetmek üzere eğittiklerini iddia etseler de, müşterilere uygulanan güvenlik kontrollerini etkili bir şekilde denetlemek için araçlar sağlamadıklarını belirtiyor.

İş dünyasında AI kullanımını kontrol etmek için araçlar kurun

Çalışanlar da üretken yapay zeka sohbet robotlarıyla etkileşim kurarken hassas ve özel verileri açığa çıkarabilir. Analist, “Bu uygulamalar, kullanıcı girişi tarafından yakalanan bilgileri süresiz olarak depolayabilir ve hatta bilgileri diğer modelleri eğitmek için kullanabilir, bu da gizliliği daha da tehlikeye atar” diyor. Ve eklemek için: “Bu bilgi yanlış ellere de geçebilir.”

Bu nedenle Litan, kuruluşları ortaya çıkan riskleri yönetmek için bir strateji oluşturmaya ve üretken yapay zeka temel modellerine ev sahipliği yapan kullanıcılar ve şirketler arasındaki veri ve süreç akışlarını yönetmek için yeni araçlar kullanmaya teşvik ediyor.

Şirketler, ChatGPT gibi araçların yetkisiz kullanımını da izlemelidir, diyor. Örneğin, güvenlik duvarları kullanıcı erişimini engelleyebilirken, güvenlik bilgileri ve olay yönetim sistemleri, şirket tarafından uygulanan politikaların ihlalleri için olay günlüklerini izleyebilir. Yetkisiz uygulama programlama arabirimi (API) çağrılarını izlemek için güvenlik web ağ geçitleri de kullanılabilir.

Çoğu kuruluş hala temel bilgiden yoksundur.

Imperva’nın teknik direktörü Terry Ray’e göre, her şeyden önce önemli olan temel unsurlardır. Güvenlik çözümleri yayıncısının artık kendi teknolojisine uygulamanın yollarını belirlemek için üretken yapay zekanın gelişimini izlemekten sorumlu bir ekibi var. Bu takım bir yıl önce yoktu. Ancak Ray, üretken yapay zekanın hızlı yükselişine dikkat çekerek, Imperva’nın makine öğrenimini uzun süredir kullandığını söyledi.

İzleme ekibi ayrıca, ChatGPT gibi uygulamaların çalışanlar tarafından kullanımını denetleyerek bu araçların uygun şekilde ve şirket politikaları dahilinde kullanıldığından emin olur.

Ray, üretici yapay zekanın Imperva’nın ürünlerine nasıl dahil edilmesi gerektiğini belirlemek için henüz çok erken olduğunu ve satıcının yıllık yıl sonu hackathon’unda bazı olasılıkların ortaya çıkabileceğini sözlerine ekledi.

Üretken yapay zeka, kuruluşların saldırıya uğrama şeklini değiştirmedi

Şimdiye kadar, üretici yapay zekanın mevcudiyetinin, kuruluşların saldırıya uğrama biçiminde önemli bir değişikliğe yol açmadığını belirtmek de önemlidir. Bilgisayar korsanları, bilinen güvenlik açıklarına karşı henüz yama uygulanmamış sistemleri her zaman ararlar.

Bilgisayar korsanlarının üretici yapay zekayı nasıl kullanabilecekleri sorulduğunda Ray, bunun kodlama hatalarını veya güvenlik açıklarını incelemek ve belirlemek için diğer araçlarla birlikte konuşlandırılabileceğini öne sürüyor.

Özellikle API’ler, günümüzde yaygın olarak kullanıldıkları ve genellikle güvenlik açıkları içerdikleri için birincil hedeflerdir. Örneğin, bozuk nesne düzeyinde yetkilendirme (BOLA), tarafından tanımlanan en önemli API güvenlik tehditlerinden biri Açık Dünya Çapında Uygulama Güvenliği Projesi. BOLA olaylarında, saldırganlar, kullanıcıların kimliğinin doğrulanması ve verilere erişmek için API isteklerini başarıyla elde etme konusundaki zayıflıklardan yararlanır.

Ray, bu tür gözden kaçırmaların kuruluşların her bir API üzerinden akan verileri anlama ihtiyacının altını çizdiğini söylüyor. Çoğu şirketin, kuruluş içinde nerede ve kaç API’nin çalıştığını bile bilmediğini belirtiyor.

API’lerin büyük tehlikesi

Muhtemelen kuruluşta tanıtılan her uygulama için bir API vardır ve bu sayı, kuruluşlara tıbbi ve finansal bilgiler gibi veri paylaşımı için getirilen gereksinimlerle birlikte hala artmaktadır. Yetkili, bazı hükümetlerin bu risklerin farkında olduğunu ve API’lerin gerekli güvenlik önlemleriyle dağıtılmasını sağlamak için düzenlemeler getirdiğini de sözlerine ekledi.

Veri güvenliği söz konusu olduğunda, şirketlerin temel ilkelere uyulmasını sağlamaları gerekir. Veri kaybının etkisi çoğu işletme için önemlidir. Verilerin koruyucuları olarak şirketlerin, verileri korumak için ne yapacaklarını bilmeleri gerekir.

Başka bir çalışmada IBM 3.000 veri yöneticisiyle anket yapıldı ve bunların %61’i şirketlerinin verilerinin güvende ve korumalı olduğuna inanıyor. Veri yönetimiyle ilgili zorluklar sorulduğunda, %47’si güvenilirlikten, %36’sı veri sahipliği konusunda netlik eksikliğinden ve %33’ü veri silolarından veya veri entegrasyonu eksikliğinden bahsediyor.

temel bilgilere sahip değilsin

Üretken yapay zekanın artan popülaritesi, dikkatleri verilere yöneltmiş olabilir, ancak bu aynı zamanda şirketlerin önce temelleri doğru bir şekilde öğrenmesi gerektiğinin altını çiziyor. Birçoğunun henüz ilk adımları atmadığını söyleyen Ray, çoğu şirketin tipik olarak veri ambarlarının ve veri göllerinin yalnızca üçte birini izlediğine dikkat çekti.

“Güvenlik görünürlükle ilgilidir. Bilgisayar korsanları en az direnç gösteren yolu seçecektir” dedi.

Geçen ay yayınlanan bir Gigamon araştırması, ihlallerin %31’inin, ya güvenliği ihlal edilmiş veriler karanlık ağda göründüğünde ya da dosyalara erişilemez hale geldiğinde ya da kullanıcılar uygulama performansında yavaşlama yaşadığında, olaydan sonra tespit edildiğini gösteriyor.

Bu rakamlar, yanıt verenlerin %94’ünün güvenlik araçlarının ve süreçlerinin BT altyapılarına ilişkin görünürlük ve içgörü sağladığını söylemesinden kaynaklanmaktadır. %90 kadarı son 18 ayda bir güvenlik ihlali yaşadıklarını söyledi.

Şifrelenmiş verilerde görünürlük eksikliği

En büyük endişeleri sorulduğunda, yanıt verenlerin %56’sı beklenmedik gri alanlara işaret etti. Yaklaşık %70’i şifrelenmiş verileri göremediklerini kabul ederken, %35’i kapsayıcılar hakkında sınırlı içgörüye sahip olduklarını söyledi. Şirketlerin yarısı, en hassas verilerinin nerede saklandığını ve nasıl korunduğunu bilmiyor.

Gigamon’un CTO’su Ian Farquhar, “Bu sonuçlar, tehlikeleri CISO’lar tarafından açıkça yanlış anlaşılan, şirket içi sistemler ile bulut arasındaki görünürlükte kritik boşluklar eğilimini vurguluyor” dedi.

“Birçoğu bu kör noktaları bir tehdit olarak görmüyor… Dünya genelindeki CISO’ların %50’sinden fazlasının, beklenmedik gri alanların istismar edilebileceği düşüncesiyle geceleri uyumadığı düşünüldüğünde, kritik görüş eksikliklerini gidermek için alınan önlemlerin gerekli olduğu görülüyor. yeterli değiller.”


Kaynak : “ZDNet.com”



genel-15