Artık üretken yapay zekanın etkisini görmezden gelmek mümkün değil. Bazıları bunu iş dünyası için mucizevi bir tedavi olarak görüyor ve düşük değerli editoryal görevlerin geçmişte kalacağı yeni bir çağın habercisi.

Diğerleri için ise bu, lojistikten hayat kurtaran yeni ilaçların geliştirilmesine kadar tüm faaliyet sektörlerinde devrim yaratacak yeni bir teknolojik dalganın başlangıcıdır.

Ancak bu teknolojilerin yarattığı heyecan, özellikle gizlilik ve veri güvenliği açısından pek çok endişeyi de beraberinde getiriyor.

Bu yılın başlarında Samsung, üretken yapay zekanın kullanımını yasakladı. Aslında, ChatGPT’nin çalışanlar tarafından işlerinde kendilerine yardımcı olmak için kullanılmasının ardından gizli bilgiler kazara kamuya sızdırılmıştı.

Koreli elektronik devi bu rotayı izleyen tek kişi değil. Bir dizi şirket ve hatta ülke üretken yapay zekayı yasakladı. Ve nedenini anlamak kolaydır.

Üretken yapay zekanın ortaya çıkardığı güvenlik sorunları

ChatGPT ve diğer LLM’ler (Büyük Dil Modelleri) gibi araçların kullanımı genellikle kontrolsüz gölge BT’ye, yani BT Departmanının mülkiyeti veya kontrolü dışındaki cihazlara, yazılımlara ve hizmetlere kapıyı açar. İster yapay zeka deneyi yapan bir çalışan olsun, isterse şirket liderliğindeki bir girişim olsun, özel veriler açığa çıktıktan sonra geri dönüş yoktur.

Buna göre KPMG tarafından yakın zamanda yapılan bir araştırma 300 iş lideriyle, üretken yapay zekanın kuruluşları üzerinde devasa bir etki yaratacağını öngörüyorlar. Ancak çoğunluk, hemen evlat edinilmeye hazır olmadıklarını söylüyor. Bu çekince bir dizi kaygıyla açıklanıyor; bunların arasında siber güvenlik (%81) ve veri gizliliği (%78) listenin başında yer alıyor.

Bu nedenle, bir yandan inovasyonu hızlandırmak için yapay zekanın gücünden yararlanmak, diğer yandan veri gizliliği düzenlemelerine uymak arasında bir denge kurulması gerekiyor.

Bunu güvenle başarmak için en iyi yaklaşım, şirketin fikri mülkiyetinden veya müşterilerinin verilerinden ödün verme riski olmadan, en yeni üretken yapay zeka araçlarının güvenli bir şekilde kullanılmasına olanak tanıyan Sıfır Güven güvenlik kontrollerini uygulamaktır.

“Sıfır Güven” yaklaşımına ihtiyaç var mı?

Sıfır Güven güvenliği, kurumsal ağ kaynaklarına erişmeye çalışan her kişinin ve cihazın kimliğinin sıkı bir şekilde doğrulanmasını gerektiren bir metodolojidir. Geleneksel “müstahkem kale” yaklaşımının aksine, Sıfır Güven mimarisi hiçbir şeye ve hiç kimseye güvenmemekten ibarettir.

İlk adım, yapay zeka hizmetlerini kaç kişinin ve hangi amaçla kullandığını anlamayı amaçlıyor. Daha sonra sistem yöneticilerine, acil olarak durdurulması gerektiğinde bu aktiviteyi denetleyebilecek ve kontrol edebilecek imkanlar verilmelidir. Bir veri kaybı önleme (DLP) hizmetinin benimsenmesi, hassas verilerin şüphelenmeyen çalışanlar tarafından yapay zekalarla paylaşılmasını önlemek için ek koruma sağlanmasına yardımcı olur. Daha ayrıntılı kurallar, bazı kullanıcıların hassas veriler içeren projelerle deneme yapmasına bile olanak tanırken ekiplerin ve ortak çalışanların çoğunluğu için daha katı erişim ve paylaşım sınırları oluşturabilir.

Özetlemek gerekirse, kuruluşlar yapay zekayı tüm biçimleriyle kullanmak istiyorsa güvenliklerini iyileştirmeli ve Sıfır Güven yaklaşımını benimsemelidir. Bu nedenle, üretken yapay zekanın benimsenmesi, henüz bunu benimsememiş kuruluşlar için Sıfır Güvene dayalı bir güvenlik modeline geçişi hızlandırmak için bir fırsattır.

Bununla birlikte, bu güvenlik ve gizlilik konularını vurgulamak önemli olsa da, muazzam bir gelişme potansiyeli sunan bir teknolojiye ilişkin verimsiz sansasyon yaratmak için bundan faydalanmamalıyız.

Cep telefonlarından bulut bilişime kadar her önemli teknolojik gelişmenin yeni güvenlik tehditlerini de beraberinde getirdiğini unutmayalım. İyi haber şu ki, BT sektörü her seferinde güvenliği, protokolleri ve süreçleri güçlendirerek proaktif bir şekilde yanıt verdi. Yapay zeka için de durum aynı.



genel-15