Üretken yapay zekanın sahip olduğu her şeyi değiştirme potansiyeli. Yeni ürünleri, şirketleri, endüstrileri ve hatta ekonomileri bilgilendirebilir. Ancak onu “geleneksel” yapay zekadan farklı ve daha iyi yapan şey aynı zamanda onu tehlikeli de yapabilir.

Eşsiz oluşturma yeteneği, tamamen yeni bir dizi güvenlik ve gizlilik endişesi yarattı.

İşletmeler birdenbire kendilerine yeni sorular sormak zorunda kalıyor: Eğitim verilerinin haklarına sahip miyim? Modele mi? Çıkışlara mı? Sistemin kendisinin gelecekte yaratılacak veriler üzerinde hakları var mı? Bu sistemdeki haklar nasıl korunur? Üretken yapay zeka kullanan bir modelde veri gizliliğini nasıl yönetirim? Liste devam ediyor.

Pek çok işletmenin hafife alınması şaşırtıcı değil. Bariz güvenlik ve gizlilik açıkları, mevcut Band-Aid çözümlerine güvenme konusundaki tereddütle birleştiğinde, birçok kişiyi bu araçları tamamen yasaklamaya itti. Ama umut var.

Veri güvenliğine yeni bir yaklaşım olan ve kullanım sırasında verileri koruyan ve kod bütünlüğünü sağlayan gizli bilgi işlem, büyük dil modellerinin (LLM’ler) daha karmaşık ve ciddi güvenlik endişelerine yanıttır. Kuruluşların, güvenlikten ödün vermeden üretici yapay zekanın tüm gücünü benimsemelerine yardımcı olmaya hazır. Açıklamadan önce, üretken yapay zekayı neyin benzersiz bir şekilde savunmasız hale getirdiğine bir göz atalım.

Üretken yapay zeka, tüm bir şirketin verilerini, hatta bilgi açısından zengin bir alt kümesini, anında yepyeni fikirler sağlayan sorgulanabilir bir akıllı modele alma kapasitesine sahiptir. Bunun çok büyük bir çekiciliği var, ancak aynı zamanda kuruluşların kendi özel verileri üzerinde kontrol sahibi olmalarını ve değişen yasal gerekliliklere uyum sağlamalarını son derece zorlaştırıyor.

Eğitim verilerinin ve modellerinin korunması birinci öncelik olmalıdır; veritabanlarındaki alanları veya bir formdaki satırları şifrelemek artık yeterli değil.

Yeterli veri güvenliği ve güven denetimi olmaksızın bu bilgi yoğunluğu ve müteakip üretken sonuçlar, üretici yapay zekayı kötüye kullanım, hırsızlık ve yasa dışı kullanım için yanlışlıkla silah haline getirebilir.

Gerçekten de çalışanlar, LLM’lere gizli iş belgelerini, müşteri verilerini, kaynak kodunu ve diğer düzenlemeye tabi bilgileri giderek daha fazla besliyor. Bu modeller kısmen yeni girdiler üzerinde eğitildiğinden, bu durum bir ihlal durumunda büyük fikri mülkiyet sızıntılarına yol açabilir. Modellerin kendileri tehlikeye girerse, bir şirketin yasal veya sözleşme gereği korumakla yükümlü olduğu herhangi bir içerik de sızdırılabilir. En kötü senaryoda, bir modelin ve verilerinin çalınması, bir rakibin veya ulus-devlet aktörünün her şeyi kopyalamasına ve bu verileri çalmasına olanak tanır.

Bunlar yüksek bahislerdir. Gartner yakın zamanda bulundu kuruluşların %41’inin bir yapay zeka gizlilik ihlali veya güvenlik olayı yaşadığını ve yarısından fazlasının, bir dahili tarafça veri güvenliği ihlalinin sonucu olduğunu. Üretken yapay zekanın ortaya çıkışı, bu sayıları büyütmek zorunda.

Ayrı olarak, kuruluşların üretken yapay zekaya yatırım yaptıklarında gelişen gizlilik düzenlemelerine de ayak uydurmaları gerekir. Sektörler genelinde, veri gerekliliklerine uyumlu kalmaya yönelik derin bir sorumluluk ve teşvik vardır. Örneğin sağlık hizmetlerinde yapay zeka destekli kişiselleştirilmiş tıp, konu hasta sonuçlarını ve genel verimliliği iyileştirmeye geldiğinde büyük bir potansiyele sahiptir. Ancak sağlayıcıların ve araştırmacıların, uyumlu olmaya devam ederken büyük miktarlarda hassas hasta verilerine erişmesi ve bunlarla çalışması gerekecek ve bu da yeni bir ikilem ortaya çıkaracaktır.

Bu zorlukların ve kaçınılmaz olarak ortaya çıkacak diğer sorunların üstesinden gelmek için üretken yapay zekanın yeni bir güvenlik temeline ihtiyacı var. Eğitim verilerinin ve modellerinin korunması birinci öncelik olmalıdır; veritabanlarındaki alanları veya bir formdaki satırları şifrelemek artık yeterli değil.

Üretken yapay zeka sonuçlarının önemli kararlar için kullanıldığı senaryolarda, kodun ve verilerin bütünlüğünün ve sağladığı güvenin kanıtı, hem uyumluluk hem de potansiyel olarak yasal sorumluluk yönetimi için kesinlikle kritik olacaktır. Tüm hesaplama ve çalıştığı durum için hava geçirmez koruma sağlamanın bir yolu olmalıdır.

“Gizli” üretken yapay zekanın ortaya çıkışı

Gizli bilgi işlem, başka türlü üstesinden gelinemez bir sorun gibi görünen sorunlardan basit ama son derece güçlü bir çıkış yolu sunar. Gizli bilgi işlem ile veriler ve IP, altyapı sahiplerinden tamamen izole edilir ve yalnızca güvenilir CPU’larda çalışan güvenilir uygulamalar tarafından erişilebilir hale getirilir. Veri gizliliği, yürütme sırasında bile şifreleme yoluyla sağlanır.

Veri güvenliği ve gizlilik, bulut bilgi işlemin temel özellikleri haline gelir; öyle ki, kötü niyetli bir saldırgan altyapı verilerini ihlal etse bile, IP ve kod bu kötü aktör tarafından tamamen görünmez olur. Bu, güvenlik, gizlilik ve saldırı risklerini azaltan üretken yapay zeka için mükemmeldir.

Gizli bilgi işlem, güvenlik kurallarını değiştiren bir unsur olarak giderek daha fazla ilgi görüyor. Her büyük bulut sağlayıcısı ve çip üreticisi buna yatırım yapıyor. Azure’daki liderler, AWS ve GCP’nin tümü etkinliğini ilan ediyor. Şimdi, en kararlı bulut uzantılarını bile dönüştüren aynı teknoloji, üretken yapay zekanın güvenli bir şekilde ilerlemesine yardımcı olan çözüm olabilir. Liderler onu ciddiye almaya başlamalı ve derin etkilerini anlamalıdır.

Gizli bilgi işlem sayesinde kuruluşlar, üretici yapay zeka modellerinin yalnızca kullanmayı amaçladıkları veriler üzerinde öğrendiğine ve başka hiçbir şey öğrenmediğine dair güvence elde eder. Bulut genelinde güvenilir kaynaklardan oluşan bir ağda özel veri kümeleriyle eğitim, tam kontrol ve gönül rahatlığı sağlar. Girdi veya çıktı olsun, tüm bilgiler tamamen korunur ve bir şirketin kendi dört duvarı arasında kalır.



genel-24