Çalışanların ChatGPT yapay zeka modeline hassas bilgiler girebileceğine dair endişelerin ortasında, bir veri gizliliği sağlayıcısı, şirketlerin müşteri ve çalışan verilerini yanlışlıkla ifşa etme riskini azaltmayı amaçlayan bir düzeltme aracı başlattı.

Private AI’nin yeni PrivateGPT platformu, OpenAI’nin yüksek profilli sohbet botu ile entegre olarak 50’den fazla tür kişisel olarak tanımlanabilir bilgiler (PII) kullanıcılar ChatGPT istemlerine girerken gerçek zamanlı olarak.

PrivateGPT, sohbet sürecinin ortasında oturur ve ChatGPT’ye göndermeden önce sağlık verilerinden ve kredi kartı bilgilerinden iletişim verilerine, doğum tarihlerine ve Sosyal Güvenlik numaralarına kadar her şeyi kullanıcı istemlerinden çıkarır. PrivateGPT yaratıcısı Private AI tarafından bu hafta yapılan bir açıklamaya göre, ChatGPT yanıt verdiğinde, PrivateGPT, deneyimi kullanıcılar için daha sorunsuz hale getirmek için yanıt içindeki PII’yi yeniden dolduruyor.

Private AI’ın kurucu ortağı ve CEO’su Patricia Thaine, “Üretken yapay zeka, yalnızca kullanımı güvenli hale getirmek için doğru araçlar varsa, kuruluşlarımızda ve toplumlarımızda bir alana sahip olacaktır” dedi. Bir açıklamada. “Kişisel bilgileri üçüncü taraf kuruluşlarla paylaşarak, [companies] Bu verilerin nasıl depolandığı ve kullanıldığı üzerindeki kontrolü kaybederek kendilerini ciddi uyumluluk ihlalleri riskine sokarlar.”

Gizlilik Riskleri ve ChatGPT

Bir kullanıcı ChatGPT istemine her veri girdiğinde, bilgi, algoritmanın yeni neslini eğitmek için kullanılan hizmetin LLM veri kümesine alınır. Endişe, hizmet için uygun veri güvenliğinin olmaması durumunda bilgilerin daha sonraki bir tarihte alınabilmesidir.

“Yapay zekanın diğer sorgular için kaynak malzeme olarak tüm girdileri tüketmesi, bir şirketin verilerinin tam olarak nasıl ve nerede son bulacağına dair kara bir kara kutu oluşturuyor ve bugün çoğu şirketin kalbinde yer alan sıkı veri güvenliğini tamamen alt üst ediyor” uyarısında bulunuyor. Roy Akerman, Rezonate’in kurucu ortağı ve CEO’su.

Bu veri ifşası riski teorik değildir, not edilmelidir: Mart ayında OpenAI, kullanıcıların sohbet geçmişlerini yayınlayan hata, Reddit’te özel sohbetlerin ekran görüntüleri görünmeye başladıktan sonra.

OpenAI, kullanıcıları ChatGPT kullanırken seçici olmaları konusunda uyardı: “Geçmişinizden belirli istemleri silemiyoruz. Lütfen konuşmalarınızda hassas bilgileri paylaşmayın.” OpenAI’nin kullanım kılavuzu notlar.

ChatGPT söz konusu olduğunda, hizmet baş döndürücü bir oranda benimsense bile (şu anki dönüm noktasına ulaştı) çalışanlar hâlâ gizliliğin nasıl ele alınacağını öğreniyor. Rekor sürede 100 milyon kullanıcılansmandan sadece iki ay sonra).

Yakın tarihli bir raporda, veri güvenliği hizmeti Cyberhaven, müşteri şirketlerindeki 1,6 milyon çalışanın %4,2’sinden gizli bilgiler, müşteri verileri, kaynak kodu ve yasal düzenlemelere tabi bilgiler dahil olmak üzere hassas verilerin ChatGPT’ye girilmesine yönelik istekleri tespit etti ve engelledi.

Bu olgunun somut bir örneği olarak, ayın başlarında Samsung mühendislerinin ChatGPT’ye üç önemli sızıntı yaptığı ortaya çıktı: yarı iletken bir veri tabanından hatalı kaynak kodu, belirli Samsung ekipmanlarındaki kusurları belirleme kodu ve dahili bir tutanak. toplantı.

Akerman, “Yapay zeka dil modellerinin geniş çapta benimsenmesi, kod oluşturma ve analiz teslimini hızlandırmanın bir yolu olarak geniş çapta kabul görüyor” diyor. “Yine de veri sızıntısı çoğunlukla bu hızın, verimliliğin ve kalitenin bir yan ürünüdür. Dünya çapındaki geliştiriciler bu teknolojileri kullanmak konusunda endişelidir, ancak mühendislik yönetiminin yapay zekanın yapması ve yapmaması gerekenlere ilişkin rehberliği henüz uygulamaya konulmamıştır. veri gizliliğine saygı gösterilmesini ve sürdürülmesini sağlamak için kullanın.”



siber-1