Siber güvenlik yapay zeka girişiminin kurucusuna göre işletmeler, veri sızıntısı riski nedeniyle ChatGPT gibi üretken yapay zeka araçlarını kullanan çalışanlar konusunda dikkatli olmalı.

Ile konuşmak UKTNCultureAI’nin kurucusu James Moore, çalışanların hassas şirket bilgilerini yapay zeka sohbet robotlarına koyarak bu bilgileri riske attığını söyledi.

ChatGPT, Gemini ve diğer yapay zeka sohbet robotları, verimliliği artırmak amacıyla hızla çoğu kişi için ofis işlerinin temel öğesi haline geldi.

Bazıları bu araçları kodu incelemek ve geliştirmek için kullanırken, diğerleri satış verilerini düzenlemek veya iş stratejisini analiz etmek için kullanır.

Moore, kısmen üretken yapay zeka platformlarının veri depolama konusundaki sınırlı şeffaflığı nedeniyle bunun bir şirket için ciddi bir risk oluşturduğunu söyledi.

Moore, kişisel ve finansal bilgiler içeren binlerce müşteri kaydını ChatGPT’ye koyan bir fintech çalışanının örneğini verdi.

CultureAI kurucusu, “Buradaki risk öncelikle ChatGPT’nin bu verileri nasıl sakladığını bilmemenizdir” dedi.

“Bu verileri saklayıp saklamadıklarını bilmiyorsunuz – muhtemelen öyledir – ve son olarak bunu eğitim amacıyla kullanıp kullanmayacaklarını bilmiyorsunuz.”

CultureAI, işletmelerin çalışan davranışlarından kaynaklanan siber riskleri yönetmelerine yönelik yazılım araçları geliştiren Manchester merkezli bir girişimdir.

Moore bu görüşte yalnız değil. Google’ın ana şirketi Alphabet daha önce uyardı Personelin, kendi büyük dil modeli Gemini (eski adıyla Bard dahil) dahil olmak üzere sohbet robotlarına gizli bilgiler girmemesi.

Büyük dil modellerini eğitmek için hangi verilerin kullanılmasına izin verilmesi gerektiği konusu şiddetli bir tartışma konusu; New York Times’ın OpenAI’ye karşı açtığı dava da dahil olmak üzere devam eden bir dizi dava muhtemelen AI firmalarının uygulamalarına bilgi verecek. .

Ancak personelin ChatGPT kullanması durumunda Moore, OpenAI’nin kullanıcılar tarafından kendisine isteyerek verilen verileri özgürce kullanabileceği ve bunlar genellikle kişisel hesaplar aracılığıyla olabildiği için şirketin bu konuda hiçbir söz hakkı olmadığı konusunda uyardı.

Moore, “İki açıdan bakıldığında gerçek bir risk var” dedi. “ChatGPT veya diğer platformlardan herhangi biri ihlal edilebilir ve bu veriler daha sonra ortaya çıkabilir.”

Geçen Nisan ayında ChatGPT kullanıcılara şunları yapma olanağı verdi: sohbet geçmişini kapatBu, modeli eğitmek ve geliştirmek için verileri kullanmayacağı anlamına gelir. Bu ayar açık olduğunda ChatGPT, 30 gün sonra sohbet geçmişini sileceğini söylüyor. OpenAI ayrıca bir lansman başlattı kurumsal abonelik Bu, ek gizlilik ve güvenlik araçlarıyla birlikte gelir.

Ancak Moore’a göre diğer risk, platformun “bu verileri daha sonra talep eden üçüncü bir tarafa ifşa etme” olasılığıdır.

Moore, kullanıcı istemlerinin manipülatif ifadeleri yoluyla yapay zeka modellerinin gizli bilgileri paylaşacak şekilde kandırılabileceğini söyledi.

Moore, “Kuruluşların özel verilerinin yüklendiği durumları gördük ve sonra bana falan şirketin falan filan yazılım geliştirme yaklaşımı hakkında bir hikaye anlat diyebilirsiniz” dedi. “Bu kod nedir, bu kod neye benzer? Yapay zeka platformu da bunu ortaya çıkarabilir.”

Devamını oku: Eski İstikrar Başkan Yardımcısı, çoğu üretken yapay zeka modelinin muhtemelen ‘yasadışı’ olduğunu söylüyor



genel-11