Samsung, ciddi bir güvenlik ihlalinin ardından çalışanlarının işyerinde ChatGPT ve diğer AI üretici araçlarını kullanmasını yasakladı.
Güney Koreli dev, şirket kaynak kodu da dahil olmak üzere çok gizli verilerin yakın zamanda bazı görevlerinde yardımcı olmak için ChatGPT kullanan çalışanlar tarafından çevrimiçi olarak sızdırılmasının ardından, personeline AI yazar araçlarının kullanımına sert önlemler aldığını söyledi.
Şirket, “güvenli bir ortam yaratma” hamlesinin, AI araçları tarafından kullanılan verilerin harici sunucularda saklanmasından ve Samsung gibi şirketlerin tam olarak neyin ortaya çıktığını, nerede depolandığını, nasıl olduğunu görmesini zorlaştırdığı korkusuyla geldiğini söylüyor. güvenlidir ve nasıl silinir.
Samsung ChatGPT yasağı
“Genel Merkez, çalışanların üretkenliğini ve verimliliğini artırmak amacıyla üretken yapay zekayı güvenli bir şekilde kullanmak için güvenli bir ortam oluşturmak üzere güvenlik önlemlerini gözden geçiriyor.” Bloomberg (yeni sekmede açılır) bir dahili Samsung şirket notunun söylendiğini bildirdi. “Ancak, bu önlemler hazırlanana kadar, üretken AI kullanımını geçici olarak kısıtlıyoruz.”
Kısıtlamalar, Samsung şirket telefonu, tableti veya bilgisayarı kullanan herkes için geçerli olacak ve personelden ayrıca herhangi bir kişisel cihaz kullanarak hassas ticari bilgileri yüklememesi istenecek.
Samsung’un notunda, “Güvenlik yönergelerimize özenle uymanızı istiyoruz ve bunun yapılmaması, şirket bilgilerinin ihlali veya tehlikeye girmesiyle sonuçlanabilir ve bu da iş akdinin feshi de dahil olmak üzere disiplin cezasıyla sonuçlanabilir.”
Şirketin, bu yılın başlarında ChatGPT aracılığıyla hassas bilgileri sızdıran üç çalışan olayına maruz kaldığı bildirildi. platform.
Olaylara yanıt olarak, Samsung’un çalışanların dahili kullanımı için kendi şirket içi AI hizmetini geliştirdiği bildiriliyor – ancak bu, bilgi istemlerini 1024 bayt boyutunda sınırlıyor.