Microsoft’un sahip olduğu yeni bir araç koleksiyonu yayınladı ve şirketin üretken yapay zeka (genAI) Yardımcı Pilot asistanının bilgileri işleme şekliyle ilgili olarak ortaya çıkan güvenlik sorunlarını düzeltmeye yönelik bir kılavuz. Yani aracın bir kuruluşun dahili verilerini indekslemesi, AI asistanının, paylaşılmaması gerektiği halde hassas bilgileri paylaşmasına yol açabilir.
Müşteri şikayetlerine aşina bir Microsoft çalışanı şunları söylüyor: İşletme İçeriği: “Artık Joe Blow bir hesaba giriş yapıp Copilot’u başlattığında her şeyi görebiliyorlar. Joe Blow aniden CEO’nun e-postasını görebiliyor.”
İşletme İçeriği Bu davranışın birçok kuruluşun güvenlik nedeniyle Copilot’u kullanmayı ertelemesine neden olduğunu bildiriyor. Bir Microsoft sözcüsü yayına şöyle konuştu: “Yapay zekayla ilişkili veri yönetimi zorluklarının çoğu, yapay zekanın gelişinden kaynaklanmadı.”
Bunun yerine, sözcüye göre Copilot gibi yapay zeka araçları, şirketlerin dahili belgeleri ve diğer bilgileri nasıl yönetecekleri konusunda nasıl proaktif sorumluluk almaları gerektiğini vurguluyor.