Ne bilmek istiyorsun
- Bir göre yeni rapor CNBC tarafından Microsoft çalışanlarının ChatGPT’ye erişimi geçici olarak kısıtlandı.
- Microsoft, güvenlik ve gizlilik endişeleri nedeniyle erişimi kısıtladığını belirtti.
- Bir Microsoft sözcüsü, blokajın bir hata olduğunu ve şirketin LLM’ler için uç nokta kontrol sistemlerini test ederken meydana geldiğini belirtti.
- Microsoft, daha iyi güvenlik ve gizlilik sunan Bing Chat Enterprise ve ChatGPT Enterprise’ın kullanılmasını önerir.
Microsoft’un Çalışma Endeksi Raporu’na göre ankete katılan çalışanların %70’i, teknolojiyi benimsemeye ve sıradan görevleri yerine getirmek için onu iş akışlarına dahil etmeye hazır olduklarını belirtti.
Microsoft çalışanlarının, özellikle milyarlarca dolarlık bir yatırım yaparak OpenAI ile ortaklığını genişlettikten sonra, kuruluş içindeki bazı görevleri yerine getirmek için yapay zekayı kullandıkları açıktır. Ancak, bir CNBC’nin yeni raporu Microsoft çalışanlarının Perşembe günü ChatGPT’ye erişiminin kısa süreliğine kısıtlandığını belirtiyor.
Konuya aşina olan kişilere göre Microsoft, “güvenlik ve veri endişeleri” nedeniyle yapay zeka destekli araca erişimi kısa süreliğine kısıtlamaya karar verdi. Microsoft, konuyla ilgili şu açıklamayı yaptı:
“Microsoft’un OpenAI’ye yatırım yaptığı ve ChatGPT’nin uygunsuz kullanımı önlemek için yerleşik güvenlik önlemlerine sahip olduğu doğru olsa da, web sitesi yine de bir üçüncü taraf harici hizmetidir. Bu, gizlilik riskleri nedeniyle onu kullanırken dikkatli olmanız gerektiği anlamına gelir ve Bu, Midjourney veya Replika gibi diğer harici AI hizmetleri için de geçerli.”
Konuşurken CNBCMicrosoft, kısıtlanan ChatGPT erişiminin bir hata olduğunu belirtti. büyük dil modelleri üzerinde bir dizi test yürüttü.
Teknolojinin güvenliği ve mahremiyeti konusunda pek çok endişenin olduğu aşikar. Başkan Biden, bu endişelerin çoğunu ele alan bir Başkanlık Kararnamesi yayınladı, ancak üretken yapay zekanın kontrolden çıkmasını önlemeye yardımcı olacak korkuluklara ve ayrıntılı önlemlere hâlâ acil ihtiyaç var.
Bu haber, OpenAI’nin bir DDoS saldırısının neden olduğu ChatGPT kesintisini doğrulamasının ardından geldi. Kesinti, kullanıcıların sohbet robotunun yeteneklerinden tam olarak yararlanmasını engelledi ve bunun yerine onlara hata mesajları verdi.
Microsoft yapay zeka güvenlik durumunun zirvesinde
Haziran ayında bir siber güvenlik firması, son 12 ay içinde 100.000’den fazla ChatGPT kimlik bilgilerinin karanlık web pazarlarında alınıp satıldığını belirten bir rapor yayınladı. Güvenlik firması ayrıca, saldırganların bu kimlik bilgilerine erişim sağlamak için bilgi çalan kötü amaçlı yazılımlardan yararlandığını belirtti ve kullanıcılara, bilgisayar korsanlarını uzak tutmak için şifrelerini düzenli olarak değiştirmeyi düşünmelerini önerdi.
Başka bir rapor, bilgisayar korsanlarının ısındığını ve şüphelenmeyen kullanıcılara kötü niyetli saldırılar gerçekleştirmek için üretken yapay zeka da dahil olmak üzere karmaşık teknikler kullandıklarını belirtti. Bunu akılda tutarak, Microsoft’un yapay zeka destekli araçların kullanımını özellikle güvenlik ve gizlilik kaygıları nedeniyle kısıtlaması tamamen yanlış değil.
Yapay zeka güvenliği ve gizliliği hakkındaki düşünceleriniz neler? Yorumlarda bize bildirin.