AI yazarları ChatGPT’nin Kasım 2022’deki lansmanından bu yana başlattığı patlamanın ardından son aylarda sohbet robotları büyük başarı elde etti.
En son enkarnasyonu şimdi üzerimizde – çok modlu GPT-4 model, görüntüler gibi ortamları işleyebilen – büyük dil modelleri (LLM’ler) çalışan verimliliğini artırıyor ve yaratıcılığı kullanıyor, ancak risksiz değiller.
Bu amaçla, Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) genel bir uyarı yayınladı. Blog yazısı (yeni sekmede açılır), LLM’lerden siber güvenlikle ilgili bazı riskleri açığa çıkarmak.
ChatGPT tehlikeleri
Teknik direktörler ve yazarlar David C ve Paul J işe bazı efsaneleri çürüterek başlıyor: örneğin, ChatGPT ve benzeri araçların son kullanıcılar tarafından kendilerine beslenen bilgileri öğrenip depolayacağına dair artan bir endişe. Bu tür modellerin yaratıcıları tarafından kontrollü bir ortamda yürütülen eğitim ile bu doğru değil.
Bununla birlikte, sorgularla ilgili bilgiler ilgili şirketlere geri gönderilir, bu da ChatGPT’nin arkasındaki firma olan OpenAI’nin, hizmetlerini iyileştirmek için kullanıcıların sorduğu soru türlerini belirleyebileceği anlamına gelir. Bu nedenle NCSC, kişisel veya gizli bilgilerin sohbet robotları da dahil olmak üzere çevrimiçi hiçbir yerde paylaşılmaması gerektiğini tavsiye eder.
Yazarlar, sıradan kullanıcıların alanlarının dışında, normal kapsamlarının ötesinde siber saldırılar gerçekleştirebilecek kötü niyetli aktörler tarafından kullanıldığını da not ederek, daha karmaşık saldırılara karşı artan bir risk altında olduğumuzu öne sürüyor.
Yapay zekaya ilgi artmaya devam ettikçe, en son teknolojiye dair şüphecilik de artıyor. Son zamanlarda, Bloomberg (yeni sekmede açılır) bankacılık devi JP Morgan’ın, harici yazılımları emanet etmek zorunda kalma korkusu nedeniyle personelin ChatGPT kullanımına kısıtlamalar getirdiğini bildirdi. Dünyanın dört bir yanındaki eğitim kurumları, akademik sahtekârlık eylemlerinde kullanılmasına da kısıtlamalar getirmiştir.