Araştırmacılar Jailbreak Yapay Zeka Modellerine Yönelik ‘Aldatıcı Zevk’ Yöntemini Ortaya Çıkardı
23 Ekim 2024Ravie LakshmananYapay Zeka / Güvenlik Açığı Siber güvenlik araştırmacıları, etkileşimli bir konuşma sırasında zararsız dil modellerinin arasına istenmeyen bir talimatı gizlice sızdırarak büyük dil modellerini (LLM’ler) jailbreak yapmak…