Araştırmacılar, ASCII sanatıyla AI sohbet robotlarını jailbreak yaptı – ArtPrompt, kötü amaçlı sorguların kilidini açmak için güvenlik önlemlerini atlıyor
Washington ve Chicago merkezli araştırmacılar, büyük dil modellerinde (LLM’ler) yerleşik güvenlik önlemlerini aşmanın yeni bir yolu olan ArtPrompt’u geliştirdi. Araştırma makalesine göre ArtPrompt: Hizalanmış LLM’lere Yönelik ASCII Sanat Tabanlı Jailbreak…