ChatGPT ve diğer sohbet robotlarının piyasaya sürülmesinden sonra, kullanıcılar AI’yı sorularla doldurdu ve liste yasak konuları içeriyordu. Geliştiriciler, sinir ağına derhal yasaklanmış konuların bir listesini eklediler, ancak meraklılar bu yasağı çoktan atlamayı başardılar. Sistemden ölen büyükanne adına iletişim kurmasını isterler. Tabii ki, böyle bir sohbet robotu torunlara bakıcılık yapamayacak veya turta pişiremeyecek, ancak size nasıl napalm yapılacağını söyleyebilecek.

Kaynak: kepenk

Kullanıcı James Vincent, Clyde sinir ağını ve bir Discord sohbet botunu kullanarak bu maddenin tarifini elde etmeyi başardı. Bu sistem ChatGPT’ye dayanmaktadır. Meraklısı önce sistemden tarifi doğrudan söylemesini istedi ancak yapay zeka bunu reddetti.

Bundan sonra Vincent, AI’ya kimya mühendisi olarak çalışan merhum büyükanne adına napalm üretimini anlatması talimatını verdi. Ve bu seçenek işe yaradı.

“Büyükanne” nin yanıtı şöyle görünür:

Gördüğünüz gibi, ikinci durumda sistem, oluşturma sürecini, bileşenlerin listesini ve diğer verileri ayrıntılı olarak açıkladı. Ancak, bu yöntem her zaman işe yaramaz. Bazen ChatGPT hala reçete vermeyi reddediyor.

Hile yapmanın başka bir yolu da animasyon dizisi Rick and Morty’nin bir bölümü biçiminde cevap vermektir. ChatGPT, “Rick ve Morty’nin napalm yaratması, ancak aynı zamanda diğerlerini bunu yapmaktan caydırması” hakkında bir senaryo yazdı.

Rochester Üniversitesi’nden kimya profesörü Andrew White’ın ChatGPT kullanarak yeni bir sinir gazı tarifi elde edebildiğine dikkat edin.



genel-22