Yapay zeka üzerine yeni bir çalışma ChatGPT ve Midjourney tarafından kullanılanlar gibi mevcut nesil ağlarda doğal bir sınırlama bulmuştur. Yapay zeka çıktıları (ChatGPT tarafından oluşturulan metin veya bir Kararlı Yayılma modeli tarafından oluşturulan görüntü çıktısı gibi) üzerinde eğitilen yapay zeka ağlarının, yapay zeka tarafından oluşturulan verilerle beş eğitim döngüsünden sonra “MAD” olma eğiliminde olduğu görülüyor. Yukarıdaki resimlerde görebileceğiniz gibi, sonuç, gerçeği yansıtmayan, garip bir şekilde mutasyona uğramış çıktılardır.

MAD – Model Otofaji Bozukluğunun kısaltması – çalışmaya katılan Rice ve Stanford Üniversitesi araştırmacıları tarafından yapay zeka modellerinin ve bunların çıktı kalitesinin yapay zeka tarafından üretilen veriler üzerinde tekrar tekrar eğitildiğinde nasıl çöktüğünü açıklamak için kullanılan kısaltmadır. Adından da anlaşılacağı gibi, model, efsanenin Ouroboros’undan farklı olarak, esasen “kendini yer”. Orijinal veri dağılımının kuyrukları (uçları) hakkındaki bilgileri kaybeder ve yılanın kendi kuyruğunu yemesi gibi, verilerin ortalama temsiliyle daha uyumlu sonuçlar vermeye başlar.

Daha fazla gör

Özünde, bir LLM’yi kendi (veya başkalarının) çıktılarına göre eğitmek, LLM’nin kendisini oluşturan veriler üzerinde bir yakınsama etkisi yaratır. Bu, bilim adamları ve araştırma ekibi üyesi Nicolas Papernot tarafından Twitter’da paylaşılan yukarıdaki grafikte kolayca görülebilir. Çan eğrisi – aykırı değerler, daha az yaygın öğeler.

Spektrumun kenarlarındaki (daha az varyasyona sahip olan ve daha az temsil edilen) veriler esasen kaybolur. Bu nedenle, modelde kalan veriler artık daha az çeşitlidir ve ortalamaya doğru geriler. Sonuçlara göre, orijinal dağıtımın kuyruklarının kaybolması bu turların yaklaşık beşini alıyor – işte o an MAD devreye giriyor.

Daha fazla gör





genel-21