Ne bilmek istiyorsun
- ChatGPT ve Microsoft Copilot gibi yapay zeka araçları teknoloji dünyasında büyük bir heyecan yaratıyor.
- Üretken yapay zeka sistemleri, modellerini eğitmek için genellikle insan internet içerik oluşturucularından çalınan eğitim verilerine güvenir.
- Ancak, internet yapay zeka tarafından üretilen içeriklerle dolup taşarken, araştırmacılar yapay zeka modellerinin kendi tekrarladıkları verilerden nasıl etkilenebileceği konusunda endişeleniyorlar.
- Nature dergisinde yayımlanan kapsamlı bir araştırma, yapay zekanın “akraba evliliği” konusundaki endişelerinin gerçekten de yersiz olabileceğini öne sürüyor.
Yapay zeka modelleri, Avrupa kraliyet aileleri ve George RR Martin arasında ortak olan nedir? Ensestle ilgili rahatsız edici bir tutku olabilir.
Yapay zeka modelleri ve araçları şu anda teknoloji dünyasının en popüler konusu ve Google’dan Microsoft’a, Meta’ya kadar her şirket bu değişime derinlemesine dahil oluyor. Büyük dil modelleri (LLM’ler) ve ChatGPT, Microsoft Copilot ve Google Gemini gibi üretken yapay zeka araçları, bilişimle olan ilişkimizi alt üst ediyor. Ya da en azından teoride öyle olacaklar — görünüşe göre.
Şu anda, AI araçları o kadar sunucu yoğun ve çalıştırılması o kadar pahalı ki, AI öncüsü OpenAI bile daha fazla finansman turu olmadan iflasın eşiğinde görünüyor. Google ve Microsoft gibi büyük teknoloji şirketleri bile, kitleler şu anda sunulan araçların çoğuna gerçekten ödeme yapmanın bir anlamı olmadığını henüz anlamadıkları için, bu teknolojiyi nasıl paraya dönüştüreceklerini anlamakta zorlanıyorlar. AI modellerinin aslında çoktan zirveye ulaşmış olabileceği ve daha da aptallaşmaya mahkum oldukları yönünde bir düşünce okulu var.
“Model çöküşü”, web’deki içeriklerin giderek artan miktarının yapay zeka tarafından üretildiği ve yapay zekanın yüksek kaliteli insan yapımı veriler giderek daha az bulunur hale geldikçe, yapay zekanın temelde yapay zeka tarafından üretilen eğitim verileri üzerinde “iç üreme”ye başlayacağını öngören büyük ölçüde teorik bir kavramdır. İçeriğin daha az nüfuslu dillerde oluşturulması nedeniyle yerelleştirilmiş verilerin az olduğu ağ kısımlarında bunun meydana geldiği durumlar zaten oldu. Nature’da yayınlanan bu yeni makaleyle artık bu olguya ilişkin daha kapsamlı çalışmalarımız var.
“Eğitimde model tarafından oluşturulan içeriğin ayrım gözetmeksizin kullanılmasının, ortaya çıkan modellerde geri döndürülemez kusurlara neden olduğunu ve orijinal içerik dağıtımının kuyruklarının kaybolduğunu görüyoruz.” Özet şöyledir. “Bu etkiye ‘model çöküşü’ adını veriyoruz ve bunun şu durumlarda meydana gelebileceğini gösteriyoruz: [Large Language Models] “Varyasyonel otokodlayıcılarda (VAE’ler) ve Gauss karışım modellerinde (GMM’ler) olduğu gibi.”
İnanılmaz derecede basit terimlerle, “model çöküşü”nü JPEG sıkıştırması ile benzer bir entropik yörüngede ilerleyen bir şey olarak düşünebilirsiniz. Memler ve JPEG’ler internette tekrar tekrar kaydedildikçe, yayınlandıkça, kaydedildikçe ve yayınlandıkça, verilerdeki eserler ve hatalar ortaya çıkmaya başlar ve sonra çoğaltılır. Makale, çevrimiçi eğitim verilerinin “ayrım gözetmeksizin” kullanılmasının, şirketler makinelerini eğitmek için açık web’i kazıdıkça LLM’lerde benzer bir bozulmaya yol açabileceğini savunuyor.
“Olayın ardındaki teorik sezgiyi inşa ediyoruz ve onun tüm öğrenilmiş üretken modeller arasında yaygınlığını tasvir ediyoruz.” diye devam ediyor makale. “Web’den toplanan büyük ölçekli verilerden eğitimin faydalarını sürdüreceksek bunun ciddiye alınması gerektiğini gösteriyoruz. Gerçekten de, sistemlerle gerçek insan etkileşimleri hakkında toplanan verilerin değeri, İnternet’ten taranan verilerde LLM tarafından oluşturulan içeriklerin varlığında giderek daha değerli hale gelecektir.”
Teknoloji şirketleri ‘sağlıklı’ yapay zekayı umursamıyor
Bu sözde jenerasyonsal hesaplama değişiminden yararlanmak için yapılan çılgınca koşuşturma, bir tür abartı ve spekülasyon buldozeriyle desteklenerek bir bakıma utanç verici bir şekilde izlendi. Maddi olarak, LLM’ler ve üretken AI, önceki yılların blockchain ve metaverse Big Tech çılgınlığı trendlerinden açıkça çok daha önemli olsa da, Google, Microsoft ve diğerleri her zamankinden daha dikkatsizce kendileriyle tökezlediler. Google, AI arama sorgularını pervasızca kitlelere dayattı ve kullanıcıları taş yemeye teşvik eden komik yanıtlar ortaya çıktı. Microsoft’un Copilot PC lansmanındaki “Geri Çağırma” özelliği, AI teknolojisinin tüketicilerle ilişkisinin nasıl olması gerektiği konusunda tam bir zevk, incelik ve vizyon eksikliğini sergileyen tam bir felaketti.
Microsoft ve Google da iklimsel taahhütlerine el attılar, çünkü yapay zekanın körüklediği çılgınlık veri merkezi elektrik ve su maliyetlerinin fırlamasına neden oldu. Microsoft, yapay zekada etiğe adanmış ekibini de işten çıkardı — hepimiz bu sinir bozucu etiğin kısa vadeli kârların önüne nasıl geçtiğini biliyoruz.
Bu şirketlerin yapay zeka adına yaptığı her eylem açgözlülük ve pervasız sorumsuzluk çığlıkları atıyor. Hiçbirinin “model çöküşü” uyarılarını ciddiye alacağına inanmıyorum, çünkü bu, çözülmesi gereken gelecek bir mali yıl için bir sorun olacak.
İLGİLİ: Microsoft AI şefi, web’deki içeriğin çalınmasının “ücretsiz” olduğunu söylüyor
Microsoft ve Google, içerikleri çalıp doğrudan arama sonuçlarına koyarak, içerik yaratıcılarının her türlü şekil ve boyuttaki çok ihtiyaç duydukları geliri çalmanın yollarını agresif bir şekilde takip ediyor. İçerik oluşturmayı en büyük kurumsal varlıklar dışında herkes için finansal olarak uygulanamaz hale getirmek, web’deki bilginin kalitesini daha da düşürecek ve olası bir “model çöküşünü” daha da kötüleştirecek ve aynı zamanda bilgileri güçlü bir azınlık etrafında merkezileştirecektir. Ama hey, belki de mesele kısmen budur.
Ancak Microsoft ve Google’ın bunların hiçbirini ciddiye alacağını öngöremiyorum. Ayrıca bu sistemleri çalıştırmak için toptan çalınan içerik için herhangi bir tazminat beklemiyorum. Ancak öngördüğüm şey, internet için oldukça karanlık bir gelecek.