Emily M. Bender, Washington Üniversitesi’nde dilbilimci, profesör ve Hesaplamalı Dilbilim Laboratuvarı’nın yöneticisidir. Mart 2021’de etik araştırmacıları Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell ile birlikte şunları yazdı: “Stokastik papağanlar” başlıklı bir makale »Yapay zeka (AI) sektöründe üne kavuşan bir firma. Metin, o zamandan beri ChatGPT gibi konuşma robotlarında popüler hale gelen yazılım olan büyük dil modelleriyle bağlantılı sınırlamalar ve riskler konusunda uyarıyordu. Bu sistemlerin devasa boyutlarıyla bağlantılı hatalara, önyargılara veya çevresel maliyetlere dikkat çekti… Bugün, MBen Bender, Yapay Zeka sektörünün evrimi konusunda oldukça eleştirel olmaya devam ediyor ve bu alandaki “aldatmacayı” kınadı. animasyonlu bir podcast sosyolog Alex Hanna ile birlikte.

Geriye dönüp baktığınızda, büyük dil modellerinin riskleri hakkındaki 2021 makalenizde haklı olduğunuzu düşünüyor musunuz?

Bunun yerine insanlar bana sık sık tahminlerimizin gerçekleştiğini görmenin nasıl bir his olduğunu soruyor. Bunların tahmin değil uyarı olduğu cevabını veriyorum. Dolayısıyla, daha da büyüyen dil modellerine doğru bu yarışın başlangıcını görmek, bunların potansiyel kusurlarını tespit etmek ve sonra yine de insanların bu yarışa atladığını görmek hoş değil.

Ama bazı şeyleri atladık. Bu sistemlerin yaratılmasının arkasında ne kadar çalışma koşullarında sömürü var anlamadık. [chez les employés de sous-traitants qui annotent les données, notent les réponses ou modèrent les contenus problématiques des IA]. Ve dünyanın sentetik metin konusunda bu kadar heyecanlanacağını düşünmemiştik.

Ayrıca okuyun | Google’da yapay zekayla ilgili etik konularda çalışan Timnit Gebru’nun tartışmalı görevden alınması

Daha büyük modellere yönelik yarışı eleştiriyorsunuz ama aynı zamanda onları daha iyi yapan da bu. Bunları geliştirmemiz gerekmez miydi?

Daha iyi oldukları kesin değil. İnsan metnini taklit etmede daha iyidirler. Ama bunun ne için olduğunu bilmiyorum. Belirli bir kullanım için bize daha iyi sonuçlar verdiğini gösteren net değerlendirmeler yoktur.

Dil modelleri, kökeni Amerikalı araştırmacı Claude Shannon’ın 1940’lı yıllardaki çalışmalarına kadar uzanan eski bir teknolojidir. Orijinal kullanımlarında bu modeller, otomatik transkripsiyon, yazım düzeltme veya otomatik çeviri sistemlerinde önemli bir role sahiptir. Ancak bu görevleri iyi bir şekilde yerine getirmek için gereken eğitim verisi miktarının çok ötesine geçtik. Ve eğer güvenilir bir teknoloji yapmak istiyorsak, onun içinde ne olduğunu bilmemiz gerekiyor. Ve 2020’de zaten bunun mümkün olduğu eğitim verisi miktarını aşmıştık.

Bu makalenin okunacak %78,45’i kaldı. Geri kalanı abonelere ayrılmıştır.



genel-14