Silikon Vadisi’ndeki en parlak beyinlerden bazıları, insanlara sınırsız nakit ödeme garantisi veren evrensel bir temel gelirin (UBI) onların hayatta kalmalarına ve gelişmelerine yardımcı olacağına inanıyor çünkü ileri teknolojiler beyaz yakalı ve yaratıcı rollerden – avukatlar, gazeteciler, sanatçılar, yazılım mühendisleri — işçilik işleri. Fikir yeterince ilgi gördü düzinelerce 2020’den beri ABD şehirlerinde garantili gelir programları başlatılmıştır.

Yine de OpenAI’nin CEO’su ve en yüksek profilli şirketlerden biri olan Sam Altman bile taraftarlar UBI, bunun tam bir çözüm olduğuna inanmıyor. sırasında söylediği gibi oturmak Bu yılın başlarında, “Bence bu, çözümün küçük bir parçası. Bence harika. bence [advanced artificial intelligence] ekonomiye giderek daha fazla katılıyorsa, zenginliği ve kaynakları sahip olduğumuzdan çok daha fazla dağıtmalıyız ve bu da zamanla önemli olacaktır. Ama bunun sorunu çözeceğini sanmıyorum. Bunun insanlara anlam vereceğini düşünmüyorum, insanların yeni şeyler yaratmaya ve yapmaya çalışmaktan tamamen vazgeçecekleri anlamına geldiğini düşünmüyorum. Bu nedenle, bunu toplum için bir plan olarak değil, kolaylaştırıcı bir teknoloji olarak görüyorum.”

Akıllara takılan soru, bu durumda toplum için bir planın nasıl görünebileceği ve sanal gerçeklik alanının kurucularından bilgisayar bilimcisi Jaron Lanier, bu haftaki sayısında yazıyor. New Yorklu değilse, “veri saygınlığının” tek bir çözüm olabileceğini the cevap.

Temel önerme şu: Şu anda verilerimizi çoğunlukla ücretsiz hizmetler karşılığında ücretsiz veriyoruz. Lanier, bunu yapmayı bırakmamızın her zamankinden daha önemli hale geleceğini, güvendiğimiz “dijital şeylerin” – kısmen sosyal ağlar ama aynı zamanda OpenAI’nin GPT-4’ü gibi giderek artan şekilde yapay zeka modellerinin – “insanlarla bağlantılı” olmasının her zamankinden daha önemli hale geleceğini savunuyor. ilk etapta onlara yutmaları için çok şey veren.

Buradaki fikir, insanların “büyük modeller aracılığıyla filtrelenip yeniden birleştirildiğinde bile yarattıklarının karşılığını alması”.

Lanier, veri saygınlığı kavramını ilk kez 2018 Harvard Business Review makalesinde, “Daha İyi Bir Dijital Toplum İçin Bir Taslak” O sırada ortak yazar ve ekonomist Glen Weyl ile yazdığı gibi, “[R]teknoloji sektöründen gelen hetorik, yapay zeka (AI) ve otomasyon nedeniyle yaklaşan bir eksik istihdam dalgası” ve “insanlara giderek daha fazla değersiz ve ekonomik temsilcilikten yoksun muamelesi yapılan bir gelecek” öneriyor.

Ancak Lanier ve Weyl, evrensel temel gelir savunucularının “retoriğinin” “yalnızca iki sonuca yer bıraktığını” ve bunların oldukça aşırı olduğunu gözlemledi. “Ya teknolojik gelişmelere rağmen kitlesel bir yoksulluk olacak ya da vatandaşlara evrensel bir temel gelir sağlamak için bir sosyal servet fonu aracılığıyla çok sayıda servet merkezi, ulusal kontrol altına alınmak zorunda kalacak.”

Ancak ikisi de “gücü aşırı yoğunlaştırın ve veri oluşturucuların değerini baltalayın veya görmezden gelin” diye yazdı.

aklımı çöz

Elbette, dünyada var olan her şeye sayısız katkıları için insanlara doğru miktarda kredi vermek küçük bir zorluk değildir (biri yapay zeka denetim girişimlerinin bu sorunu çözmeyi vaat ettiğini hayal etse bile). Lanier, veri saygınlığı araştırmacılarının bile, yapay zeka modellerinin özümsediği her şeyi nasıl çözecekleri veya bir muhasebenin ne kadar ayrıntılı denenmesi gerektiği konusunda anlaşamadıklarını kabul ediyor.

Ama -belki de iyimser bir tavırla- bunun kademeli olarak yapılabileceğini düşünüyor. “Sistem, büyük modellere çevresel katkılarda bulunan milyarlarca insanı, örneğin bir modelin simüle dilbilgisi yetkinliğine katkıda bulunanları hesaba katmaz. [It] yalnızca belirli bir durumda ortaya çıkan az sayıdaki özel katılımcıya ilgi gösterebilir.” Ancak zamanla, “ara hak örgütleri -sendikalar, loncalar, meslek grupları vb.- rol oynamaya başladıkça daha fazla insan dahil edilebilir.”

“Sistemlerin daha şeffaf hale getirilmesi gerektiğine inanan Lanier, elbette, daha acil olan zorluğun mevcut AI araçlarının kara kutu doğası olduğunu söylüyor. İçlerinde neler olup bittiğini ve neden olduğunu söylemekte daha iyi olmamız gerekiyor.”

OpenAI, önceki yıllarda eğitim verilerinin en azından bir kısmını yayınlamış olsa da, o zamandan beri kimonoyu tamamen kapattı. Gerçekten de, Greg Brockman TechCrunch’a geçen ay, bugüne kadarki en son ve en güçlü büyük dil modeli olan GPT-4’ün eğitim verilerinin “çeşitli lisanslı, oluşturulmuş ve halka açık veri kaynaklarından geldiğini söyledi. bilgi”, ancak daha spesifik bir şey sunmayı reddetti.

OpenAI olarak belirtilmiş GPT-4’ün piyasaya sürülmesinden sonra, ekip için olduğundan daha fazlasını ifşa etmenin çok fazla dezavantajı var. “GPT-4 gibi büyük ölçekli modellerin hem rekabet ortamı hem de güvenlik üzerindeki etkileri göz önüne alındığında, bu rapor mimari (model boyutu dahil), donanım, eğitim hesaplaması, veri kümesi oluşturma, eğitim yöntemi veya benzerleri hakkında daha fazla ayrıntı içermiyor.”

Aynısı şu anda her büyük dil modeli için de geçerlidir. Örneğin, Google’ın Bard sohbet robotu, Infiniset adı verilen internet içeriğine dayalı veri kümeleri üzerinde eğitilen LaMDA dil modelini temel alır. Ancak çok az şey biliniyor Google’ın araştırma ekibinin söyledikleri dışında yazdı bir yıl önce, yani – geçmişte bir dönemde – 2,97 milyar belge ve 13,39 milyar ifade ile 1,12 milyar diyalog içeriyordu.

Düzenleyiciler ne yapacaklarını şaşırıyorlar. Özellikle teknolojisi orman yangını gibi yayılan OpenAI, ChatGPT kullanımını bloke eden İtalyan otoritesi de dahil olmak üzere, giderek artan sayıda ülkenin hedefinde. Fransız, Alman, İrlandalı ve Kanadalı veri düzenleyicileri de verileri nasıl topladığını ve kullandığını araştırıyor.

Ancak daha önce Google’ın yapay zeka etiği eş başkanı olan bir yapay zeka araştırmacısı olan Margaret Mitchell’in satış noktasına söylediği gibi Teknoloji İncelemesibu noktada bu şirketlerin bireylerin verilerini tespit etmeleri ve modellerinden çıkarmaları neredeyse imkansız olabilir.

Kaynak tarafından açıklandığı gibi: OpenAI “başlangıçtan itibaren sağlam veri kaydı tutma sistemi kurarak kendisini dev bir baş ağrısından kurtarabilirdi, [according to Mitchell]. Bunun yerine, yapay zeka endüstrisinde, web’i ayrım gözetmeden kazıyarak ve ardından yinelenenleri veya alakasız veri noktalarını kaldırma, istenmeyen şeyleri filtreleme ve yazım hatalarını düzeltme işini dışarıdan temin ederek yapay zeka modelleri için veri kümeleri oluşturmak yaygın bir uygulamadır.”

Bir hayat nasıl kurtarılır

Bu teknoloji şirketlerinin şu anda modellerinde ne olduğuna dair sınırlı bir anlayışa sahip olmaları, New Yorker yazısında Altman’ı “meslektaş ve arkadaş” olarak nitelendiren Lanier’in “veri saygınlığı” önerisine bariz bir meydan okuma.

İmkansız hale getirip getirmediğini yalnızca zaman gösterecek.

İnsanlara işleri üzerinde sahiplik vermeyi istemenin kesinlikle bir değeri vardır ve bu yeni araçlarla dünyanın daha büyük bir kısmı yeniden şekillendirildikçe, bu konudaki hayal kırıklığı kesinlikle artabilir.

OpenAI ve diğerlerinin algoritmalarını beslemek için tüm interneti kazıma hakkına sahip olup olmadığı zaten çeşitli ve geniş kapsamlı telif hakkı ihlali davaları onlara karşı

Ancak, Lanier’in büyüleyici New Yorker yazısında, sözde veri saygınlığı aynı zamanda insanların akıl sağlığını korumaya yönelik uzun bir yol kat edebileceğini öne sürüyor.

Ona göre, evrensel temel gelir “kara kutu yapay zeka fikrini korumak için herkesi işe almak anlamına geliyor.” Bu arada, “mevcut yapay zeka modellerimizin kara kutu niteliğini” sona erdirmek, insanların katkılarının muhasebesini kolaylaştıracak ve katkı yapmaya devam etme olasılıklarını çok daha artıracaktır.

Lanier, “yeni bir bağımlı sınıf yerine yeni bir yaratıcı sınıf oluşturmaya” da yardımcı olabileceğini ekliyor. Ve hangisinin bir parçası olmayı tercih edersin?



genel-24