Bir grup tanınmış yapay zeka etiği uzmanı, yapay zeka gelişimine altı aylık bir “duraklama” talep eden bu haftaki tartışmalı mektuba bir kontrpuan yazdı ve gerçek zararların teknolojinin kötüye kullanılmasına atfedilebildiği varsayımsal gelecekteki tehditlere odaklanmasını eleştirdi. .

Steve Wozniak ve Elon Musk gibi tanıdık isimlerin de aralarında bulunduğu binlerce kişi, Future of Life enstitüsünden bu hafta başlarında GPT-4 gibi yapay zeka modellerinin geliştirilmesinin “kayıp” olmaması için askıya alınmasını öneren açık mektubu imzaladı. medeniyetimizin kontrolünün” diğer tehditlerin yanı sıra.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major ve Margaret Mitchell, (çalışmalarına ek olarak) Google’dan atılmalarıyla bilinen yapay zeka ve etik alanlarında önemli isimlerdir. kağıt AI’nın yeteneklerini eleştirmek. Şu anda AI ile ilişkili zararları incelemeyi, ortaya çıkarmayı ve önlemeyi amaçlayan yeni bir araştırma ekibi olan DAIR Enstitüsünde birlikte çalışıyorlar.

Ancak imzacılar listesinde bulunamadılar ve şimdi azarlama yayınladı Mektubun teknolojinin neden olduğu mevcut sorunlarla ilgilenemediğini söyleyerek.

İşçi sömürüsü, veri hırsızlığı, mevcut güç yapılarını destekleyen sentetik medya ve daha fazla konsantrasyona atıfta bulunarak, “Bu varsayımsal riskler, günümüzde yapay zeka sistemlerinin konuşlandırılmasından kaynaklanan gerçek zararları görmezden gelen uzun vadelicilik adı verilen tehlikeli bir ideolojinin odak noktasıdır” diye yazdılar. bu güç yapılarının daha az elinde.

Aynı anda Clearview AI gibi şirketlerin raporlarını aldığımızda, bir Terminatör veya Matrix benzeri bir robot kıyameti hakkında endişelenme seçimi, kırmızı ringa balığıdır. polis tarafından esasen masum bir adamı suçlamak için kullanılıyor. Çevrim içi lastik damgalı garanti fabrikalarından erişilebilen her ön kapıda Halka kameralar varken T-1000’e gerek yok.

DAIR ekibi, mektubun sentetik medyayı tanımlamak gibi bazı amaçlarına katılsa da, elimizdeki çözümlerle bugünün sorunları konusunda şimdi harekete geçilmesi gerektiğini vurguluyor:

İhtiyacımız olan şey şeffaflığı zorlayan bir düzenleme. Sadece sentetik medyayla karşılaştığımızda her zaman açık olması değil, aynı zamanda bu sistemleri kuran kuruluşların eğitim verilerini ve model mimarilerini belgelemeleri ve ifşa etmeleri istenmelidir. Kullanımı güvenli araçlar yaratma sorumluluğu, üretken sistemler kuran ve dağıtan şirketlerde olmalıdır; bu, bu sistemlerin kurucularının, ürünlerinin ürettiği çıktılardan sorumlu tutulması gerektiği anlamına gelir.

Daha büyük “Yapay Zeka deneylerine” doğru mevcut yarış, tek seçeneğimizin ne kadar hızlı koşmak olduğu önceden belirlenmiş bir yol değil, daha çok kâr güdüsünün yönlendirdiği bir dizi karardır. Kurumların eylem ve tercihleri, kişilerin hak ve menfaatlerini koruyan düzenlemelerle şekillendirilmelidir.

Gerçekten harekete geçmenin zamanı geldi: ama bizim ilgi alanımız hayali “güçlü dijital beyinler” olmamalı. Bunun yerine, gücü hızla merkezileştiren ve sosyal eşitsizlikleri artıran, onları inşa ettiğini iddia eden şirketlerin çok gerçek ve çok güncel sömürücü uygulamalarına odaklanmalıyız.

Bu mektup, dün Seattle’da düzenlenen AfroTech etkinliğinde Uncharted Power’ın kurucusu Jessica Matthews’tan duyduğum bir duyguyu yansıtıyor: “Yapay zekadan korkmamalısın. Onu inşa eden insanlardan korkmalısın.” (Onun çözümü: onu inşa eden insanlar olun.)

Herhangi bir büyük şirketin açık mektuba uygun olarak araştırma çabalarını duraklatmayı kabul etmesi neredeyse imkansız olsa da, aldığı taahhütten yola çıkarak, yapay zeka risklerinin – gerçek ve varsayımsal – birçok segmentte büyük endişe kaynağı olduğu açıktır. toplum. Ama yapmazlarsa, belki birileri onlar için yapmak zorunda kalacak.



genel-24