Üretken yapay zekanın çokça lanse edilen gelişi, güven ve emniyetle ilgili tanıdık bir tartışmayı yeniden alevlendirdi: Teknoloji yöneticilerine, toplumun çıkarlarını en yüksek düzeyde tutma konusunda güvenilebilir mi?

Eğitim verileri insanlar tarafından oluşturulduğundan, yapay zeka doğası gereği önyargıya eğilimlidir ve bu nedenle bizim kendi kusurlu, duygusal olarak yönlendirilen dünyayı görme yollarımıza tabidir. Ayrımcılığı ve ırksal eşitsizlikleri güçlendirmekten kutuplaşmayı teşvik etmeye kadar riskleri çok iyi biliyoruz.

OpenAI CEO’su Sam Altman, bizden “sabır ve iyi niyet” talep etti “doğru yapmak” için çalışırken.

Onlarca yıldır teknoloji yöneticilerine olan inancımızı sabırla kendi tehlikemize attık: Onu onlar yarattı, bu yüzden düzeltebileceklerini söylediklerinde onlara inandık. Teknoloji şirketlerine duyulan güven düşmeye devam ediyor ve 2023 Edelman Güven Barometresine göre, küresel olarak %65 endişe teknoloji, insanların gördüklerinin veya duyduklarının gerçek olup olmadığını bilmeyi imkansız hale getirecek.

Silikon Vadisi’nin güvenimizi kazanmak için ülkenin hukuk sisteminde etkili olduğu kanıtlanmış farklı bir yaklaşımı benimsemesinin zamanı geldi.

Güven ve meşruiyete usul adaleti yaklaşımı

Temeli sosyal psikolojiye dayanan prosedür adaleti, insanların dinlendiklerinde ve tarafsız, ön yargısız ve şeffaf karar alma deneyimi yaşadıklarında kurumların ve aktörlerin daha güvenilir ve meşru olduğuna inandıklarını gösteren araştırmalara dayanır.

Usul adaletinin dört temel bileşeni şunlardır:

  • Tarafsızlık: Kararlar tarafsızdır ve şeffaf akıl yürütme tarafından yönlendirilir.
  • Saygı: Herkese saygı ve haysiyetle davranılır.
  • Ses: Herkesin hikayenin kendi tarafını anlatma şansı var.
  • Güvenilirlik: Karar vericiler, kararlarından etkilenenler hakkında güvenilir güdüler iletirler.

Bu çerçeveyi kullanan polis, topluluklarında güven ve işbirliğini geliştirdi ve bazı sosyal medya şirketleri yönetişimi ve ılımlılığı şekillendirmek için bu fikirleri kullanın yaklaşımlar.

Yapay zeka şirketlerinin güven ve meşruiyet oluşturmak için bu çerçeveyi nasıl uyarlayabileceğine dair birkaç fikri burada bulabilirsiniz.

Doğru soruları yanıtlamak için doğru ekibi oluşturun

Gibi UCLA Profesörü Safiya Noble Algoritmik önyargıyı çevreleyen soruların yalnızca mühendisler tarafından çözülemeyeceğini, çünkü bunlar, toplumsal diyalogu, fikir birliğini ve nihayetinde düzenlemeyi (hem kendi hem de devlet) sağlamak için – herhangi bir şirketin dışında – hümanist bakış açıları gerektiren sistemik sosyal sorunlar olduğunu savunuyor.

İçinde “Sistem Hatası: Büyük Teknoloji Nerede Yanlış Yaptı ve Nasıl Yeniden Başlatabiliriz” üç Stanford profesörü, bilgisayar bilimi eğitiminin ve mühendislik kültürünün optimizasyon takıntısı nedeniyle eksikliklerini eleştirel bir şekilde tartışıyor ve genellikle demokratik bir toplumun temel değerlerini bir kenara itiyor.

Bir blog yazısında, Open AI, toplumsal girdiye değer verdiğini söylüyor: “AGI’nin olumlu tarafı çok büyük olduğu için, toplumun gelişimini sonsuza kadar durdurmasının mümkün veya arzu edilir olduğuna inanmıyoruz; bunun yerine toplum ve AGI geliştiricileri bunu nasıl doğru yapacaklarını bulmalı.”

Ancak, şirketin işe alım sayfası ve kurucusu Sam Altman’ın tweet’leri “ChatGPT’nin iddialı bir yol haritası var ve mühendislik nedeniyle tıkanıyor.”

Bu bilgisayar bilimcileri ve mühendisleri, OpenAI’nin dediği gibi, “toplumun yeni teknolojilere genellikle uyguladığından çok daha fazla dikkat gerektirecek”?

Teknoloji şirketleri, teknolojinin insani ve toplumsal etkilerini anlayan sosyal bilimcileri içeren çok disiplinli ekipler tutmalıdır. Yapay zeka uygulamalarının nasıl eğitileceğine ve güvenlik parametrelerinin nasıl uygulanacağına ilişkin çeşitli bakış açılarıyla şirketler, kararları için şeffaf muhakeme yapabilirler. Bu da, halkın teknolojiyi tarafsız ve güvenilir olarak algılamasını artırabilir.

Dışarıdan bakış açılarını dahil et

Usul adaletinin diğer bir unsuru, insanlara karar verme sürecine katılma fırsatı vermektir. yakın zamanda Blog OpenAI şirketinin önyargıyı nasıl ele aldığına dair bir gönderi yayınlayan şirket, “teknolojimiz üzerinde harici girdi” aradığını söyledi ve yakın zamanda yapılan bir kırmızı ekip çalışmasına, düşmanca bir yaklaşımla riski değerlendirme sürecine işaret etti.

Kırmızı ekip oluşturma, riski değerlendirmek için önemli bir süreç olmakla birlikte, dış girdileri de içermelidir. İçinde OpenAI’nin kırmızı ekip çalışması103 katılımcıdan 82’si çalışandı. Kalan 23 katılımcının çoğunluğu, ağırlıklı olarak Batılı üniversitelerden bilgisayar bilimleri akademisyenleriydi. Farklı bakış açıları elde etmek için şirketlerin kendi çalışanlarının, disiplinlerinin ve coğrafyalarının ötesine bakması gerekir.

Ayrıca, kullanıcılara yapay zekanın nasıl performans gösterdiği üzerinde daha fazla kontrol sağlayarak yapay zeka ürünlerine daha doğrudan geri bildirim sağlayabilirler. Ayrıca, yeni politika veya ürün değişiklikleri hakkında kamuoyunun yorum yapması için fırsatlar sağlamayı da düşünebilirler.

Şeffaflığı sağlayın

Şirketler, tüm kuralların ve ilgili güvenlik süreçlerinin şeffaf olmasını sağlamalı ve kararların nasıl alındığına dair güvenilir nedenler aktarmalıdır. Örneğin, uygulamaların nasıl eğitildiği, verilerin nereden çekildiği, insanların eğitim sürecindeki rolü ve kötüye kullanımı en aza indirmek için hangi güvenlik katmanlarının bulunduğu hakkında halka bilgi sağlamak önemlidir.

Araştırmacıların yapay zeka modellerini denetlemesine ve anlamasına izin vermek, güven oluşturmanın anahtarıdır.

Altman son zamanlarda doğru anladı ABC Haberleri “Bence toplumun buna nasıl tepki vereceğini, nasıl düzenleyeceğini, nasıl başa çıkacağını anlamak için sınırlı bir zamanı var.”

Yapay zeka platformları oluşturan şirketler, teknoloji öncüllerinin şeffaf olmayan yaklaşımı ve kör inancı yerine prosedürel adalet yaklaşımıyla toplumu sürece dahil edebilir ve güven ve meşruiyet talep etmek yerine kazanabilir.





genel-24