OpenAI, insanların ahlaki yargılarını tahmin edebilecek algoritmalara yönelik akademik araştırmaları finanse ediyor.

OpenAI’nin kar amacı gütmeyen kuruluşu OpenAI Inc., IRS’ye yaptığı bir başvuruda, Duke Üniversitesi araştırmacılarına “Yapay Zeka Ahlakını Araştırma” başlıklı bir proje için hibe verdiğini açıkladı. Yorum almak için iletişime geçilen bir OpenAI sözcüsü, basın bülteni ödülün Duke profesörlerine verilen üç yıllık, 1 milyon dolarlık daha büyük bir bağışın parçası olduğunu belirtiyor:ahlaki yapay zeka oluşturma.”

OpenAI’nin finanse ettiği bu “ahlak” araştırması hakkında, bağışın 2025’te sona ereceği gerçeği dışında çok az şey biliniyor. Çalışmanın baş araştırmacısı, Duke’ta uygulamalı etik profesörü Walter Sinnott-Armstrong, TechCrunch’a e-posta yoluyla şunları söyledi: iş hakkında konuşabilmek”.

Sinnott-Armstrong ve projenin ortak araştırmacısı Jana Borg çeşitli çalışmalar ürettiler. kitap – Yapay zekanın, insanların daha iyi kararlar almasına yardımcı olacak bir “ahlaki GPS” görevi görme potansiyeli hakkında. Daha büyük ekiplerin parçası olarak yaratıldı Böbrek bağışını kimin alacağına karar vermeye yardımcı olacak “ahlaki açıdan uyumlu” bir algoritma ve okudu hangi senaryolarda insanlar yapay zekanın ahlaki kararlar almasını tercih eder?

Basın açıklamasına göre, OpenAI tarafından finanse edilen çalışmanın amacı, “tıp, hukuk ve iş dünyasındaki ahlaki açıdan önemli özellikler arasında” çatışmaları içeren senaryolarda “insanın ahlaki yargılarını tahmin edecek” algoritmalar yetiştirmektir.

Ancak ahlak kadar incelikli bir kavramın günümüz teknolojisinin erişebileceği kadar açık değil.

2021’de kâr amacı gütmeyen Allen Yapay Zeka Enstitüsü, etik açıdan sağlam öneriler sunmayı amaçlayan Ask Delphi adlı bir araç geliştirdi. Temel ahlaki ikilemleri yeterince iyi değerlendirdi; örneğin bot, sınavda kopya çekmenin yanlış olduğunu “bildi”. Ancak soruları biraz yeniden ifade etmek ve yeniden ifade etmek Delphi’nin hemen hemen her şeyi onaylaması için yeterliydi. bebekleri boğmak.

Bunun nedeni, modern yapay zeka sistemlerinin nasıl çalıştığıyla ilgilidir.

Makine öğrenimi modelleri istatistiksel makinelerdir. Web’in her yerinden çok sayıda örnek üzerinde eğitim alan öğrenciler, tahminlerde bulunmak için bu örneklerdeki kalıpları öğreniyorlar; örneğin “kime” ifadesi genellikle “ilgili olabilir” ifadesinden önce gelir.

Yapay zekanın etik kavramları takdir etme yeteneği ya da ahlaki karar almada rol oynayan akıl yürütme ve duygu anlayışı yoktur. Yapay zekanın Batılı, eğitimli ve sanayileşmiş ulusların değerlerini tekrarlama eğiliminde olmasının nedeni budur; web ve dolayısıyla yapay zekanın eğitim verileri, bu bakış açılarını destekleyen makalelerin hakimiyetindedir.

Şaşırtıcı olmayan bir şekilde, pek çok kişinin değerleri, yapay zekanın verdiği yanıtlarda ifade edilmiyor, özellikle de bu kişiler yapay zekanın eğitim setlerine çevrimiçi gönderiler göndererek katkıda bulunmuyorsa. Yapay zeka, Batı eğiliminin ötesinde bir dizi önyargıyı içselleştiriyor. Delfi söz konusu heteroseksüel olmanın eşcinsel olmaktan “ahlaki açıdan daha kabul edilebilir” olduğu.

OpenAI’nin ve desteklediği araştırmacıların önündeki zorluk, ahlakın doğasında var olan öznellik nedeniyle daha da zorlu hale geliyor. Filozoflar binlerce yıldır çeşitli etik teorilerin yararlarını tartışıyorlar ve görünürde evrensel olarak uygulanabilir bir çerçeve yok.

Claude iyilik Kantçılık (yani mutlak ahlaki kurallara odaklanmak), ChatGPT ise çok az da olsa faydacı (en fazla sayıda insan için en yüksek iyiliğe öncelik vermek). Biri diğerinden üstün mü? Kime sorduğunuza bağlı.

İnsanların ahlaki yargılarını tahmin edecek bir algoritmanın tüm bunları hesaba katması gerekecek. Bu, aşılması gereken çok yüksek bir çıtadır; ilk etapta böyle bir algoritmanın mümkün olduğunu varsayarsak.



genel-24