“Yapay zekanın gerçek riski kötü niyet değil, uzmanlıktır. Süper zeki bir yapay zeka, hedeflerine ulaşmada son derece etkili olacaktır ve bunlar bizimkilerle uyumlu değilse, başımız belada demektir.”
Tanınmış İngiliz astrofizikçi Stephen Hawking’in 2015’te yapay zekanın riskleri konusunda verdiği ve çok uzak bir distopik geleceğe işaret ediyormuş gibi görünen bu yanıt, bugün tam tersine konu tartışmasının merkezinde yer alıyor.
Yasa koyucunun algoritmalar konusunda uygun bir düzenleyici işlem başlatması için doğru unsurlara sahip olmasına izin vermek amacıyla mümkün olduğunca fazla bilgi toplamak amacıyla geçen Nisan ayında Temsilciler Meclisi’nde yapay zeka konusundaki uzmanların bir dizi duruşması başladı. .
İlk iki akademisyen, Pontifical Gregorian Üniversitesi’nde etik profesörü olan Profesör Paolo Benanti ve mühendislik profesörü ve Yapay Zeka Araştırma ve İnovasyon Merkezi direktörü Profesör Rita Cucchiara idi. Seçilen iki konuşmacının birincil ve tartışılmaz uluslararası kalibresine ek olarak, dijital etik temasının -yine- acil ve birincil ilgiyi hak eden bir konu olarak önerildiği açıktır. Hiçbir seçim daha uygun olmamıştı.
Öte yandan, Avrupa Birliği’nin bu konuda politika oluşturma eylemi, amacı, Avrupa Birliği tarafından güvenilmek için yapay zeka sistemlerinin karşılaması gereken temel etik gereklilikleri tanımlamak olan bir belgeyle – güvenilir yapay zeka için etik yönergeler – başladı. Birlik.
Sadece değil. Financial Times’ta Ian Hogarth imzalı yakın tarihli bir makale, ilerleyen günlerde Forbes tarafından ve ardından Economist’in kapağında ele alınan doğru bir tema öneriyor: teknolojinin evrimi ve elimizdeki yapay zekaların boyutunun büyümesi, özellikle kendi kendine öğrenebilenler, doğru dikkati vermenin uygun olduğu yeni etik sorular ortaya atıyor.
Bunlar arasında belki de en ilginç olanı, sık sık atıfta bulunulan yapay zeka hizalaması konusu. Hizalama, insani değerlerle tutarlı bir şekilde davranan ve bu sistemlerin daha gelişmiş ve karmaşık hale gelseler bile uyumlu kalmasını sağlayan AI sistemlerini tasarlama sürecini ifade eder. Tematik, bu nedenle, yukarıda belirtilen cevabın merkezinde prof. Hawking.
Yani iki sorun var.
Birincisi, akıllı sistem gerçekten karmaşık hale geldiğinde, kötü belirlenmiş hedeflerin olası yan etkilerini önceden bilmek çok zordur. Teorik bir örnek, yoksulluğu mümkün olan en kısa sürede sona erdirmek ve mümkün olduğunca az para harcamak amacıyla bir parasal fonu yöneten gelişmiş bir yapay zekaya sahip olmak olabilir. Muhtemelen sistem, yiyecek alamayan herkesin hızla öleceği ve dolayısıyla yoksulluğun tükeneceği inancıyla her türlü harcamayı neredeyse anında durduracaktı. Peki amaca ulaşıldı mı? Hangi Fiyata?
İkincisi, yapay zekanın ortak insani değerleri hesaba katmak için kendi üretebileceği olası çözümlerin alanını sınırlamaya karar verildiği ölçüde, örneğin uygun ödül işlevleriyle, varlığımızı temsil eden etik işaretlerin tanımlanması gerekir. ve düşünme biçimimiz. Bununla birlikte, bunlar zorunlu olarak evrensel değildir ve aslında bazı araştırmalar evrensel olmadıklarını öne sürmektedir. Bu dijital devrimin bir parçası olmak ve bundan zarar görmemek için, teknik araştırmaya ve dijital etik alanında bir pozisyonun resmileştirilmesine yatırım yapmaya devam etmek gerekiyor.
Bu yeterli olacak? Bu ilerlemenin tek yolu mu olacak? Şimdi söylemek çok zor ve aslında son haftalarda, geçiş dönemini yönetmek için uygun araçları bulmayı amaçlayan – bazıları ilginç olan – birkaç farklı teklif sunuldu. Bunlar arasında Elon Musk’ın bir tweet’inde önerdiğini anmakta fayda var: “AGI (yapay genel zeka, ed.) kontrolü sorununa yönelik aklıma gelen “en az kötü” çözüm, herkese oy vermek. “insan tarafından doğrulandı.”” Bu nedenle, bir insan, insan olduğunu “doğrularsa” (neredeyse Turing testinin sırasını tersine çevirerek) oy kullanma hakkına sahip olacaktır. Zaman gösterecek.

*Roberto Marseglia, Pavia Üniversitesi’nde araştırma görevlisi



genel-18