Son günlerde, Elon Musk da dahil olmak üzere birçok AI uzmanı tarafından imzalanan ve herhangi bir yapay zekanın geliştirilmesine altı aylık bir moratoryum çağrısı yapan açık bir mektup yayınlandı. Bu bilim adamlarının korkusu, ChatGPT gibi akıllı sistemlerin hızlı gelişiminin, dünyayı Stephen Hawking gibi bilim adamlarının geçmişte öngördüğü kıyamet senaryolarına doğru götürebileceğidir.
Bununla birlikte, önerilen çözüm – araştırmanın küresel olarak durdurulması – kesinlikle uygulanamaz ve her durumda etkisizdir. İnovasyon engellenemez, bunun yerine olumsuz etkileri sınırlayacak şekilde düzenlenebilir, ancak bu eylem kesinlikle altı ayda tamamlanamaz.
Teknolojik konularda ise politika oluşturma faaliyeti devam etmektedir. 2018’de Avrupa Komisyonu, “Yapay zekaya Avrupa yaklaşımı” konulu bir bildiride, yapay zekayı insan merkezli bir bakış açısıyla düzenleme niyetini beyan ederek teknolojinin insanın hizmetinde olmasını sağladı. Bu anlamda ilk müdahaleler, Avrupa Parlamentosu’nda Avrupa Parlementosu üyesi Mady Delvaux-Stehres’in çalışmaları sayesinde 2014 yılına dayanmaktadır.
İlk somut sonuç, Nisan 2021 tarihli AI Yasası olarak bilinen bir düzenleme önerisidir. GDPR gibi, onaylandığı andan itibaren her üye devlette yazıldığı şekliyle geçerli olan ve beklenen bir düzenlemedir. 2023’ün sonuna kadar.
Bu öneriyle Avrupa Birliği, bu tür karmaşık fenomenleri yönetmeye kesinlikle uygun olmayan etik ve yumuşak hukuk retoriğinin terk edilmesiyle doğru yönde net bir adım değişikliğini onayladı. Ancak sistem, her şeyden önce otonom araçtan, chatbot’a, fintech sistemlerinden tıptaki uzman sistemlere kadar birbirinden çok farklı şeyleri bir arada düzenlemeye çalıştığı ölçüde hâlâ yetersiz. Bunun yerine, yaklaşım muhtemelen herkese uyan tek kural yaklaşımını terk etmeli ve bunun yerine farklı makro kullanım durumları için özel formülasyonlar oluşturmaya çalışmalıdır.
Tersine, Elon’un talebi teoride kabul edilemez. Aslında, ekonomik çıkarları, ifşası, rekabeti, politikaları ve karmaşık stratejileri olan şirketlerin, kendisi bunu yaparken kendi araştırma ve geliştirmesini kurduğunda araştırma ve geliştirmelerini durdurmak isteyen multi-milyarder bir girişimciyi dinlemesi için hiçbir neden yok. talih.
Sadece değil. Aynı şey pratikte de mümkün değil; yapay zekanın gelişimini küresel olarak durduramazsınız ve hiç kimse böyle bir yasağı ihlal edene yaptırım uygulayamaz. Batı’nın tamamı altı ay veya bir yıl dursa bile dünyanın geri kalanının (örneğin Çin) durmayacağını anlamak için oyun teorisini hatırlamaya gerek yok. Sonunda, küresel rakiplerimize beklenmedik bir hediye daha vermiş oluruz, ancak bunun çok daha önemli sonuçları olur. Demokrasiyi kendi tarzında yorumlayan bir bağlamda geliştirilen bir yapay zeka, kesinlikle daha da tehlikeli olacaktır ve kendimize ait olduğunu kabul etmediğimiz kültürel önyargılar önerme eğiliminde olacaktır. Bir kez yaygınlaşıp küresel olarak kullanıldığında, düzeltilmesi neredeyse imkansız olacaktır (bugün TikTok’ta olduğu gibi).
Teklifin kabul edilmesi halinde uygulamada da bir avantajımız olmayacak. AI’yı güvenli ve etkili bir şekilde düzenlemek için altı ay, bir yıl veya hatta iki yıl yeterli olmayacaktır. İlk olarak, çok karmaşık olduğu ve o kadar çok farklı bağlamda uygulandığı için, hedefli bir şekilde birçok kez müdahale etmek gerekecek. Fintech’i tıpta veya tüketici ürünlerinde AI kullanımını düzenlediğimiz şekilde düzenleyemeyiz.
İkincisi, çünkü – bir paralel çizmek gerekirse – düzenleme, yalnızca bir kez yapılan bir savaş değil, stratejiyi uygulandığı gelişen bağlama uyarlaması gereken birçok ardışık savaştan oluşan bir savaştır. Bir toplum olarak, siyaset yoluyla, son sözü ne piyasaya ne de teknolojik olarak mümkün olana bırakmadan, teknolojik gelişmeyi yönetme hakkını talep etmeliyiz. Yani, hangi “kötü ruhun Armağanı”nı (Guido Calabresi ile söylersek) kabul etmek istediğimizi seçmeliyiz.
Çok şey yapılabilir ve her şey yapılacak, ancak onlarca yıl alacak. İnovasyon beklemez ve yasalar işlemelidir.
Ancak, temel bir yönün altının çizilmesi gerekir. Yapay zekanın ortaya koyduğu ana sorun, kişisel verilerin korunması değildir; bu da giderek daha etkili yollarla ve aynı zamanda – ancak yalnızca değil – teknoloji aracılığıyla da garanti edilmelidir.
En alakalı problemler muhtemelen diğerleridir ve düzenlenmesi çok daha karmaşıktır: örneğin, AI’nın insanı ve onun gerçeklik algısını derin sahtekarlıklarla veya zekayı, duyguları, kişiliği simüle ederek duygusal bağlanmayı teşvik etme yeteneği. İnsanların sentetik sistemlere olan kısmı. Bu hususlar gizlilikle yönetilemez ve bu nedenle Garantör Otoritenin ChatGPT’ye veya Replika’ya (duygusal partneriniz olduğunuzu taklit eden uygulama) müdahale ettiğinde sağladığı araçlar, gerçek soruna kıyasla açıkça yetersizdir.
Kısacası, yapay zeka “neye karşı koyamayacağımızı” biliyorsa (bunu Alan Turing Enstitüsü’nden bir akademisyen olan Christopher Burr söylüyor) veya “dikkatimizi çekebiliyorsa” (Harvard Hukuk Fakültesi’nden Elettra Bietti’nin platformlardan bahsettiği gibi) , kendimizi gizliliğimizi korumakla sınırlayamayız, ancak – kesin kurallarla – bu yönleri etkilemeliyiz. Manipüle edilmeme hakkımız var ve zamanımızı ve konsantre olma yeteneğimizi koruma hakkımız var. Ancak bu savaşa Teknoloji düzenlemesi denir ve daha yeni başlamıştır.

*Andrea Bertolini, Pisa’daki Sant’Anna Okulu’nda profesör

*Roberto Marseglia, Pavia Üniversitesi’nde araştırma görevlisi



genel-18