Nedenini tam olarak anlamadan Facebook, Twitter veya Instagram’dan bir gönderi kaldırılmış olabilir. Çoğumuz için ciddi bir şey yok. Ama gelir bir gönderiye bağlı olduğunda ne olacağını düşünmeye çalışalım. Örneğin, algoritma bu videoyu politikaya veya dahili bir kurala uymayan içerik olarak etiketlediği için YouTube’da kullanıcı reklamlardan bütçe alamıyor olabilir.
Bu mekanizmaların temelinde, aldıkları bilgileri etiketlemeyi “öğrenen” – örneğin bir beğeni veya bir fotoğrafa etiket – aynı içeriğe atfetmeyi “öğrenebilen” Yapay Zeka, özellikle otomatik öğrenme sistemleri vardır. gelecekte. Bir prosedürün içinde olduğu gibi, Google, dokuz fotoğraflı bir kare içinde trafik ışığı içeren görüntüleri seçmemizi ister. Bunu yaparak, Google’ın algoritmasının işlemesi gereken rakamlardaki trafik ışıklarını daha iyi tanımasına yardımcı oluyoruz. Amacı haberleri az çok güvenilir olarak etiketlemek olan uygulamalar da var; herhangi bir çocuk pornografisi görüntüsünün varlığını tespit etmek için eğitilmesi gereken diğerleri.
Bu makine öğrenimi sistemleri günlük hayatımızda yaygındır. Çoğu zaman hayatımızın kaç boyutunun bu şekilde yönetildiğinin farkında değiliz ve yanlış etiketlemenin toplumumuzda sahip olabileceği “risklerin” farkında değiliz. Veriler kötü sınıflandırılırsa, yanlış çıktılar ve dolayısıyla yanlış tahminler üretecektir.
Ca ‘Foscari Üniversitesi’nden Dijital Etik araştırmacısı Teresa Scantamburlo, “Yakın zamanda 18 ila 75 yaşları arasındaki 8 Avrupa Birliği ülkesinden 4000 vatandaşla yaptığımız bir ankette, neredeyse yarısının yapay zeka hakkında neredeyse hiç bilgisi olmadığını söylediği ortaya çıktı” diyor. Yapay zekanın sosyal refah üzerindeki etkisini araştıran Venedik, Trieste Üniversitesi ve SISSA tarafından düzenlenen bir yuvarlak masa toplantısında (22-24 Eylül 2022) Trieste Next Festivali’ne konuk olacak. “Yine de aynı zamanda, ankete katılanların %65’inden fazlası, bu teknolojilerin daha da adil bir toplumun gelişimi için olumlu olduğundan emin olduklarını söyledi. Bizi çok şaşırtan bir tezat”.
“Kötü etiketleyen” algoritmalardan kaynaklanan ilk somut risk ayrımcılıktır. Örneğin, çeşitli Amerikan üniversitelerinin seçim prosedürleri, bireyler tarafından değil, notlar, ders dışı etkinliklere katılım vb. gibi bir dizi parametreyi analiz eden algoritmalar tarafından işlenir. Algoritmalarda veya algoritmayı eğitmek için kullanılan verilerde önyargılar olduğunda, örneğin menşe bölgeleri arasındaki sosyo-ekonomik eşitsizlik değişkenlerini hesaba katmadıklarında, mümkün olduğunda kabul edilmeyen insanlar olabilir. .
Dezenformasyon için ikinci bir sorun da, günümüzde yapay sinir ağlarına dayalı süreçler aracılığıyla sahte veya var olmayan video ve görüntüler oluşturmanın ne kadar kolay olduğudur. Başka bir şey söylemek için konuşan bir kişinin dudak hareketlerini değiştirebilmek ve aynı zamanda o kişinin bizim söylemesini istediğimizi söylediği gibi ses tınısını kullanarak bir ses üretebilmek zor değil.
Sorun şu ki, çoğu zaman hayatımızdaki önemli kararların bile dayandığı algoritmalar aslında tam olarak bilinmiyor: böyle bir çıktının neden üretildiğini izlemek zor.
Bütün bunlarla nasıl başa çıkıyorsun? 2018’de Avrupa Komisyonu, Yapay Zeka tasarımı için etik yönergeler yayınladı ve bunu 2021’de yüksek riskli olarak tanımlanan AI hakkında bir yasa tasarısı – şu anda tartışılmakta – izledi. Ancak düzenleme yeterli değildir. Makine Öğrenimi’ni ayrımcı olmayan sonuçlara yönlendirmek için dizginlerinin nasıl tutulacağını anlamak gerekir. “Felsefi olarak tanımlamaya cesaret ettiğim araştırmamızda – diye açıklıyor Scantamburlo – bu algoritmaların kavramlarını ve iç mekanizmalarını, çıkarımlarının ne olduğunu ve insan katkısının otomatik öğrenme sistemleriyle nasıl etkileşime girebileceğini anlamak için çözüyoruz. Sosyal makineden, mekanizmasını etkileyebilecek insanla etkileşime girerek ifade edilen bir algoritma olarak konuşmayı tercih ediyoruz.”



genel-18