“Buggy şirketi, hatalı yazılım üretir”. Yeni teknolojiler alanında uzman avukat ve Kişisel Verilerin Korunması Kurumu üyesi olan Guido Scorza, yapay zekanın toplumsal cinsiyetten başlayarak önyargıları ve stereotipleri yeniden üretmesi ve güçlendirmesi riskini özetliyor. Her şeyden önce “personel seçimine uygulanan algoritmalarda” yüksek olarak gördüğü bir tehlike, çünkü gittikçe yaygınlaşan ön elemenin bazı roller için erkek özgeçmişlerini tercih etmesi ve kadın özgeçmişlerini a priori göz ardı etmesi muhtemeldir.
“Profesyonel” önyargılar aynı zamanda Pop AI’nın (Popüler Yapay Zeka) kurucusu ve başkanı ve Horizon Europe 2021 yatırım planı -2027 konusunda AB Komisyonu ile birlikte çalışan Avrupa Yapay Zeka, Veri ve Robotik Birliği Adra’nın başkanı Emanuela Girardi’yi de endişelendiriyor. “En popüler ve halk tarafından en çok kullanılan üretken yapay zeka modelleri, internette var olan bilgilerle eğitiliyor ve bu nedenle potansiyel ayrımcılıkla dolu” diye açıklıyor. İçeriği matematiksel-istatistiksel bir şekilde yeniden önererek toplumumuzda mevcut olanı güçlendirmekten başka bir şey yapmıyorlar. Bu yüzden bir doktor ya da yönetici imajı oluşturmak istersem bu orta yaşlı beyaz bir adam olacaktır. Eğer bir hemşire istersem bu bir kadın olacaktır, muhtemelen daha genç.”
Mekanizma tehlikelidir: Önceden var olan kolektif hayal gücü, yapay zeka hayal gücünü kolonileştirir ve bu da onu güçlendirir. Scorza, “Videolar ve fotoğraflar da dahil olmak üzere içeriklerde cinsiyete dayalı bilinen tüm ayrımcılığı bulma riskiyle karşı karşıyayız” diyor. Son onyılların başarılarını silip süpürebilecek paradoksal bir geriye doğru sıçrama. Ancak sonuçları daha da ciddi olabilir. Girardi tıp alanında kullanılan sistemlere dikkat çekiyor. Bir örnek? “Kalp krizi belirtilerinin kadın ve erkekler arasında çok farklı olduğunu biliyoruz. Ancak yapay zeka sistemlerinin çoğu erkek insan vücudu üzerinde eğitiliyor ve bunun sonucunda, bir kadın triyaj için benzer bir sistemin kullanıldığı bir hastaneye başvurduğunda semptomları tanınmayabilir. Hassas alanlarda otomatik olarak karar veren tüm sistemler eşitsizlikleri artırabilir.”
Kısa devre nerede yatıyor? Scorza ve Girardi aynı fikirde: Kaynağa, algoritmaları üreten çalışma gruplarına bakmamız gerekiyor. Uzman, “Amerika Birleşik Devletleri’nde ağırlıklı olarak erkeklerden oluşuyor ve bu da ürün geliştirmedeki seçimleri etkiliyor” diyor. “Avrupa’da, özellikle de İskandinav ülkelerinde durum biraz daha iyi, ancak her halükarda kadınların yüzde 20’lik varlığı neredeyse hiçbir zaman aşılmıyor.” Bu payı artırmamız lazım. Elbette kız öğrenciler arasında STEM derecelerini teşvik etmek, ancak Girardi’ye göre “daha fazla rol modele de ihtiyacımız var. Doksanlı yıllarda avukatlarla ilgili diziler vardı, sonra doktorlarla ilgili diziler. Bugün teknolojinin kadınlarını kahramanlar olarak taçlandırmalıyız.”
Eski basmakalıp görüntüleri iyileştirecek yeni görüntüler. Scorza, “Medyanın büyük bir sorumluluğu olduğunu vurguluyor; medya, aynı zamanda felaket yanlıları ve meraklıları arasında kutuplaşmayan, ancak avantajlar ve tehlikeler hakkında doğru şekilde bilgi veren, algoritmalar hakkında dengeli bir anlatı sunmaktır”. Potansiyel önyargıları daha erken tespit etmek için yukarı yöndeki çalışmalarla birlikte gereklidir. “Avrupa Yapay Zeka Yasası – hukukçuya göre – etik açıdan sürdürülebilirliğini garanti altına almak için her algoritmik çözümün etki değerlendirmesini getiriyor”. Ancak aynı zamanda alt müdahalelere giden yol da var. Girardi, “Bu, sentetik verilerle yapılabilir; veri kümesi tam değilse veya önyargı üretiyorsa dengelenebilir” diyor. “Yüzde 90’ının orta yaşlı beyaz erkeklerden oluştuğu bir sistem düzeltilebilir.”