Tina Eliassi-Rad Amerikalı bir bilim insanıdır. Yapay zekanın evrimsel senaryoları üzerinde çalıştığı Boston’daki Northeastern Üniversitesi’nde profesördür. Haziran ayında karmaşık sistemler ve veriler biliminin en önemli uluslararası ödülü olan Lagrange Ödülü’nü aldı. Crt Vakfı (Turin Tasarruf Bankası) tarafından kurulup finanse edilir ve Isi Vakfı (Bilimsel Değişim Enstitüsü) tarafından koordine edilir. Ve uluslararası alanda yapay zeka konusunda eleştirel bir ses olarak kabul ediliyor
Yapay zekayla ilişkili bazı potansiyel tehlikeler veya riskler nelerdir?
Yapay zeka teknolojisinin kullanımına ilişkin potansiyel tehlikeler ve riskler halihazırda mevcuttur. Bunlar arasında sorumluluk eksikliği, işçilerin sömürülmesi, gücün daha fazla yoğunlaşması, kontrolsüz gözetim, düzenlenmemiş otomasyon ve olumsuz iklim değişikliği yer alıyor. Örneğin iklim değişikliğini ele alalım. Büyük teknoloji şirketleri, OpenAI’nin ChatGPT’si gibi üretken yapay zeka teknolojilerinin karbon ayak izini açıklamıyor. Ancak en iyi tahminler, ChatGPT oluşumunun 500 metrik ton karbondioksit saldığını gösteriyor; bu, ortalama benzinle çalışan bir arabanın kat ettiği bir milyon milden fazlasına eşdeğer. Bu üretken yapay zeka teknolojilerinden birçoğuna sahipsek, bunların iklim değişikliğine olan katkısı göz ardı edilemez.
Yapay zeka sistemleri önyargı ve ayrımcılığa karşı nasıl savunmasız olabilir ve bu önyargıların sonuçları nelerdir?
Hemen hemen tüm modern yapay zeka sistemleri makine öğrenimini kullanır. Arthur Samuel’in 1959’da tanımladığı gibi makine öğrenimi, “bilgisayarlara açıkça programlanmadan öğrenme yeteneği veren çalışma alanıdır.” Önyargı ve ayrımcılık, makine öğrenimi yaşam döngüsünün herhangi bir aşamasında ortaya çıkabilir: görev tanımından veri kümesi oluşturmaya, model tanımına, eğitim, test ve dağıtım süreçlerine ve son olarak geri bildirime kadar. Görevin tanımını ele alalım. Popüler bir görev, yapay zeka sisteminin riski belirtmek için 0 ile 10 arasında bir değer sağladığı risk değerlendirmesidir. Örneğin Jack’in krediyi ödeyememe riski 8 iken Jill’in riski 2’dir. Dolayısıyla Jill’in krediyi alma olasılığı daha yüksektir. Yapay zeka araştırmacıları ve uygulayıcıları risk değerlendirmesi hakkında çok şey biliyor. İnsan karar vericiler, risk değerlendirmesi çıktılarını takdir ediyor çünkü anlaşılması kolay. Ancak risk değerlendirmesiyle ilgili çok sayıda sorun vardır. İşte onlardan sadece ikisi. Birincisi, risk değerlendirmesine yönelik çoğu yapay zeka sistemi belirsizlik değerleri sağlamaz, yani sistemin risk puanı konusunda ne kadar emin veya belirsiz olduğunu göstermez. Amerika Birleşik Devletleri’ndeki bir davada, bir yargıç, avukatlar tarafından müzakere edilen bir savunma anlaşmasını sırf AI sisteminin sanığa yüksek risk puanı vermesi nedeniyle iptal etti. Yapay zeka sistemi yalnızca %40 güvenli olduğunu söyleseydi hakim farklı davranabilirdi. İkincisi, çoğu yapay zeka sistemi, sistemin neden birine belirli bir risk puanı atadığını insanın anlayamadığı kara kutulardır. Yapay zeka sistemine ilişkin herhangi bir açıklama ya da çapraz inceleme bulunmuyor.