orası doğru Kaliforniya Tüketici Gizliliği Yasası (CCPA) ve bağlayıcı olmayan belgeler, örneğin Yapay Zeka Haklar Bildirgesi Taslağı. Ancak, şu anda teknoloji şirketlerinin yapay zeka yanlılığını ve ayrımcılığını nasıl azaltması gerektiğini belirleyen herhangi bir standart düzenleme bulunmamaktadır.

Sonuç olarak, birçok şirket etik, gizliliğe öncelik veren araçlar geliştirme konusunda geride kalıyor. Az kalsın %80 ABD’deki veri bilimcilerin %66’sı erkek ve %66’sı beyaz, bu da otomatik karar verme araçlarının geliştirilmesinde doğal bir çeşitlilik ve demografik temsil eksikliği olduğunu gösteriyor ve bu da genellikle çarpık veri sonuçlarına yol açıyor.

Teknoloji şirketlerinin ürünlerini oluştururken ve değiştirirken tüm insanları hesaba katmasını sağlamak için tasarım inceleme süreçlerinde önemli iyileştirmeler yapılması gerekiyor. Aksi takdirde kuruluşlar müşterilerini rekabete kaptırma, itibarlarını zedeleme ve ciddi davalar açma riskine girebilirler. IBM’e göre, yaklaşık %85 BT uzmanlarının oranı, tüketicilerin yapay zeka algoritmalarının nasıl oluşturulduğu, yönetildiği ve kullanıldığı konusunda şeffaf olan şirketleri seçtiğine inanıyor. Daha fazla kullanıcı zararlı ve önyargılı teknolojiye karşı tavır almaya devam ettikçe bu sayının artmasını bekleyebiliriz.

Peki şirketlerin prototiplerini analiz ederken nelere dikkat etmesi gerekiyor? İşte geliştirme ekiplerinin kendilerine sorması gereken dört soru:

Prototipimizde her türlü yanlılığı eledik mi?

Teknoloji, bildiğimiz şekliyle toplumda devrim yaratma yeteneğine sahiptir, ancak herkese aynı şekilde fayda sağlamazsa nihayetinde başarısız olacaktır.

Etkili, önyargısız bir teknoloji oluşturmak için AI ekipleri, inceleme sürecinde sorulacak ve modellerindeki olası sorunları belirlemelerine yardımcı olabilecek bir soru listesi geliştirmelidir.

Yapay zeka ekiplerinin modellerini değerlendirmek için kullanabileceği birçok metodoloji vardır, ancak bunu yapmadan önce, nihai hedefi ve yapay zeka kullanımının sonuçlarından orantısız bir şekilde etkilenebilecek herhangi bir grup olup olmadığını değerlendirmek çok önemlidir.

Örneğin, yapay zeka ekipleri, yüz tanıma teknolojilerinin kullanımının yanlışlıkla beyaz olmayan insanlara karşı ayrımcılık yapabileceğini dikkate almalıdır – bu, yapay zeka algoritmalarında çok sık meydana gelen bir şeydir. Yürütülen araştırma Amerikan Sivil Özgürlükler Birliği tarafından 2018’de Amazon’un yüz tanıma özelliğinin ABD Kongresi’nin 28 üyesini sabıka fotoğraflarıyla yanlış bir şekilde eşleştirdiğini gösterdi. Yanlış eşleşmelerin şaşırtıcı bir şekilde %40’ı, Kongre’nin yalnızca %20’sini oluşturmalarına rağmen renkli insanlardı.

AI ekipleri, zorlayıcı sorular sorarak modellerini iyileştirmenin yeni yollarını bulabilir ve bu senaryoların oluşmasını önlemek için çabalayabilir. Örneğin, ayrıntılı bir inceleme, daha fazla veriye bakmaları gerekip gerekmediğini veya ürünlerini incelemek için gizlilik uzmanı gibi bir üçüncü tarafa ihtiyaç duyup duymadıklarını belirlemelerine yardımcı olabilir.

Plot4AI başlamak isteyenler için harika bir kaynak.



genel-24