Tay. Microsoft’un 2016 yılında Twitter’a koyduğu bir chatbotun adıydı. Rekor sürede ırkçılık yaptığı biliniyor. O zamandan beri şirket sorumlu yapay zeka geliştirmeye çalışıyor. Bu bağlamda, 21 Haziran’da yüz tanıma araçlarından belirli işlevlerin kaldırılacağını duyurdu.

Yapay zeka yeteneklerini kısıtlayın

Bu haftadan itibaren Microsoft, bir kişinin cinsiyetini, yaşını veya duygusal durumunu tanımlayabilen yüz tanıma araçları sağlamayacaktır. Halihazırda bu teknolojiye sahip olanlar için bu özellikler yıl boyunca devre dışı bırakılacaktır.

aynı kategoride

Bir veri merkezi.

Teknoloji devleri, veri merkezlerini çalıştırmak için AI kullanıyor

Şirket, bu özelliklerin güvenilirlik ve potansiyel olarak ayrımcılık sorunları oluşturduğuna inanmaktadır. Microsoft’ta yapay zeka başkanı Natasha Crampton şunları söyledi: New York Times dilemek ” marjinal gruplar da dahil olmak üzere tanımlanmış demografik gruplar için benzer hizmet kalitesi “.

Microsoft, yüz tanımaya dayalı tanımlama araçlarından birini satmadan önce uygulanan kontrolleri de güçlendirecek. Müşterileri, hangi kullanım için ihtiyaç duyduklarını açıklamak zorunda kalacaklar. Özellikle, bu araçlar Özel Nöral Ses olarak ilk kullanımlarından saptırılabilirse: örneğin tek ve aynı sesle yapılan çeviriler için bir sesi taklit etmek için kullanılırsa, “derin sahte ses” şeklinde yönlendirilebilir.

Microsoft, bu teknolojilerin pazarlanmasından önce, iş bulma, eğitime erişim, sağlık, finansal hizmetler için kullanımlarının etkisini araştırdığını iddia ediyor… Amaç, ” çözmeleri gereken sorunlara geçerli çözümler “, Natasha Crampton’a güvence verirken, sapkın etkilerden kaçınıyor.

Yüz tanıma yazılımının dayandığı yapay zeka sistemleri, önyargıları, cinsiyetçiliği, ırkçılığıyla biliniyor. Aynı zamanda, nahoş insanların ve özellikle rejimlerin elindeki müthiş baskı araçlarıdır.

Microsoft ve diğer sektörler için yasal çerçeve çağrısı

2020’de Microsoft, şirketin yüz tanıma teknolojisinin Filistinlilere karşı ayrımcılık yapmak için kullanıldığını öğrendikten sonra AnyVision’a yaptığı yatırımı askıya aldı. O zamandan beri bu tür şirketlerdeki tüm azınlık holdinglerini durdurdu. Aynı yıl, Amazon ve IBM ile birlikte şirket, Black Lives Matter protestolarına yönelik baskıların ardından sistemlerini ABD polisine satma konusunda bir moratoryum ilan etti.

2018’de Natasha Crampton’ın katıldığı Microsoft’taki AI Etik Grubu, iki yıl boyunca 27 sayfalık bir AI standartları belgesi geliştirdi. Bu teknolojilerin bazılarının toplum üzerinde olumsuz bir etki yaratmasını önlemek için bir dizi gereklilik.

Microsoft ve diğerleri, uzun zamandır AI endüstrisine göre uyarlanmış mevzuat çağrısında bulundular. Natasha Crampton için Yapay zekada standartları belirlemek için çok önemli bir zaman. “. Yönetici, bu yönde ilerleyen son Avrupa girişimlerine olumlu bir gözle bakıyor. Bu arada şirketler, Microsoft gibi kendilerini disipline edip etmeme konusunda özgürdürler.



genel-16