Microsoft restringirá su software de reconocimiento facial por cuestiones éticas


Tay. Era el nombre de un chatbot puesto por Microsoft en Twitter en 2016. Se sabe que se volvió racista en un tiempo récord. Desde entonces, la empresa se ha esforzado por desarrollar una IA responsable. Es en este contexto que anunció el 21 de junio retirar ciertas funcionalidades de sus herramientas de reconocimiento facial.

Restringir las capacidades de la IA

A partir de esta semana, Microsoft dejará de ofrecer herramientas de reconocimiento facial capaces de identificar el sexo, la edad o el estado emocional de una persona. Para aquellos que ya cuentan con esta tecnología, estas funciones estarán deshabilitadas durante todo el año.

En la misma categoría

Un centro de datos.

Los gigantes tecnológicos están utilizando IA para operar sus centros de datos

La empresa cree que estas características plantean problemas de confiabilidad y potencialmente de discriminación. Natasha Crampton, jefa de IA en Microsoft, le dijo al New York Times desear » calidad de servicio similar para grupos demográficos identificados, incluidos los grupos marginados «.

Microsoft también reforzará los controles puestos en marcha antes de vender una de sus herramientas de identificación basada en reconocimiento facial. Sus clientes tendrán que explicar para qué lo necesitan. En particular, si estas herramientas se pueden desviar de su uso inicial como Custom Neural Voice: utilizada para imitar una voz, por ejemplo, para traducciones con una misma voz, se puede desviar en forma de un «sonido profundo falso».

Previamente a la comercialización de estas tecnologías, Microsoft pretende estudiar el impacto de su uso para la obtención de un empleo, el acceso a la educación, la sanidad, los servicios financieros… El objetivo es encontrar » soluciones válidas a los problemas que deben resolver “, asegura Natasha Crampton, mientras evita efectos perversos.

Los sistemas de IA, en los que se basa el software de reconocimiento facial, son conocidos por sus sesgos sexistas y racistas. También son herramientas represivas formidables en manos de personas desagradables y especialmente de regímenes.

Microsoft y otros llamados a un marco legislativo de la industria

En 2020, Microsoft suspendió una inversión en AnyVision después de enterarse de que la tecnología de reconocimiento facial de la empresa se estaba utilizando para discriminar a los palestinos. Desde entonces, ha detenido todas las participaciones minoritarias en empresas de este tipo. El mismo año, la empresa, junto con Amazon e IBM, suspendió la venta de sus sistemas a la policía estadounidense, tras la represión de las protestas de Black Lives Matter.

El Grupo de Ética de IA de Microsoft, al que se unió Natasha Crampton en 2018, desarrolló un documento de 27 páginas de estándares de IA durante dos años. Una serie de requisitos para evitar que el uso de estas tecnologías por parte de algunos tenga un impacto negativo en la sociedad.

Microsoft y otros han pedido durante mucho tiempo una legislación adaptada a la industria de la IA. Para Natasha Crampton Este es un momento crucial para establecer estándares en inteligencia artificial «. El directivo ve con buenos ojos las recientes iniciativas europeas que van en esta dirección. Mientras tanto, las empresas son libres de elegir si disciplinarse o no como Microsoft.



ttn-es-4