¿La inteligencia artificial es humana? La pregunta no está vacía. Y la respuesta es sí


L¿La inteligencia artificial es el hombre? La pregunta no está vacía. Y la respuesta es sí, la IA no es tan neutral como cabría esperar, y es mucho más probable que sea un hombre que una mujer. no es solo porque los informáticos y programadores que les dan vida son, en cualquier parte del planeta, abrumadoramente hombres.

Fotograma de la película Coded Bias de Joy Buolamwini sobre los riesgos del uso no regulado de la inteligencia artificial que, en su caso, no “reconocía” el rostro de una mujer negra. En esta foto, el reconocimiento facial permite a un inquilino acceder a su alojamiento. Sin embargo, varios datos sensibles están asociados con los datos antropométricos (como – penúltima línea – el número de pagos de alquiler atrasados).

La inteligencia artificial es masculina porque está, en esencia, rediseñando el planeta a partir del modelo económico, social, simbólico que domina.el que, de hecho, sigue con ordenado automatismo a favor de los machos, en perjuicio de la otra mitad. La Unesco, alarmada por la deriva discriminatoria subyacente a esta revolución masiva y disruptiva, reunió a los 193 países miembros para entender cómo reaccionar: «Los algoritmos y sistemas de inteligencia artificial tienen el poder de difundir y reforzar los estereotipos y prejuicios de género, que corren el riesgo de marginar a las mujeres a escala mundial. Considerando la creciente presencia de la inteligencia artificial en nuestras sociedades, esto podría colocar a las mujeres en una posición de rezago en los ámbitos económico, político y social”, escribió la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura en su Informe 2020 Inteligencia Artificial e Igualdad de Género.

Si el algoritmo está sesgado

Evidencia de cuán lejos de los algoritmos neutrales cristalizar si las muchas brechas entre hombres y mujeres no aumentan hasta hacerlos irrecuperables son ahora muchos y apremiantes. Entre los casos que han hecho escuela está el de La tarjeta de crédito Apple de Goldman Sachs, acusada en su debut de discriminar a las mujeres porque sus algoritmos establecerían límites de gasto más bajos para las mujeres, como tal. Tweets famosos de empresarios tecnológicos famosos, como David Heinemeier Hanssonel programador del famosísimo framework de desarrollo web Rubí – que se preguntaban, asombrados, cómo era posible que sus esposas, con las que vivían en comunión de bienes o compartían cuentas bancarias, fueran consideradas menos fiables que ellos y por tanto merecieran límites de gasto considerablemente más bajos. El algoritmo resultó no menos sexista que Amazon desarrolló para identificar candidatos potenciales navegando por la web y abandonó inmediatamente tan pronto como se dio cuenta de que marginaba a las mujeres para trabajos técnicos como, por ejemplo, el desarrollador de software.

Atlas, el primer robot humanoide que corre por el bosque

«Vicio» de la humanidad

«La cuestión es que la inteligencia artificial cae involuntariamente en el prejuicio y la discriminación exactamente como lo hace la mente humana porque, al final, el algoritmo es un artefacto humano» explica Alessandra SalaDirector de Inteligencia Artificial y Ciencia de Datos de la plataforma americana Shutterstock y Presidente Global de Mujeres en IA, organización sin ánimo de lucro que actúa en 120 países a favor de una Inteligencia Artificial justa, ética e inclusiva.

La iniquidad está en el método

Le pedimos a Alessandra Sala que lo explique fácilmente el mecanismo a través del cual el algoritmo inventa una decisión injusta es comprensible. «Tomemos un programa de inteligencia artificial desarrollado en el área de TI de una gran empresa para realizar, a la hora de abrir nuevos puestos de trabajo, el desnatado inicial, basto, entre cientos de planes de estudio disponibles. Digamos que el puesto vacante es en el área de tecnología. Para que el algoritmo identifique al candidato o candidata con las mejores habilidades y capacidades, el especialista que lo programa primero debe identificar las características que pueden asociarse con el éxito. Lo más probable es que el profesional reconozca en primer lugar, en el gran grupo de empleados presentes y pasados ​​del grupo, aquellos que han construido una carrera válida a lo largo del tiempo, luego de cada uno de ellos extrapolará datos como sexo, tipo de alta escuela, facultad y universidad a la que asistieron más que el grado de grado o, quizás, el área geográfica de procedencia y demás», explica Sala. “El programador, en esencia, construirá correlaciones entre el éxito y una serie de datos históricos que ha elegido privilegiar y se los enseñará a la inteligencia artificial.. Este es el punto: si, como sucede con frecuencia, las mujeres exitosas en el sector de la tecnología son y siempre han sido muchas menos que los hombresel algoritmo terminará subestimar la relación entre la mujer y el éxito y, con ello, favorecer a los candidatos masculinos”, subraya el directivo.

«Lo mismo ocurre si el programador correlaciona el éxito con venir de universidades de excelencia, porque tradicionalmente lo mejor ha salido de allí.: el resultado es que los procesos de selección seguirán excluyendo diferentes orígenes, con graves perjuicios para muchas personas excelentemente formadas, pero también para las propias empresas, que corren el riesgo de perder talento potencial. Si mi currículum hubiera sido seleccionado con un proceso de IA, probablemente no existiría en este lugar ahora.»Dice Alessandra Sala.

Dice que como estudiante universitaria – muy joven, mujer, además venida del Sur y de una universidad no entre las más conocidas – Tuve una entrevista con un profesor que vino a Italia de la Universidad de California en Santa Bárbara. “Incluso mis publicaciones eran inferiores a las que se jactaban de otros candidatos, pero la profesora no se detuvo en los datos consignados en el currículum vitae: en el transcurso de ese cara a cara, que fue vivo y articulado, evidentemente vislumbró potencial, vislumbró un futuro, luego me llamó a los Estados Unidos. Me cambió la vida”, recuerda.

Entrenar el estereotipo

“El punto real, el que quema, es que las mujeres siempre están subrepresentadas en la monstruosa masa de datos que alimenta la inteligencia artificial: el aprendizaje automático, es decir, el subconjunto de inteligencia artificial que aprende automáticamente de los datos que recibe, perpetúa sistemáticamente esta desigualdad. Además, además de estar infrarrepresentadas, con frecuencia se las asocia a conceptos construidos sobre prejuicios”, concluye el presidente de Mujeres en IA. Solo por dar un ejemplo, los algoritmos de las aplicaciones de texto a imagen son capaces de crear bellas y perfectas imágenes de cualquier tema desde cero, basándose en una simple descripción textual de lo que se quiere representar. El algoritmo, de hecho, ha sido entrenado haciéndolo asimilar una enorme cantidad de imágenes tomadas de la Web. con las leyendas relativas que los describen y enseñándole a reconocer la conexión entre figura y descripción. Es una pena que, si se le pide que produzca imágenes asociadas con el término abogado o director ejecutivo, es probable que un sistema que no esté capacitado para superar los prejuicios de género procese figuras masculinaspero si la solicitud pretende representar el trabajo de la enfermera o de un asistente personal, las personas representadas serán mayoritariamente mujeres, lo que confirma la visión estereotipada y todavía extendida de profesiones para hombres y profesiones para mujeres, las primeras cada vez más cualificadas y remuneradas para las último.

Del prejuicio a la regla compartida

En definitiva, si producimos datos condicionados por el sexismo, la discriminación, las desigualdades existentes, los algoritmos aprenden sobre el sexismo y las desigualdades y, a través del aprendizaje automático, los automatizan hasta convertirlos en una regla. “El riesgo es que estas dinámicas, que tienen un poder de decisión sobre la vida de las personas, se automaticen y pasen a formar parte de la inteligencia artificial y, por lo tanto, se vuelvan perpetuas y, con el tiempo, tan opacas y poderosas que sea difícil impugnarlas. Incluso las leyes contra la discriminación tienen dificultades para identificarlas y golpearlas”, dice. ivana bartolettiVisiting Policy Fellow en la Universidad de Oxford y autor de Una revolución artificial: sobre el poder, la política y la IA.

La amenaza fantasma

Todo esto sucede en una indiferencia social generalizada: los algoritmos y sus sistemas automatizados de toma de decisiones ahora impregnan todos los aspectos de nuestra vida y existen diferentes formas a través de las cuales se crean y propagan los prejuicios, pero nosotros, que en la imaginación tendemos a reducir la inteligencia artificial a lo visible. creaciones como robots y androides, Todavía no hemos construido una conciencia adecuada de esto.» Agrega Bartoletti quien también es co-fundador de Red de mujeres líderes en IAuna red femenina que sensibiliza la tecnología y la política para llevar la transparencia al mundo de la Inteligencia Artificial. Bartoletti desea aclarar que las desigualdades que la inteligencia artificial puede replicar ciertamente no se agotan en términos de género..

Sentirse invisible

Se convirtió en una película – Sesgo codificadootorgado en Sundance Festival en 2020 la experiencia de un investigador del color del MIT en Boston – Joy Buolamwini, ghanesa naturalizada estadounidense -, quien partiendo de su experiencia personal ha investigado cómo los algoritmos pueden dañar a las minorías. Los sistemas de reconocimiento facial desarrollados por reconocidas empresas informáticas fallaron cuando su rostro quedó encuadrado por la cámara, impidiéndole así el acceso. Pero tan pronto como ella lo cubrió con una máscara blanca, el rostro fue reconocido.

A través del proyecto Sombras de género (matices de género), la investigadora ha demostró cómo diferentes programas tienen dificultades para reconocer a las mujeres mucho más que a los hombres, especialmente las mujeres de piel oscura. Hoy Joy Buolamwini, quien fue escuchada ante el Congreso de los Estados Unidos por sus trabajos, es la jefa de la programa Liga de la justicia algorítmicacuyo objetivo es recordar la responsabilidad en la planificación.

Inteligencia artificial, un entorno a proteger

¿Cómo sale? Los estados están desarrollando legislación para regular los algoritmos: la UE, por ejemplo, ha propuesto una Reglamento de Inteligencia Artificial en el que la mesa sigue abierta. «En Estados Unidos, el Instituto Nacional de Estándares y Tecnología ha hecho una serie de recomendaciones para evitar distorsiones. Las reglas son fundamentales» especifica Bartoletti, convencida de que el entorno tecnológico debe ser protegido, a través de las normas, exactamente como el entorno natural. Entonces tienen que estar allí. más mujeres para diseñar Inteligencia Artificial y equipos de tecnología nutridos por una gran diversidad de orígenes, porque mientras solo los hombres blancos diseñen, solo habrá una perspectiva y una dirección única.

«Las empresas tienen a su disposición procesos técnicos y matemáticos e muchas herramientas para lograr resultados más equitativos, pero esto presupone que haya una clara voluntad de hacerlo, en definitiva, que se haga una elección ética» añade Bartoletti. Finalmente, dice en un Ted, «necesitamos que cada uno de nosotros desarrolle curiosidad sobre el tema y, exactamente como hacemos cuando estudiamos la etiqueta de un producto alimenticio que pretendemos comprar y miramos de qué está hecho, preguntarse , frente a estos artefactos tecnológicos, con qué datos se alimentaron, dónde se crearon, qué tan transparentes son y buscas información sobre las decisiones que toman. Sin asumir nunca que estas decisiones son neutrales, porque no pueden ser neutrales. La tecnología es hermosa, la inteligencia artificial es hermosa ya que tiene grandes premisas para todos, pero hay que asegurarse de que la innovación, es decir tan importante, no te afirmes sacrificando las batallas realizadas y aún inconclusas en el camino hacia la igualdad«.

iO Donna © REPRODUCCIÓN RESERVADA



ttn-es-13