Los investigadores de IA piden más retrospectiva


La inteligencia artificial (IA) es un campo complejo en el que muchas empresas tecnológicas depositan sus esperanzas. Si el progreso técnico es cada vez más impresionante, los investigadores piden a las empresas que reduzcan sus expectativas para ser más justas y éticas. Es lo que plantea el Wall Street Journal en una investigación publicada el pasado 29 de junio.

El despertar de la inteligencia artificial

Este es el caso de LamDA, una de las IA emblemáticas de Google conocida por mantener con éxito conversaciones complejas con humanos mientras puede encarnar una entidad, lo que alertó a los investigadores de ética a principios de junio. Blake Lemoine, ingeniero de software de Alphabet, la empresa matriz de Google, dijo que esta IA, en la que estaba trabajando, tenía conciencia. En particular, habría pedido tener derecho al consentimiento para la investigación de la que es objeto. Después de una extensa investigación de un centenar de investigadores e ingenieros, Google ha refutado las palabras de su exempleado, puesto en licencia administrativa desde el 6 de junio, a raíz del caso.

En la misma categoría

Lente conectada de Mojo Lens.

Las lentes conectadas Mojo Vision tienen un prototipo funcional

Este fervor por las IA capaces de replicar meticulosamente el comportamiento humano está empujando a algunas empresas a exagerar las capacidades de su IA. Esto puede alterar la visión de las autoridades reguladoras en cuanto a la confiabilidad de estas tecnologías.

Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial, un instituto de investigación de inteligencia artificial con sede en Seattle, dijo al Wall Street Journal que ” Ya no somos objetivos “. Según él, esta falta de objetividad se siente en las decisiones que se toman cuando estalla un escándalo.

Ética e IA

Varias personas ya han advertido sobre los peligros éticos que plantea la inteligencia artificial. A fines de 2020, Timnit Gebru, codirector de la rama de ética de IA de Google, fue despedido abruptamente luego de realizar un estudio que expuso las debilidades de una tecnología de IA que impulsa el famoso motor de búsqueda de la compañía. A ella se unió dos meses después Margaret Mitchell, quien ocupaba el mismo cargo. Este último fue despedido después de escribir un artículo que señalaba cómo Google estaba vendiendo su IA como “la mejor del mundo” a sus accionistas.

En su último artículo escrito como empleados, los dos investigadores aclararon que al tener capacidades similares a las de los humanos, las tecnologías de IA tienen la capacidad de causar daño. Estos despidos precipitados llevaron a la renuncia, en abril de 2021, de otro ejecutivo de Google, Samy Bengio”, aturdido por la situación Fue cofundador de Google Brain, una división de Google dedicada a la inteligencia artificial.

Si bien las empresas utilizan principalmente la IA para recopilar datos de usuarios o facilitar la investigación, algunas llevan el concepto más allá. Al inicio de la pandemia, IBM había recibido una propuesta para diseñar una IA capaz de identificar a una persona con fiebre y enmascarada. Una oferta que fue rechazada por la empresa por considerarla demasiado intrusiva y desproporcionada.

También se han abandonado otros proyectos ambiciosos. En 2015, Google analizó emociones como la alegría, la ira, la sorpresa o la tristeza utilizando IA. Al considerar otras emociones, el comité de ética de la empresa, el Consejo de Revisión de Tecnología Avanzada, decidió no continuar con el estudio. Sus miembros sintieron que las señales faciales pueden fluctuar entre culturas y que la probabilidad de sesgo era demasiado grande. Más recientemente, Microsoft optó por restringir Custom Neural Voice, su software de suplantación de voz, por temor a que las voces de las personas se utilizaran sin su consentimiento.

Las autoridades mundiales están cuestionando la ética de la IA. En noviembre de 2021, la UNESCO adoptó el primer acuerdo sobre la ética de la inteligencia artificial. Esto requiere que las empresas del sector tecnológico sean transparentes sobre su investigación y el funcionamiento de su IA. Su objetivo es dar más control a las personas dándoles el poder de controlar sus datos personales.

Por su parte, la Unión Europea busca dotar de un marco legislativo a la inteligencia artificial. La comisión especial de inteligencia artificial en la era digital del Parlamento Europeo se reunió el pasado mes de marzo para fijar unos estándares mínimos para el uso responsable de esta tecnología. Está especialmente interesado en la seguridad de los ciudadanos, su derecho a la intimidad y la protección de datos.



ttn-es-4