Las máquinas se comportan mal: por qué la IA nunca puede ser moral


Daniele Pucci del Instituto Italiano de Tecnología toma una instantánea del robot icub 3, que está diseñado para probar algoritmos de IA incorporados © Marco Bertorello/AFP/Getty Images

En una lista de las figuras más impactantes del siglo XX saltan varios nombres: Albert Einstein, Mahatma Gandhi y Franklin D Roosevelt en el lado positivo del libro mayor y ese trío de tiranos, Hitler, Stalin y Mao, que hizo un daño inexplicable. .

Pero en Máquinas que se comportan mal, Toby Walsh presenta un caso convincente de que 1000 años en el futuro (suponiendo que la humanidad sobreviva tanto tiempo) la respuesta será perfectamente clara: Alan Turing. Como pionero de la computación y fundador de la inteligencia artificial, Turing será visto como la fuerza intelectual impulsora detrás de la «tecnología omnipresente y crítica» que luego impregnará de manera invisible todos los aspectos de nuestras vidas. El matemático IJ Good, otro descifrador de códigos en Bletchley Park durante la Segunda Guerra Mundial, predijo que la invención de una «máquina ultrainteligente», tal como la imaginó Turing, conduciría a una «explosión de inteligencia».

“Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control”, escribió Good en 1965. Good pasó a asesorar a Stanley Kubrick en la fabricación de la película 2001: una odisea del espacioque presentó a los espectadores las maravillas y los peligros de una máquina ultrainteligente de este tipo, llamada HAL 9000.

Aunque es fascinante especular cómo la inteligencia artificial habrá cambiado el mundo para el año 3022, Walsh centra la mayor parte de su atención en el aquí y ahora. Es posible que las computadoras que tenemos hoy en día aún no coincidan con la inteligencia de un niño de dos años, argumenta, pero la IA ya se está utilizando para una variedad impresionante y en constante expansión de propósitos: detectar malware, verificar contratos legales en busca de errores, identificar el canto de los pájaros, el descubrimiento de nuevos materiales y (controvertidamente) la predicción del crimen y la programación de patrullas policiales. El objetivo de Walsh es hacernos pensar en las consecuencias no deseadas del uso de una tecnología tan poderosa en todas estas y otras formas.

Como profesor de IA en la Universidad de Nueva Gales del Sur, Walsh está entusiasmado con el poder y la promesa de la tecnología. Las computadoras pueden ayudar a automatizar los trabajos sucios, difíciles, aburridos y peligrosos que no son adecuados para los humanos. La policía india ha utilizado tecnología de reconocimiento facial para identificar a 10.000 niños desaparecidos. La IA también se está utilizando para combatir la emergencia climática mediante la optimización de la oferta y la demanda de electricidad, la predicción de patrones climáticos y la maximización de la capacidad de la energía eólica y solar. Pero Walsh insiste en que debemos pensar con mucho cuidado acerca de permitir que dicha tecnología se entrometa en todos los rincones de nuestras vidas. Las empresas de Big Tech que están implementando IA están motivadas por las ganancias en lugar del bien social.

La sección más interesante y original del libro se refiere a si las máquinas pueden operar de manera moral. Uno de los experimentos más grandes y fascinantes en esta área es el Maquina Moral proyecto dirigido por el Media Lab del Instituto Tecnológico de Massachusetts. Esta plataforma digital se ha utilizado para recopilar las decisiones morales de 40 millones de usuarios, interrogándolos sobre los procesos de toma de decisiones de los automóviles autónomos, por ejemplo.

¿Cómo reaccionan los usuarios ante el dilema moral conocido como el “problema del trolebús”, ideado por la filósofa inglesa Philippa Foot en 1967? ¿Cambiarías el curso de un trolebús fuera de control para evitar que mate a cinco personas en una vía a costa de matar? otra persona en un estímulo alternativo? En las encuestas, alrededor del 90 por ciento de las personas dicen que salvarían las cinco vidas a costa de una.

Pero, como muchos científicos informáticos, Walsh es escéptico sobre la aplicabilidad de elecciones morales tan claras y sobre si alguna vez podrían escribirse en el sistema operativo de una máquina. Primero, a menudo decimos una cosa y hacemos otra. En segundo lugar, algunas de las cosas que hacemos sabemos que no deberíamos (pedir helado cuando estamos a dieta). En tercer lugar, el crowdsourcing moral depende de las elecciones de un grupo autoseleccionado de usuarios de Internet, que no reflejan la diversidad de las diferentes sociedades y culturas. Finalmente, las decisiones morales que toman las máquinas no pueden ser el promedio borroso de lo que la gente tiende a hacer. La moralidad cambia: las sociedades democráticas ya no niegan a las mujeres el voto ni esclavizan a las personas, como antes lo hacían.

“Hoy no podemos construir máquinas morales, máquinas que capturen nuestros valores humanos y que puedan rendir cuentas por sus decisiones. Y hay muchas razones por las que sospecho que nunca podremos hacerlo”, escribe Walsh.

Pero eso no significa que se deba dejar que las empresas que implementan IA se vuelvan locas. Los legisladores tienen la responsabilidad de delinear dónde es aceptable que los algoritmos sustituyan la toma de decisiones humana y dónde no. Walsh es un activista activo contra el uso de robots asesinos o sistemas de armas autónomos letales. Hasta la fecha, 30 países han pedido a la ONU que prohíba este tipo de armas, aunque ninguna de las principales potencias militares del mundo se encuentra todavía entre ellos.

Para un tecnólogo, Walsh insiste de manera refrescante en la primacía de la toma de decisiones humana, incluso si a menudo es defectuosa. “Podría ser mejor tener empatía humana y responsabilidad humana a pesar de la falibilidad humana. Y esto puede ser preferible a la lógica de las máquinas frías, irresponsables y un poco menos falibles”, concluye.

Máquinas que se comportan mal: La moralidad de la IA por Toby Walsh, Flint £ 20, 288 páginas

Juan Thornhill es el editor de innovación de FT

Únase a nuestro grupo de libros en línea en Facebook en FT Libros Café



ttn-es-56