Geoffrey Hinton, el pionero de la IA que se arrepiente de su invento al jubilarse


Geoffrey Hinton: «Es difícil ver cómo puedes evitar que las fuerzas del mal usen la IA para cosas malas».Imagen Chloe Ellingson / The New York Times

A los 75 años, por supuesto, puede despedirse con calma y recibir con modestia las amables palabras de su jefe con una sonrisa, mientras sus colegas y seres queridos lavan un bloque de queso elástico con cerveza tibia. Eso no es lo que eligió Geoffrey Hinton.

en un entrevista de Los New York Times, a principios de este mes, Hinton expresa su preocupación por la velocidad y la dirección en la que se desarrolla actualmente la IA. «Es difícil ver cómo se puede evitar que las fuerzas del mal lo usen para cosas malas», dijo el jubilado. Su mensaje golpea como una bomba.

Sobre el Autor
Laurens Verhagen prescribe de Volkskrant sobre tecnología, internet e inteligencia artificial. Antes de eso, fue editor en jefe de nu.nl.

El momento de Hinton es perfecto: en marzo, el Future of Life Institute publicó una carta abierta en la que los expertos advierten sobre los riesgos de la IA. A partir de entonces, el debate sobre la IA ha estado dominado por la cuestión de si la IA está realmente al borde de perder el control humano. Hilton no firmó esa carta porque todavía estaba asociado con Google en ese momento. Pero ahora puede hablar libremente.

Hinton es conocido como uno de los tres padrinos de la IA. Junto con el mucho más famoso Yann LeCun (el jefe de IA en Meta) y Yoshua Bengio ganó el Premio Turing en 2018 por su trabajo fundamental sobre redes neuronales.

Este ‘Premio Nobel de informática’ es la coronación de su trabajo pionero, que se remonta a la década de 1970. Esos son los años oscuros de la IA: después de la esperanzadora década de 1950, en la que el matemático británico Alan Turing (que da nombre al premio) sentó las bases de la IA, siguió un largo invierno de IA con inversiones en declive y pocos avances.

Durante esos años, Hinton estudia IA en Edimburgo, habiendo completado previamente una licenciatura en psicología en Cambridge. Hinton nunca dejará de lado la idea de las redes neuronales (artificiales). Tal red, vagamente inspirada en el cerebro humano, consta de varios puntos que están interconectados. La red se entrena a sí misma fortaleciendo, debilitando o incluso no usando esas conexiones en absoluto.

Más tarde, en la década de 1980, se traslada a Estados Unidos, pero en la era Reagan da la espalda desilusionado a su segunda patria. No le gusta la financiación de la investigación de IA por parte del Ministerio de Defensa, que es habitual en ese momento. La IA no tiene cabida en el campo de batalla, según cree Hinton.

Se va a Canadá para trabajar en una red neuronal que se entrena con imágenes y que luego puede reconocer objetos en fotos. Ahora todo el mundo piensa que es completamente normal que una aplicación de fotos haga eso, pero hace diez años todavía era una novedad.

Google lo encuentra tan prometedor que tiene $ 44 millones para comprar DNNresearch, la compañía que cofundó Hinton. Además de su trabajo en el gigante tecnológico, sigue trabajando en la universidad de Toronto. Si El Telégrafo Al visitarlo en 2017, según el periódico, todavía tiene todas las características del típico académico británico: ‘pelo despeinado; camisa arrugada con un aluvión de bolígrafos en el bolsillo superior y flanqueado por una pizarra enorme y sucia llena de ecuaciones incomprensibles’.

Estas formulaciones matemáticas, que desconciertan al mundo exterior, ahora son la base de poderosas aplicaciones como ChatGPT y Bard (el chatbot de Google, que es comparable a ChatGPT). Es precisamente la llegada de este tipo de IA lo que ahora ha llevado a Hinton a nuevos conocimientos.

A corto plazo, le preocupa la avalancha de desinformación que se derramará por todo el mundo gracias a programas como ChatGPT. Esta preocupación ampliamente compartida se ve eclipsada por las perspectivas algo más exuberantemente formuladas que también describe Hinton, en parte provocadas por su reciente asombro de que el modelo de lenguaje PaLM de Google podría explicar un chiste suyo.

Solía ​​pensar que la IA tardaría décadas en llegar al punto en que se volviera más inteligente que los humanos, pero ahora ha revisado su predicción: sucederá mucho antes. Y eso, en última instancia, también puede conducir a otros peligros, hasta la desaparición de la humanidad.

Esto último lo convierte de un solo golpe en el más controvertido de lo que nunca ha sido. Esta perspectiva a largo plazo lo coloca en el campo de la ciencia ficción, dicen algunos de sus críticos. Y peor aún: cuando sus colegas de IA en Google, Timnit Gebru y Meg Mitchell, advirtieron hace años sobre los grandes peligros de la IA (a saber: la IA que se usa de manera irresponsable en manos de grandes multinacionales y que pone en desventaja a las minorías basándose en datos no neutrales). ), Hinton no estaba a la vista, recuerda otra destacada ex-Googler, Meredith Whittaker.

Tanto Gebru como Mitchell fue despedido por Google, y Hinton es todavía no estoy impresionado de sus advertencias. Por lo tanto, Whittaker dice que su gira de despedida fue decepcionante, pero tanto los medios como el público adoran su historia.

3x Geoffrey Hinton

– Hinton perdió a su primera esposa (Ros) en 1994 por cáncer de ovario. Juntos adoptaron previamente a dos niños, cuyo cuidado pasó a manos de Hinton después de 1994. Unos años más tarde se volvió a casar con Jackie, pero el mes pasado su segunda esposa murió de cáncer a la edad de 59 años.

– Hinton no es ajeno a su interés por las matemáticas. Su tatarabuelo es George Boole, quien a mediados del siglo XIX fue el primero en desarrollar un sistema algebraico para la lógica, sentando así las bases de la informática. La lógica booleana sigue siendo un nombre familiar.

– A Hinton no le gusta la obsesión por la inmortalidad de algunos de sus colegas de IA. «Ray quiere ser inmortal», dice en una revista de tecnología. cableado sobre la leyenda de la IA Ray Kurzweil. “La buena noticia es que hemos descubierto cómo hacer inmortales. Lo malo es que no lo somos.





ttn-es-23