‘El Padrino de la IA’ deja Google y advierte de los peligros: ‘Es aterrador’


Durante medio siglo, el pionero Geoffrey Hinton hizo de la tecnología detrás de ChatGPT y otros sistemas de inteligencia artificial el trabajo de su vida. Ahora está haciendo sonar la alarma.

cade metz

Geoffrey Hinton fue un pionero de la inteligencia artificial. En 2012, Hinton y dos de sus estudiantes de posgrado en la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de inteligencia artificial que las empresas más grandes de la industria tecnológica creen que son la clave de su futuro.

Pero el lunes se unió oficialmente a un creciente coro de críticos que dicen que esas empresas están peligrosamente involucradas en su agresiva campaña para crear productos basados ​​en IA generativa. Específicamente, esta es la tecnología que impulsa a los chatbots populares como ChatGPT.

Hinton dijo que dejará su trabajo en Google, donde pasó más de una década y se ha convertido en una de las voces más respetadas en el campo, para poder hablar libremente sobre los riesgos de la IA. Parte de él, dijo, ahora lamenta el trabajo de su vida.

«Me consuelo con la excusa común: si no lo hubiera hecho yo, alguien más lo habría hecho», dijo Hinton durante una larga entrevista la semana pasada en el comedor de su casa en Toronto, a poca distancia de donde él y sus alumnos experimentaron su avance.

El viaje de Hinton de pionero de la IA a agorero marca un momento notable para la industria de la tecnología en posiblemente su punto de inflexión más significativo en décadas. Los líderes de la industria tecnológica creen que los nuevos sistemas de inteligencia artificial podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y conducir a avances en campos que van desde la investigación de medicamentos hasta la educación.

Pero muchos expertos de la industria temen estar desatando algo peligroso en el mundo. La IA generativa ya puede ser una herramienta para la desinformación. Pronto podría suponer un riesgo para los puestos de trabajo. Y en algún momento en el futuro, dicen los más preocupados, podría representar un riesgo para la humanidad.

«Es difícil imaginar cómo se puede evitar que las fuerzas del mal lo usen para cosas malas», dijo Hinton.

Después de que la startup OpenAI de San Francisco lanzara una nueva versión de ChatGPT en marzo, más de mil líderes tecnológicos e investigadores firmaron una carta abierta pidiendo una moratoria de seis meses en el desarrollo de nuevos sistemas. Hicieron esto porque, en su opinión, las tecnologías de IA plantean «profundos riesgos para la sociedad y la humanidad».

Unos días después, diecinueve líderes actuales y anteriores de la Asociación para el Avance de la Inteligencia Artificial, una asociación académica de cuarenta años, publicaron su propia carta advirtiendo sobre los riesgos de la IA. Ese grupo incluía a Eric Horvitz, director científico de Microsoft, que utiliza la tecnología OpenAI en una variedad de productos, incluido el motor de búsqueda Bing.

Hinton, a quien a menudo se hace referencia como «el padrino de la IA», no firmó ninguna de estas cartas y dijo que no criticaría públicamente a Google ni a otras compañías hasta que dejara su trabajo. El mes pasado, le dijo a la compañía que renunciaría y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se niega a discutir públicamente los detalles de su conversación con Pichai.

El científico jefe de Google, Jeff Dean, dijo en un comunicado: “Seguimos comprometidos a adoptar un enfoque responsable de la IA. Estamos constantemente aprendiendo a comprender los riesgos emergentes al mismo tiempo que innovamos audazmente”.

red neuronal

Hinton, un expatriado británico de 75 años, es un académico cuya carrera se ha visto impulsada por sus creencias personales sobre el desarrollo y uso de la IA. En 1972, un recién graduado de la Universidad de Edimburgo, Hinton abrazó la idea de una red neuronal. Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. En ese momento, pocos investigadores creían en esto. Pero se convertiría en el trabajo de su vida.

En la década de 1980, Hinton era profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero dejó la universidad y se fue a Canadá diciendo que era reacio a aceptar fondos del Pentágono. Después de todo, en ese momento, la mayor parte de la investigación de IA en los Estados Unidos fue financiada por el Departamento de Defensa. Hinton se opone firmemente al uso de la IA en el campo de batalla, lo que describe como «soldados robot».

En 2012, Hinton y dos de sus alumnos en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.

Luego, Google gastó 44 millones de dólares para adquirir la empresa fundada por Hinton y sus dos alumnos. Su sistema condujo a la creación de tecnologías cada vez más poderosas, incluidos nuevos chatbots como ChatGPT y Google Bard. Más tarde, Sutskever también se convirtió en científico jefe de OpenAI. En 2018, Hinton y otros dos colaboradores de mucho tiempo recibieron el Premio Turing, también conocido como «el Premio Nobel en informática», por su trabajo en redes neuronales.

Imagen REUTERS

Casi al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de cantidades masivas de texto digital. Hinton pensó que era una forma poderosa para que las máquinas entendieran y generaran lenguaje, pero que era inferior a la forma en que los humanos interactuaban con el lenguaje.

Cuando Google y OpenAI construyeron sistemas con cantidades mucho mayores de datos el año pasado, su opinión cambió. Todavía creía que esos sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que eclipsaban la inteligencia humana en otros. «Tal vez lo que sucede en estos sistemas es en realidad mucho mejor que lo que sucede en el cerebro».

A medida que las empresas mejoran sus sistemas de inteligencia artificial, se vuelven cada vez más peligrosos, dice. “Solo mire cómo era hace cinco años y cómo es ahora”, dijo sobre la tecnología de IA. “Toma la diferencia y luego extrapola eso al futuro. Eso es aterrador.

Competencia entre gigantes tecnológicos

Hasta el año pasado, dijo, Google actuaba como un «administrador adecuado» de la tecnología y tenía cuidado de no revelar nada que pudiera causar daños. Pero ahora que Microsoft ha aumentado su motor de búsqueda Bing con un chatbot, un desafío para el negocio principal de Google, Google está compitiendo para implementar el mismo tipo de tecnología. Los gigantes tecnológicos participan en una competencia que puede ser imposible de detener, dijo Hinton.

Su preocupación inmediata es que Internet se inundará con fotos, videos y textos falsos, y que la persona promedio «ya no sabrá qué es verdad».

También le preocupa que las tecnologías de IA finalmente alteren el mercado laboral. Hoy en día, los chatbots como ChatGPT a menudo complementan a los empleados humanos, pero pueden reemplazar a los asistentes legales, asistentes personales, traductores y otros que realizan tareas clave. “Ahora se quita todo el trabajo tedioso”, dijo. “Pero puede quitar incluso más que eso”.

Con el tiempo, le preocupa que las versiones futuras de la tecnología supongan una amenaza para la humanidad, ya que a menudo aprenden comportamientos inesperados a partir de la gran cantidad de datos que analizan. Esto se convierte en un problema, dijo, porque las personas y las empresas permiten que los sistemas de IA no solo generen su propio código de computadora, sino que realmente ejecuten ese código ellos mismos. Por ejemplo, Hinton teme que llegue el día en que las armas verdaderamente autónomas, esos robots asesinos, se conviertan en realidad.

«La idea de que estas cosas en realidad podrían volverse más inteligentes que los humanos, apenas unas pocas personas lo creían», dijo. “Pero la mayoría de la gente pensaba que ese punto estaba muy lejos. Yo también pensé lo mismo. Pensé que tomaría de treinta a cincuenta años o incluso más. Por supuesto que ya no lo creo».

Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que esta amenaza es hipotética. Pero Hinton cree que la batalla entre Google y Microsoft y otros se convertirá en una carrera global que no se detendrá, al menos no sin algún tipo de regulación global.

Pero eso puede ser imposible, dice Hinton. A diferencia de las armas nucleares, dice que no hay forma de saber si las empresas o los países están trabajando en secreto en la tecnología. La mejor esperanza es que los principales científicos del mundo trabajen juntos en formas de dominar la tecnología. «No creo que deban ampliar esto más hasta que entiendan si pueden controlarlo».

Hinton dijo que citó a Robert Oppenheimer, quien dirigió la investigación de bombas nucleares de EE. UU., cuando la gente le preguntó cómo podía trabajar en una tecnología tan potencialmente peligrosa. “Cuando ves algo que técnicamente está tan bien armado, sigues adelante y simplemente lo haces”.

Hinton ya no dice eso.

© El New York Times



ttn-es-31