¿Cuán fatalistas deberíamos ser con respecto a la IA?


Manténgase informado con actualizaciones gratuitas

Una larga lista de oradores prestigiosos, desde Sir Winston Churchill hasta Dame Iris Murdoch, han pronunciado la conferencia anual sobre Romanes en la Universidad de Oxford, comenzando con William Gladstone en 1892.

Pero rara vez, o nunca, un conferenciante puede haber hecho un comentario tan sorprendente como lo hizo Geoffrey Hinton esta semana. El discurso del principal investigador de inteligencia artificial, provocativamente titulado ¿La inteligencia digital reemplazará a la inteligencia biológica?, Concluyó: casi con certeza, sí. Pero Hinton rechazó la idea, común en algunos círculos tecnológicos de la costa oeste, de que el humanismo es de algún modo “racista” al seguir afirmando la primacía de nuestra propia especie sobre las formas electrónicas de inteligencia. «Los humanos deberíamos hacer nuestros mejores esfuerzos para permanecer aquí», bromeó.

El informático británico-canadiense saltó a la fama como uno de los pioneros de las técnicas de “aprendizaje profundo” que han revolucionado la IA, permitiendo la creación de chatbots de IA generativa, como ChatGPT. Durante la mayor parte de su carrera en el mundo académico y en Google, Hinton creyó que la IA no representaba una amenaza para la humanidad. Pero el investigador de 76 años dice que experimentó una «epifanía» el año pasado y abandonó Google para hablar sobre los riesgos.

Hinton se dio cuenta de que modelos de IA cada vez más potentes podían actuar como “mentes colmena”, compartiendo lo que habían aprendido entre sí, dándoles una gran ventaja sobre los humanos. «Eso me hizo darme cuenta de que podrían ser una mejor forma de inteligencia», me dijo en una entrevista antes de su conferencia.

Todavía parece fantástico que líneas de código de software puedan amenazar a la humanidad. Pero Hinton ve dos riesgos principales. La primera es que los malos humanos darán a las máquinas malos objetivos y las utilizarán para malos propósitos, como la desinformación masiva, el bioterrorismo, la guerra cibernética y los robots asesinos. En particular, los modelos de IA de código abierto, como Meta’s Llama, están poniendo enormes capacidades en manos de gente mala. «Creo que es una locura abrir el código fuente de estos grandes modelos», afirma.

Pero predice que los modelos también podrían “evolucionar” de maneras peligrosas, desarrollando una intencionalidad de control. “Si estuviera asesorando a los gobiernos, diría que hay un 10 por ciento de posibilidades de que estas cosas acaben con la humanidad en los próximos 20 años. Creo que sería una cifra razonable”, afirma.

Los argumentos de Hinton han sido atacados desde dos frentes. En primer lugar, algunos investigadores sostienen que los modelos generativos de IA no son más que costosos trucos estadísticos y que los riesgos existenciales de la tecnología son “fantasía de ciencia ficción”.

El destacado erudito Noam Chomsky Sostiene que los humanos hemos sido bendecidos con un “sistema operativo” genéticamente instalado que nos ayuda a comprender el lenguaje, y del que carecen las máquinas. Pero Hinton sostiene que esto no tiene sentido dado que el último modelo GPT-4 de OpenAI puede aprender el lenguaje y mostrar empatía, razonamiento y sarcasmo. «Estoy afirmando con firmeza que estos modelos sí entienden», dijo en su conferencia.

La otra línea de ataque proviene de Yann LeCun, científico jefe de IA en Meta. LeCun, partidario de los modelos de código abierto, sostiene que nuestros sistemas de inteligencia artificial actuales son más tontos que los gatos y es “absurdo” creer que representan una amenaza para los humanos, ya sea por diseño o por defecto. “Creo que Yann está siendo un poco ingenuo. El futuro de la humanidad depende de esto”, responde Hinton.

Los tonos tranquilos y mesurados de la expresión de Hinton contrastan marcadamente con el sombrío fatalismo de su mensaje. ¿Se puede hacer algo para mejorar las posibilidades de la humanidad? “Ojalá lo supiera”, responde. «No estoy predicando una solución particular, sólo estoy predicando el problema».

Le alentó que el Reino Unido organizara una cumbre sobre seguridad de la IA en Bletchley Park el año pasado, estimulando un debate político internacional. Pero desde entonces, dice, el gobierno británico “básicamente ha decidido que las ganancias están antes que la seguridad”. Al igual que con el cambio climático, sugiere que sólo se producirán cambios políticos serios una vez que se alcance un consenso científico. Y acepta que hoy no existe. Citando al físico Max Planck, Hinton añade sombríamente: “La ciencia avanza un funeral a la vez”.

Dice que le alienta que una generación más joven de científicos informáticos esté tomando en serio el riesgo existencial y sugiere que el 30 por ciento de los investigadores de IA deberían dedicarse a cuestiones de seguridad, en comparación con aproximadamente el 1 por ciento actual.

Deberíamos desconfiar instintivamente de los investigadores que concluyen que se necesita más investigación. Pero en este caso, dados los riesgos y las incertidumbres involucradas, será mejor que nos demos prisa. Lo extraordinario del debate sobre el riesgo de la IA es el amplio espectro de opiniones que existen. Necesitamos encontrar un nuevo consenso.

[email protected]

Vídeo: IA: ¿bendición o maldición para la humanidad? | Tecnología FT



ttn-es-56