Larson: «Desacreditemos la mitología de la inteligencia artificial»


El camino que conducirá ainteligencia artificial al nivel humano y luego a la superinteligencia, actualmente sólo existe en nuestra imaginación. No es cierto que ahora lo hayamos tomado ineluctablemente; de ​​hecho, ni siquiera sabemos dónde está. Esta es la tesis contracorriente, pero rigurosamente argumentada, que sostiene el escritor y empresario estadounidense Erik J. Larson en su El mito de la inteligencia artificial (Harvard University Press), publicado recientemente en italiano por Franco Angeli. Larson, figura singular de tecnólogo-humanista, se encuentra actualmente en Italia: el viernes pasado fue invitado al Festival de la Diplomacia en Roma, y ​​el 25 de octubre hablará en las Jornadas de Innovación Digital en Milán. Nacido en 1971, tiene un doctorado en filosofía por la Universidad de Texas en Austin, creó dos start-ups financiadas por Darpa (la agencia de defensa estadounidense) y trabajó para Cycorp en proyectos de IA y con el Digital Media Collaboratory de George Kozmetsky.

¿Por qué crees que la inteligencia artificial es un mito? ¿No es, como lo describen los medios, una tecnología poderosa que puede salvar o destruir el mundo?
Como se percibe en California, pero también en el resto del mundo, la inteligencia artificial es algo sacado de la ciencia ficción, una especie de Frankenstein, soñamos con crear algo. Pero eso no es lo que realmente estamos haciendo. Llevo 20 años en la industria y lo que hacemos es crear herramientas. En lugar de ello utilizamos el lenguaje, hablando de inteligencia artificial, para enmascarar una serie de sentimientos humanos, como el deseo de algunos de volverse aún más ricos.

¿Es la IA un riesgo, una oportunidad o ambos?
Creo que existe un riesgo, y es que las personas equivocadas utilicen tecnología potente. Un poco como lo que se temía en los años cincuenta con respecto a las armas termonucleares. Pero esencialmente es una herramienta nueva y poderosa que en realidad no tiene mente propia, no toma decisiones por sí sola, sino que hace aquello para lo que fue diseñada. Es esta percepción errónea la que me impulsó a escribir mi primer libro.

¿Qué puede decirnos sobre la IA un enfoque científico-humanista como el que usted apoya?
En primer lugar hay que distinguir el análisis de grandes bases de datos del concepto de inteligencia artificial. Lo que estamos haciendo por ahora es tomar cada uno de nuestros datos y analizarlos estadísticamente. Y esta estadística es esencialmente la misma que en los años 60 con algunas innovaciones relacionadas con las redes neuronales (las llamadas mecanismo de atención) introducido en 2017. Ahora tenemos ordenadores superrápidos, pero lo que hacemos es centralizar los datos y analizarlos estadísticamente. El problema es que los datos somos nosotros y que lo que llamamos IA son esencialmente subtítulos de estos datos (título de fecha). Desde este punto de vista, no me parece que estemos hasta ahora en un siglo particularmente innovador, mientras repetimos viejos errores con grandes corporaciones centralizadas y burocráticas.

Para explicar las diferencias entre inteligencia humana y artificial te refieres a la distinción entre diferentes tipos de razonamiento…
En pocas palabras, la inteligencia humana conoce tres tipos de razonamiento (o inferencia): deductivo, inductivo e «intuitivo» conocido como «abducción». La inteligencia artificial ha intentado durante muchos años, pero con poco éxito, simular el razonamiento deductivo. Entonces llegó la web con la enorme cantidad de datos disponibles y el paradigma cambió radicalmente. Ahora la inteligencia artificial, como la de ChatGpt, funciona con razonamientos inductivos: big data, estadísticas, aprendizaje automático basado en datos observados. Y los resultados son extraordinarios: de la traducción automática al reconocimiento facial… Pero lo que constituye la esencia de la inteligencia humana -la capacidad de formular conjeturas a partir de unas pocas pistas, que es la base tanto del sentido común como de los descubrimientos científicos- es Sigue siendo un misterio que la inteligencia artificial no tenga idea de cómo programar.

¿Deberíamos pedir a los gobiernos, a Bruselas aquí en Europa o a las Naciones Unidas que regulen la IA, o deberíamos ceder ante la capacidad de autorregulación del sector privado?
Creo que nadie en el mundo es capaz todavía de responder a esta pregunta, pero mi opinión es que no se trata de un proceso autorregulado. Es como cuando los coches no tenían airbags y luego se volvieron obligatorios por ley.

También es investigador especializado en procesamiento del lenguaje natural: ¿cómo ve el futuro de este sector, dominado en el debate mediático por el tema ChatGpt?
Creo que existen límites para los grandes modelos actuales de procesamiento de lenguaje natural: no creo que veamos un ChatGpt5 en el corto plazo, no quedan suficientes datos nuevos. Por ahora utilizaremos los modelos conocidos para fines especializados.

Su próximo libro se titula “El Regreso. Porque el siglo XXI parece el pasado, no el futuro que queríamos.» ¿Por qué?
Sostengo que en el mundo en el que vivimos parecemos estar en el cohete del progreso, mientras estamos estancados en la década de 1950. Es difícil iniciar nuevos negocios que cambien el mundo con poco capital: se necesitan miles de millones de dólares. Y desde este punto de vista, la inteligencia artificial ciertamente no será de ayuda. Pero no quiero ser sólo negativo, mi esperanza es que se reinicie un verdadero proceso de innovación.

Saber más



ttn-es-11