¿Mejor que ChatGPT y por tanto una amenaza para los humanos o una ilusión? OpenAI funciona con Q en IA invisible

Se dice que OpenAI, la compañía detrás de ChatGPT, está trabajando en una forma nueva y más poderosa de inteligencia artificial que podría amenazar a la humanidad. ¿Que pasa con eso? “Esto es publicidad para una empresa que ha pasado por un período difícil.”

Dieter De Cleene

Deje de abastecerse de carne en conserva y de cavar ese refugio antiatómico, si hubiera empezado a hacerlo después de los recientes informes sobre las últimas hazañas de OpenAI. Se dice que esa empresa está trabajando en una nueva forma de inteligencia artificial llamada Q*.

Q* es tan poderoso que “podría amenazar a la humanidad”, dijeron expertos de OpenAI a la agencia de noticias Reuters. Antes de la renuncia del director ejecutivo Sam Altman, varios investigadores de OpenAI habrían expresado sus preocupaciones en una carta a la junta directiva.

Fuentes anónimas dijeron a Reuters que Q* era capaz de resolver problemas matemáticos relativamente simples al nivel de niños de escuela primaria. Eso es algo en lo que ChatGPT es notoriamente malo. ¿Pero es también un gran avance? “Eso está por verse”, afirma Steven Latré, director de IA de Imec. “La IA que puede hacer matemáticas existe desde hace algún tiempo, al igual que existían los chatbots antes de ChatGPT. Por el momento no sabemos hasta qué punto es mejor Q* en este sentido”.

En realidad sabemos muy poco. A Reuters no se le mostró la carta y no pudo verificar de qué es capaz Q*. Según los críticos, esto dice mucho sobre cómo los medios informan acríticamente sobre los desarrollos de la IA. “¿Dónde está la evidencia de un gran avance”, pregunta la profesora de lingüística computacional Emily Bender (Universidad de Washington) en la X. “¿Sabes lo que también pueden hacer las matemáticas en la escuela primaria? Una calculadora.”

Aún no hay apocalipsis

Además, una computadora que resuelve problemas aritméticos no parece presagiar exactamente el apocalipsis. ¿O es eso? La llamada IA ​​generativa, como Chat GPT, es buena para producir texto aparentemente plausible, basándose en la probabilidad estadística de que ciertas palabras se sigan unas a otras.

Pero las matemáticas, donde sólo hay una respuesta correcta, son un hueso más difícil de resolver. Las matemáticas requieren mayores habilidades de razonamiento y, en algunos casos, la capacidad de planificar múltiples pasos. Según Yann LeCun, jefe de IA de Meta, Q* es “el intento de planificación de OpenAI”.

Por tanto, según Reuters, Q* puede suponer un gran avance en el desarrollo de los llamados inteligencia artificial general (AGI), comúnmente definida como IA que iguala o supera a la inteligencia humana en todos los dominios. Pero eso también está por verse, subraya Latré.

“Google DeepMinds AlphaGo, el programa de inteligencia artificial que supera a las personas en el antiguo y muy complicado juego de Go, es muy bueno planificando, pero sólo dentro de un contexto específico. La pregunta es qué tan ampliamente aplicable es Q*”.

Mundo lleno de clips

El desarrollo del AGI preocupa a algunos expertos porque un sistema capaz de razonar y planificar podría volverse contra nosotros, al menos en teoría. El filósofo sueco Nick Bostrom ilustra esta idea con un conocido experimento mental en el que AGI tiene la tarea de optimizar la producción de clips.

El sistema se vuelve cada vez más inteligente y se da cuenta de que es mejor sin personas que lo desactiven y que los cuerpos de esas personas contienen valiosas materias primas con las que puede fabricar clips. El resultado: un mundo con muchos clips, pero sin gente.

Aunque Bostrom sólo quiere ilustrar el principio de que tareas aparentemente inocentes pueden conducir a un desastre imprevisto, algo como esto requiere algo de tiempo. Una computadora que supera a los humanos es una cosa. Pero un sistema así también debe poder intervenir en la realidad física.

“No veo un camino realista hacia escenarios tan apocalípticos”, dice Latré. “Esta sigue siendo una tecnología en la que las personas tienen el control y determinan cómo la usamos”. Además, a pesar de todo el entusiasmo que suscita la AGI, todavía estamos “a kilómetros de distancia” de un sistema de este tipo, según Latré.

Todo con fines de lucro

Según Bender, el hecho de que estemos en el umbral de la AGI, que luego puede volverse contra nosotros, es una “tontería no científica”. Pero los informes sobre la inminente AGI y la inminente desaparición de la humanidad son, por supuesto, buenos para OpenAI, según el experto en IA Mieke De Ketelaere (Vlerick).

“Alimentan la idea de que la empresa está haciendo algo extraordinario que el mundo exterior no comprende”, afirma Deketelaere. “Esto otorga a la empresa y a los desarrolladores un estatus cada vez más alto y casi divino”.

Se cree que el reciente desacuerdo en OpenAI se basa en un desacuerdo sobre la rapidez con la que se puede implementar comercialmente la IA. Según Reuters, la carta de preocupación sobre Q* fue uno de los elementos que llevaron al despido de Altman, quien fue reintegrado después de un breve juego de sillas y una protesta masiva del personal.

Según el informático Jeroen Baert, no es casualidad que recién ahora se estén dando a conocer al mundo informes sobre el avance de OpenAI. “Esto es publicidad”, afirma Baert. “Se filtró en un momento en que la empresa atraviesa un período difícil y ha perdido la cara”.



ttn-es-31