OpenAI lanza modelos de IA que dice son capaces de razonar


Desbloquea el Editor’s Digest gratis

OpenAI lanzará un producto de IA que, según afirma, es capaz de razonar, lo que le permitirá resolver problemas difíciles de matemáticas, codificación y ciencia en un paso fundamental hacia el logro de una cognición similar a la humana en las máquinas.

Los modelos de IA, conocidos como o1, se presentan como una señal de la progresión de las capacidades tecnológicas en los últimos años, a medida que las empresas compiten por crear sistemas de IA cada vez más sofisticados. En particular, hay una nueva lucha en marcha entre los grupos tecnológicos, incluidos Google DeepMind, OpenAI y Anthropic, para crear software que pueda actuar de forma independiente como los llamados agentes: robots personalizados que se supone que ayudan a las personas a trabajar, crear o comunicarse mejor e interactuar con el mundo digital.

Según OpenAI, los modelos se integrarán en ChatGPT Plus a partir del jueves. Están diseñados para ser útiles para científicos y desarrolladores, más que para usuarios generales. La compañía dijo que los modelos o1 superaron con creces a los modelos existentes, como GPT-4o, en un examen de clasificación para la Olimpiada Internacional de Matemáticas, donde obtuvieron una puntuación del 83 por ciento en comparación con el 13 por ciento de este último.

Según los expertos en la materia, enseñar a un software informático a razonar paso a paso y planificar con antelación son hitos importantes en la invención de la inteligencia general artificial (máquinas con capacidades cognitivas similares a las humanas).

Si los sistemas de IA demostraran un razonamiento genuino, permitirían la “coherencia de los hechos, argumentos y conclusiones formuladas por la IA, [and] “Los avances en la agencia y la autonomía de la IA son probablemente los principales obstáculos para la IAG”, dijo Yoshua Bengio, un científico informático de la Universidad de Montreal que ganó el prestigioso Premio Turing.

Según Bengio, se han producido avances constantes en este ámbito, con modelos como GPT, Gemini y Claude que muestran algunas capacidades de razonamiento incipientes, pero el consenso científico es que los sistemas de IA no alcanzan el razonamiento de propósito general.

“La forma correcta de evaluar los avances es contar con evaluaciones independientes de científicos y académicos, sin conflictos de intereses”, añadió.

Gary Marcus, profesor de ciencias cognitivas en la Universidad de Nueva York y autor de Domando Silicon Valleyadvirtió: “Hemos visto afirmaciones sobre el razonamiento una y otra vez que se han desmoronado tras una inspección cuidadosa y paciente por parte de la comunidad científica, por lo que vería cualquier afirmación nueva con escepticismo”.

Bengio también señaló que el software con capacidades más avanzadas planteaba un mayor riesgo de uso indebido en manos de actores maliciosos. OpenAI dijo que había “reforzado” sus pruebas de seguridad para que coincidieran con los avances, lo que incluía brindar a los institutos independientes de seguridad de IA del Reino Unido y los EE. UU. acceso temprano a una versión de investigación de este modelo.

En los próximos años, los avances en esta área impulsarán el progreso de la IA, según los tecnólogos.

Según Aidan Gómez, director ejecutivo de la empresa emergente de inteligencia artificial Cohere y uno de los investigadores de Google que ayudaron a construir la tecnología de transformación que sustenta a los chatbots como ChatGPT, enseñar a los modelos a resolver problemas ha mostrado mejoras “dramáticas” en sus capacidades.

En un evento del Financial Times el sábado, dijo: “También es considerablemente más caro, porque se gasta mucho tiempo en planificar, pensar y razonar antes de dar una respuesta. Por eso, los modelos son cada vez más caros en esa dimensión, pero mucho mejores para resolver problemas”.



ttn-es-56