Justo antes de la dimisión del director general de OpenAI, Sam Altman, los científicos de la empresa de tecnología advirtieron a la junta directiva por carta sobre un nuevo descubrimiento importante que había realizado la empresa. Un avance tecnológico con el potencial de “dañar a la humanidad” y hacer redundantes millones de puestos de trabajo. Así lo informó la agencia de noticias Reuters y el sitio web de tecnología. La información Jueves.
El descubrimiento (nombre en clave: Q-Star) permitiría que los modelos de lenguaje de IA resuelvan problemas matemáticos y científicos complejos, algo que aún no ha sido posible. El descubrimiento provocó grandes tensiones entre la junta directiva de OpenAI y el director ejecutivo Altman, quien ha estado trabajando en los últimos meses en planes para incorporar la tecnología en los diversos productos de OpenAI.
Altman fue despedido por la junta el viernes pasado debido a “comunicación inconsistente”. Después de una gran presión por parte de inversores y empleados, que amenazaron con dimitir en masa, Altman recuperó su puesto el miércoles. OpenAI anunció que nombrará una nueva junta e iniciará una investigación interna sobre qué sucedió exactamente. De los cuatro miembros de la junta que votaron a favor del despido de Altman, sólo uno regresará a la nueva junta por el momento.
OpenAI se fundó en 2015 como una empresa sin fines de lucro, con todo el poder asignado a los miembros de la junta directiva (en su mayoría expertos en IA) en lugar de a los accionistas. Después de la semana pasada, poco queda de esa construcción. El inversor Microsoft, que intervino en 2018 e invirtió miles de millones en OpenAI, también ocupará un puesto en el nuevo consejo.
Oportunidades y peligros
La pregunta es hasta qué punto el nuevo descubrimiento de OpenAI afecta al desarrollo de la inteligencia artificial, que ha ido en aumento desde que OpenAI lanzó el chatbot ChatGPT hace un año. Desde entonces, todas las principales empresas tecnológicas estadounidenses y chinas han invertido miles de millones en esta tecnología, que está ganando impulso rápidamente. Las empresas ven oportunidades de innovación en el sector médico, los servicios o la educación, donde los asistentes digitales inteligentes pronto podrían ayudar o reemplazar al médico, al profesor o al servicio de atención al cliente.
Al mismo tiempo, acechan grandes peligros sociales. Los expertos advierten sobre noticias falsas generadas por IA, sistemas informáticos que llevan a cabo ciberataques o despidos masivos entre grupos profesionales que realizan trabajos que pronto podrán realizar las computadoras.
El modelo de lenguaje que actualmente constituye la base de ChatGPT sigue siendo relativamente simple. De hecho, aprende, a través de grandes cantidades de datos, cuál es la siguiente palabra más probable en una oración. El usuario hace una pregunta, el chatbot responde. Cuantos más datos y potencia informática se utilicen, mejores serán las respuestas.
Con el nuevo descubrimiento técnico de OpenAI, el modelo de lenguaje quizás podría ir un paso más allá, explica el director técnico Casper Rutjes de la consultora de IA ADC. Él imagina un sistema de inteligencia artificial que no solo responda preguntas, sino que también pueda alcanzar objetivos. “Un sistema que te da un objetivo y que luego intenta de forma independiente todo tipo de pasos hasta lograrlo”, dice Rutjes. Esto conlleva todo tipo de riesgos, como sistemas que se utilizan para burlar la seguridad digital o dañar a las personas.
Por lo tanto, según Rutjes, el hecho de que la placa OpenAI haya frenado puede explicarse lógicamente. “Por ejemplo, si le asignas a un modelo de lenguaje la tarea de mejorarse a sí mismo, se vuelve muy arriesgado”, dice. “Entonces un modelo empieza a retocarse a sí mismo. Iniciará su propio desarrollo o quizás se copiará a sí mismo. Antes de que te des cuenta, ya no tienes el control”.
Lea también
Sam Altman fue despedido y regresó. El caótico juego de cartas en torno a OpenAI