Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
En su increíblemente breve historia, OpenAI se ha hecho famosa por dos cosas: una ambición tecnológica astronómica y un gobierno corporativo cómico. Esa no es una combinación feliz.
El abrupto despido de Sam Altman, director ejecutivo de OpenAI, por parte de la junta el viernes sorprendió a Silicon Valley como pocos otros eventos en las últimas décadas. El modelo de la revolución de la inteligencia artificial generativa, que había hecho tanto para popularizar el chatbot ChatGPT de OpenAI como un innovador servicio al consumidor, fue expulsado por otros cuatro miembros de la junta de supervisión en una videollamada. Varias otras figuras destacadas de OpenAI, incluido su presidente, Greg Brockman, lo siguieron rápidamente hasta la puerta.
Gran parte de la historia (y exactamente cómo terminará) sigue siendo un misterio. Es posible que la junta haya tenido buenas razones para despedir a Altman por ser menos que “consistentemente sincero” con sus compañeros directores. El esfuerzo paralelo de Altman para apoyar el lanzamiento de un negocio de chips de IA ciertamente generó preocupaciones evidentes sobre posibles conflictos de intereses. Pero la propia junta directiva no fue muy sincera al explicar su decisión a los empleados de OpenAI, a los inversores y a Microsoft, que ha respaldado en gran medida a la nueva empresa. Más de 500 de los 770 empleados de OpenAI firmaron el lunes una carta abierta pidiendo el regreso de Altman y la renuncia de la junta directiva, poniendo en duda el futuro de la empresa. Ciertamente ha vaporizado sus posibilidades de recaudar dinero fresco a un valor similar a la valoración de 86.000 millones de dólares promocionada recientemente.
Pero el asunto plantea cuestiones más amplias sobre cómo se gobiernan las empresas de IA. Si, como pregonan sus evangelistas, la IA es tan transformadora, sus defensores y guardianes corporativos deben mostrar integridad, transparencia y competencia ejemplares.
Sin duda, OpenAI siempre ha sido una extraña creación corporativa. La empresa de investigación se fundó en 2015 como una organización sin fines de lucro dedicada al desarrollo de IA de forma segura para el beneficio de la humanidad. Pero los costos de desarrollar modelos de vanguardia son tan enormes que es difícil para cualquier empresa no comercial permanecer en ese juego por mucho tiempo. Entonces, al tiempo que preservaba una junta de supervisión sin fines de lucro, OpenAI desarrolló un brazo comercial con fines de lucro, lo que permitió a la empresa atraer inversiones externas y comercializar sus servicios.
Esa estructura híbrida creó tensiones entre las dos “tribus” en OpenAI, como las llamó Altman. La tribu de la seguridad, liderada por el científico jefe y miembro de la junta directiva Ilya Sutskever, argumentó que OpenAI debe ceñirse a su propósito fundacional y solo implementar la IA con cuidado. La tribu comercial parecía deslumbrada por las posibilidades generadas por el éxito de ChatGPT y quería acelerar. La tribu de la seguridad parecía haber ganado durante el fin de semana, pero quizás no por mucho tiempo. La reacción de los empleados aún podría traer más giros.
¿Qué significa todo esto para Microsoft? Su inversión de 13.000 millones de dólares en OpenAI claramente ha estado en peligro, aunque gran parte de ese compromiso fue en forma de recursos informáticos, que aún no se han utilizado. Sin embargo, el lunes Microsoft parecía haber triunfado al contratar a Altman y a varios investigadores destacados de OpenAI. Como Ben Thompson, autor del boletín Stratechery, señaló: De hecho, es posible que Microsoft haya “acaba de adquirir OpenAI por 0 dólares y sin riesgo de una demanda antimonopolio”.
Los desconcertados extranjeros deben esperar que los institutos de seguridad de IA prometidos por los gobiernos del Reino Unido y Estados Unidos para examinar los modelos de frontera de las empresas líderes estén en funcionamiento pronto. La debacle en OpenAI también amplifica los llamados de quienes argumentan que la inteligencia artificial general sólo debería ser desarrollada por científicos de un instituto de investigación internacional y no comercial similar al Cern. Si quienes están desarrollando tecnologías tan poderosas no pueden gobernarse a sí mismos, entonces deberían esperar ser gobernados.