OpenAI planea obtener más respaldo financiero de su mayor inversor, Microsoft, mientras el director ejecutivo del fabricante de ChatGPT, Sam Altman, sigue adelante con su visión de crear inteligencia artificial general (AGI), un software informático tan inteligente como los humanos.
En una entrevista con el Financial Times, Altman dijo que la asociación de su empresa con el director ejecutivo de Microsoft, Satya Nadella, estaba “funcionando muy bien” y que esperaba “recaudar mucho más con el tiempo” del gigante tecnológico, entre otros inversores, para mantenerse al día. los costos severos de construir modelos de IA más sofisticados.
Microsoft invirtió a principios de este año 10.000 millones de dólares en OpenAI como parte de un acuerdo “plurianual” que valoró a la empresa con sede en San Francisco en 29.000 millones de dólares, según personas familiarizadas con las conversaciones.
Cuando se le preguntó si Microsoft seguiría invirtiendo más, Altman dijo: “Eso espero”. Añadió: “Queda un largo camino por recorrer y mucho cómputo por desarrollar entre aquí y AGI. . . Los gastos de formación son simplemente enormes”.
Altman dijo que “el crecimiento de los ingresos había sido bueno este año”, sin proporcionar detalles financieros, y que la empresa seguía sin ser rentable debido a los costos de capacitación. Pero dijo que la asociación con Microsoft garantizaría “que ambos ganemos dinero con el éxito de cada uno y que todos estén felices”.
En la última señal de cómo OpenAI pretende construir un modelo de negocio sobre ChatGPT, la compañía anunció un conjunto de nuevas herramientas y actualizaciones de su modelo existente GPT-4 para desarrolladores y empresas en un evento el 6 de noviembre al que asistió Nadella.
Las herramientas incluyen versiones personalizadas de ChatGPT que se pueden adaptar y personalizar para aplicaciones específicas, y una tienda GPT, o un mercado de las mejores aplicaciones. El objetivo final será dividir los ingresos con los creadores de GPT más populares, en un modelo de negocio similar al App Store de Apple.
“En este momento, la gente [say] ‘tienes este laboratorio de investigación, tienes esta API [software], tienes la asociación con Microsoft, tienes esto de ChatGPT, ahora hay una tienda GPT’. Pero esos no son realmente nuestros productos”, dijo Altman. “Esos son canales hacia nuestro único producto, que es la inteligencia, la inteligencia mágica en el cielo. Creo que de eso se trata”.
Para desarrollar el negocio empresarial, Altman dijo que contrató a ejecutivos como Brad Lightcap, quien anteriormente trabajó en Dropbox y en la aceleradora de startups Y Combinator, como su director de operaciones.
Mientras tanto, Altman divide su tiempo entre dos áreas: la investigación sobre “cómo construir superinteligencia” y formas de desarrollar potencia informática para hacerlo. “La visión es hacer AGI, descubrir cómo hacerlo seguro. . . y descubrir los beneficios”, dijo.
Refiriéndose al lanzamiento de GPT, dijo que OpenAI estaba trabajando para construir agentes más autónomos que puedan realizar tareas y acciones, como ejecutar código, realizar pagos, enviar correos electrónicos o presentar reclamaciones.
“Haremos que estos agentes sean cada vez más poderosos. . . y las acciones serán cada vez más complejas a partir de aquí”, afirmó. “Creo que la cantidad de valor comercial que se obtendrá al poder hacer eso en todas las categorías es bastante buena”.
La compañía también está trabajando en GPT-5, la próxima generación de su modelo de IA, dijo Altman, aunque no se comprometió con un cronograma para su lanzamiento.
Se necesitarán más datos para entrenar, que según Altman provendrían de una combinación de conjuntos de datos disponibles públicamente en Internet, así como datos patentados de las empresas.
OpenAI lanzó recientemente un llamado a conjuntos de datos a gran escala de organizaciones que “hoy en día aún no son fácilmente accesibles en línea para el público”, particularmente para escritos extensos o conversaciones en cualquier formato.
Si bien es probable que GPT-5 sea más sofisticado que sus predecesores, Altman dijo que era técnicamente difícil predecir exactamente qué nuevas capacidades y habilidades podría tener el modelo.
“Hasta que entrenemos ese modelo, es como un divertido juego de adivinanzas para nosotros”, dijo. “Estamos tratando de mejorar en esto, porque creo que es importante desde una perspectiva de seguridad predecir las capacidades. Pero no puedo decirles exactamente qué va a hacer que GPT-4 no hizo”.
Para entrenar sus modelos, OpenAI, como la mayoría de las otras grandes empresas de IA, utiliza los avanzados chips H100 de Nvidia, que se convirtieron en el producto más popular de Silicon Valley durante el año pasado mientras las empresas tecnológicas rivales competían por conseguir los semiconductores cruciales necesarios para construir sistemas de IA.
Altman dijo que había habido “una crisis brutal” durante todo el año debido a la escasez de suministro de los chips de Nvidia, de 40.000 dólares cada uno. Dijo que su empresa había recibido H100 y esperaba más pronto, añadiendo que “el año que viene ya parece que va a ser mejor”.
Sin embargo, mientras otros actores como Google, Microsoft, AMD e Intel se preparan para lanzar chips de IA rivales, es poco probable que la dependencia de Nvidia dure mucho más. “Creo que la magia del capitalismo está haciendo su trabajo aquí. Y a mucha gente le gustaría ser Nvidia ahora”, dijo Altman.
OpenAI ya ha tomado una delantera temprana en la carrera por construir IA generativa (sistemas que pueden crear texto, imágenes, código y otros elementos multimedia en segundos) con el lanzamiento de ChatGPT hace casi un año.
A pesar de su éxito entre los consumidores, OpenAI busca avanzar hacia la construcción de inteligencia artificial general, dijo Altman. Los modelos de lenguajes grandes (LLM), que sustentan ChatGPT, son “una de las piezas centrales. . . sobre cómo construir AGI, pero habrá muchas otras piezas además”.
Si bien OpenAI se ha centrado principalmente en los LLM, sus competidores han estado buscando estrategias de investigación alternativas para avanzar en la IA.
Altman dijo que su equipo creía que el lenguaje era una “excelente manera de comprimir información” y, por lo tanto, de desarrollar inteligencia, un factor que, en su opinión, empresas como Google DeepMind habían pasado por alto.
“[Other companies] Tengo mucha gente inteligente. Pero no lo hicieron. No lo hicieron incluso después de que pensé que lo habíamos probado con GPT-3”, dijo.
En última instancia, Altman dijo que “la mayor pieza que falta” en la carrera por desarrollar AGI es lo que se requiere para que dichos sistemas den avances fundamentales en la comprensión.
“Hubo un largo período de tiempo en el que lo correcto para [Isaac] Lo que Newton debía hacer era leer más libros de texto de matemáticas, hablar con profesores y practicar problemas. . . eso es lo que hacen nuestros modelos actuales”, dijo Altman, usando un ejemplo que un colega había usado anteriormente.
Pero añadió que Newton nunca iba a inventar el cálculo simplemente leyendo sobre geometría o álgebra. “Y nuestros modelos tampoco lo son”, dijo Altman.
“Y entonces la pregunta es, ¿cuál es la idea que falta para generar algo nuevo? . . conocimiento para la humanidad? Creo que eso es lo más importante en lo que trabajar”.