Big Tech está compitiendo para reclamar su parte del mercado de IA generativa


¿Cuánto del floreciente mercado de IA generativa desaparecerá en las fauces de las empresas tecnológicas más grandes? ¿Y qué quedará para las muchas otras empresas que esperan sacar provecho de la última moda del mundo de la tecnología?

Puede que hayan pasado menos de cinco meses desde el lanzamiento de ChatGPT, pero esas preguntas ya cobran gran importancia a medida que las empresas tecnológicas más grandes compiten para apropiarse de grandes partes del territorio.

Amazon ha sido el último en establecer su puesto generativo de IA, a través de su Servicios web de Amazon brazo de computación en la nube. Junto con sus propios modelos grandes de IA, llamados Titan, AWS dijo la semana pasada que ofrecería acceso a varios otros en su plataforma, incluido el modelo de lenguaje grande de la empresa emergente de IA Anthropic y el código abierto Difusión estable sistema generador de imágenes.

El alojamiento y la entrega de servicios de IA independientes como estos son parte de un intento de AWS de poner su nube en el centro del nuevo mercado de IA generativa. AWS también proporciona todas las herramientas que los desarrolladores necesitan para crear, entrenar e implementar sus propios modelos generativos de IA y, en buena medida, diseña sus propios chips especializados para entrenar y ejecutar grandes sistemas de aprendizaje automático.

no es solo Este mes, Google se jactó de que las supercomputadoras construidas con la última generación de sus propios chips, llamados TPU, han alcanzado niveles de rendimiento revolucionarios en el entrenamiento de grandes modelos de IA. Microsoft también se unió a la estampida entre las compañías tecnológicas más grandes para desarrollar sus propios chips especializados para IA, según una figura importante (sus planes fueron informados por primera vez por The Information).

Movimientos como estos muestran cuán lejos están llegando las grandes empresas tecnológicas en sus intentos de controlar todas las partes de la nueva «pila» informática de AI, es decir, las capas de tecnología que se requieren para respaldar y ejecutar nuevas cargas de trabajo informáticas exigentes y convertirlas en servicios útiles para los clientes.

En la parte inferior de esta pila hay chips diseñados para procesar la gran cantidad de datos necesarios para entrenar grandes modelos de IA. Otras capas incluyen los algoritmos y otro software necesario para entrenar e implementar los sistemas; los propios modelos de lenguaje y visión a gran escala, conocidos como “modelos de base” porque actúan como un nivel base de inteligencia; y finalmente, las numerosas aplicaciones y servicios que se ejecutan sobre estos modelos para dar forma a la tecnología para mercados y usos específicos.

Amazon, Microsoft y Google ya están reclamando su derecho a la mayoría de los niveles más bajos de esta jerarquía de tecnología, lo que dificulta que otros ingresen a un mercado donde será esencial operar a gran escala con los costos unitarios más bajos.

Incluso Elon Musk, que afirma que su naciente empresa de IA será una «tercera fuerza» en IA contra Google y la asociación Microsoft/OpenAI, se enfrenta a un ascenso empinado. Tesla, su compañía de autos eléctricos, ya ha construido una computadora de inteligencia artificial para manejar el reconocimiento de visión. Esta semana, el incontenible Musk afirmó que vender esta tecnología a otros podría valer algún día «cientos de miles de millones». Pero no será fácil ponerse al día con los gigantes tecnológicos que ya han pasado años ajustando su tecnología para los modelos de lenguaje e imagen más grandes del mundo.

La pregunta ahora es cuánto más arriba en la “pila” intentan moverse las empresas de la nube, en el proceso reclamando más valor de la nueva tecnología para sí mismas.

Para aquellos que aún no lo tienen, el control de sus propios modelos grandes de IA (o, en el caso de Microsoft, una estrecha alianza con OpenAI) parece un objetivo probable. Los modelos de base cuestan mucho para desarrollar y se pueden poner a trabajar en una amplia gama de aplicaciones, lo que los convierte en un primer paso natural para cualquier gran empresa de tecnología con ambiciones de IA.

La centralidad de estos grandes modelos para sus objetivos estratégicos más amplios significa que es probable que las empresas no los vean como centros de ganancias por derecho propio. Sin duda, así es como lo ve Emad Mostaque, jefe de Stability AI, la compañía detrás de Stable Diffusion. Advierte sobre una «carrera a la baja» en los precios a medida que las grandes empresas tecnológicas luchan por establecer sus principales sistemas de inteligencia artificial, dejando poco espacio para los demás.

Mostaque, en cambio, cuenta con dos cosas. Una es que Amazon siempre estará feliz de ganar dinero alojando modelos de IA rivales en su nube y no intentar suplantarlos con los suyos. La segunda es que todavía habrá espacio para la diferenciación entre los modelos de IA, y que no todos los clientes querrán confiar en sistemas opacos y gigantes administrados por un puñado de empresas tecnológicas dominantes. Si está equivocado, la fase competitiva temprana de la IA generativa podría resultar muy efímera.

[email protected]



ttn-es-56