Google o Nvidia, ¿cuál tiene la supercomputadora de IA más grande?


Las decepciones de Bard, el gran modelo de lenguaje de Google que supuestamente compite con ChatGPT, no deben hacernos olvidar que Mountain View es un gigante en inteligencia artificial (IA). Esto es lo que querían recordar los investigadores de la compañía cuando presentaron el 5 de abril la supercomputadora de IA interna, que es más eficiente que el líder en este campo, Nvidia.

Google no quiere ser enterrado demasiado pronto

Nvidia ahora representa alrededor del 90% del mercado de chips destinados a entrenar y ejecutar IA. Fue gracias a sus chips A100 que se formó ChatGPT de OpenAI. Es este estado el que Google viene a excitar. La empresa afirma que su superordenador basado en chips internos es, para el mismo tamaño, entre un 20 % y un 70 % más rápido que su competidor y utiliza entre un 30 % y un 90 % menos de energía.

En la misma categoría

Fotografía de Jean-Noël Barrot

El Ministro de Digital quiere regular ChatGPT sin prohibirlo

Google está lejos de ser un simple retador en el mundo de la IA, el gigante incluso ha sido durante mucho tiempo una cabeza de puente. Si la empresa se ha saltado el paso de comercialización de sus productos, su tecnología sí existe.

La supercomputadora presentada el miércoles, con sede en Oklahoma, ha estado funcionando desde 2020. Ya se ha utilizado para entrenar el generador de imágenes basado en texto Midjourney de la puesta en marcha del mismo nombre. También entrenó el modelo PaLM, el modelo más grande revelado por Google, con 540 mil millones de parámetros, cuando GPT-3 tiene 175 mil millones.

esquema en el parámetro IAesquema en el parámetro IA

Crédito: Google

Los 4.096 chips que componen el dispositivo existen, en su primera versión, desde 2016. Se trata de la Unidad de Procesamiento Tensor (TPU), ahora en su cuarta generación. Se utilizan en el 90 % del trabajo relacionado con la IA de la empresa. Éste, sin embargo, no duda en utilizar chips Nvidia o alquilarlos por horas dentro de su servicio Cloud.

La IA es cara

En un entrada en el blog acompañando la publicación del artículo, sus dos autores principales, Norm Jouppi y David Patterson afirman que ” El rendimiento, la escalabilidad y la disponibilidad hacen que las supercomputadoras TPU v4 sean los caballos de batalla de los grandes modelos de lenguaje “. Sin embargo, están de acuerdo en que los TPU no se han comparado con el último H100 de Nvidia, cuyo rendimiento es promocionado sin cesar por el CEO de la compañía, Jen-Hsun Huang.

Hoy, el desafío para las supercomputadoras de IA y los chips que las componen no es solo la potencia, es sobre todo la eficiencia. Entrenar y mantener una IA generativa activa durante todo el día es extremadamente costoso. Se da prioridad a la optimización de componentes, chips y otros, pero también al software de supercomputadora de IA para reducir el gasto de energía sin dañar la potencia informática.



ttn-es-4