Ya puedes alquilar el chip de IA más potente de Google: Trillium TPU es la base de Gemini 2.0 y pondrá a AMD y Nvidia en alerta máxima

Trillium TPU
(Crédito de imagen: Google)

  • Trillium ha llegado a la disponibilidad general solo unos meses después del lanzamiento de la vista previa
  • El potente chip de IA ofrece más de cuatro veces el rendimiento de entrenamiento
  • Google lo usa para entrenar Gemini 2.0, el modelo avanzado de IA de la compañía

Google lleva más de una década desarrollando Unidades de Procesamiento Tensorial (TPU), sus aceleradores de IA personalizados, y unos meses después de estar disponible en versión preliminar, ha anunciado que su TPU de sexta generación ha alcanzado la disponibilidad general y ya está disponible para alquilar.

Trillium duplica tanto la capacidad de HBM como el ancho de banda de Interchip Interconnect, y se utilizó para entrenar Gemini 2.0, el modelo de IA insignia del gigante tecnológico.

Google informa que ofrece una mejora de hasta 2,5 veces en el rendimiento de la formación por dólar en comparación con las generaciones anteriores de TPU, lo que la convierte en una opción atractiva para las empresas que buscan una infraestructura de IA eficiente.

Hipercomputadora de IA de Google Cloud

Trillium ofrece una variedad de otras mejoras con respecto a su predecesor, incluyendo más de cuatro veces el rendimiento de entrenamiento. La eficiencia energética se ha incrementado en un 67%, mientras que el rendimiento máximo de cómputo por chip se ha multiplicado por 4,7.

Trillium naturalmente también mejora el rendimiento de la inferencia. Las pruebas de Google indican un rendimiento tres veces mayor para los modelos de generación de imágenes como Stable Diffusion XL y casi el doble para los modelos de lenguaje grandes en comparación con las generaciones anteriores de TPU.

El chip también está optimizado para modelos intensivos de incrustación, con su SparseCore de tercera generación que proporciona un mejor rendimiento para operaciones dinámicas y dependientes de datos.

Trillium TPU también forma la base de la hipercomputadora de IA de Google Cloud. Este sistema cuenta con más de 100.000 chips Trillium conectados a través de una estructura de red Jupiter que ofrece 13 Petabits/seg de ancho de banda. Integra hardware optimizado, software abierto y marcos de aprendizaje automático populares, incluidos JAX, PyTorch y TensorFlow.

Con Trillium ahora disponible para el público en general, los clientes de Google Cloud tienen la oportunidad de acceder al mismo hardware utilizado para entrenar Gemini 2.0, lo que hace que la infraestructura de IA de alto rendimiento sea más accesible para una amplia gama de aplicaciones.

Trillium TPU, built to power the future of AI - YouTube Trillium TPU, built to power the future of AI - YouTube
Watch On
Octavio Castillo
Senior Editor

Octavio Castillo ha dado cobertura a la tecnología en diferentes medios por más de una década. Ha sido testigo del crecimiento y evolución de los gigantes tecnológicos

Aportaciones de