Ya puedes alquilar el chip de IA más potente de Google: Trillium TPU es la base de Gemini 2.0 y pondrá a AMD y Nvidia en alerta máxima
El acelerador de IA personalizada de sexta generación ha alcanzado la disponibilidad general
![Trillium TPU](https://cdn.mos.cms.futurecdn.net/dGrtPsDmoiXJpkBooQzmk5-970-80.jpg)
- Trillium ha llegado a la disponibilidad general solo unos meses después del lanzamiento de la vista previa
- El potente chip de IA ofrece más de cuatro veces el rendimiento de entrenamiento
- Google lo usa para entrenar Gemini 2.0, el modelo avanzado de IA de la compañía
Google lleva más de una década desarrollando Unidades de Procesamiento Tensorial (TPU), sus aceleradores de IA personalizados, y unos meses después de estar disponible en versión preliminar, ha anunciado que su TPU de sexta generación ha alcanzado la disponibilidad general y ya está disponible para alquilar.
Trillium duplica tanto la capacidad de HBM como el ancho de banda de Interchip Interconnect, y se utilizó para entrenar Gemini 2.0, el modelo de IA insignia del gigante tecnológico.
Google informa que ofrece una mejora de hasta 2,5 veces en el rendimiento de la formación por dólar en comparación con las generaciones anteriores de TPU, lo que la convierte en una opción atractiva para las empresas que buscan una infraestructura de IA eficiente.
Hipercomputadora de IA de Google Cloud
Trillium ofrece una variedad de otras mejoras con respecto a su predecesor, incluyendo más de cuatro veces el rendimiento de entrenamiento. La eficiencia energética se ha incrementado en un 67%, mientras que el rendimiento máximo de cómputo por chip se ha multiplicado por 4,7.
Trillium naturalmente también mejora el rendimiento de la inferencia. Las pruebas de Google indican un rendimiento tres veces mayor para los modelos de generación de imágenes como Stable Diffusion XL y casi el doble para los modelos de lenguaje grandes en comparación con las generaciones anteriores de TPU.
El chip también está optimizado para modelos intensivos de incrustación, con su SparseCore de tercera generación que proporciona un mejor rendimiento para operaciones dinámicas y dependientes de datos.
Trillium TPU también forma la base de la hipercomputadora de IA de Google Cloud. Este sistema cuenta con más de 100.000 chips Trillium conectados a través de una estructura de red Jupiter que ofrece 13 Petabits/seg de ancho de banda. Integra hardware optimizado, software abierto y marcos de aprendizaje automático populares, incluidos JAX, PyTorch y TensorFlow.
¿Eres un pro? Suscríbete a nuestro newsletter.
Suscríbete a la newsletter TechRadar Pro para estar al día sobre noticias, análisis, opiniones y más para que tu empresa pueda tener éxito.
Con Trillium ahora disponible para el público en general, los clientes de Google Cloud tienen la oportunidad de acceder al mismo hardware utilizado para entrenar Gemini 2.0, lo que hace que la infraestructura de IA de alto rendimiento sea más accesible para una amplia gama de aplicaciones.
Octavio Castillo ha dado cobertura a la tecnología en diferentes medios por más de una década. Ha sido testigo del crecimiento y evolución de los gigantes tecnológicos
- Wayne WilliamsEditor