- Trillium estuvo disponible de forma generalizada pocos meses después del lanzamiento de la vista previa.
- Un potente chip de IA ofrece cuatro veces más rendimiento en el entrenamiento
- Google lo utiliza para entrenar Gemini 2.0, el modelo avanzado de inteligencia artificial de la compañía
Google ha estado desarrollando Tensor Processing Units (TPU), sus aceleradores de IA personalizados, durante más de una década, y unos meses después de que estuvieran disponibles en versión preliminar, anunció que sus TPU de sexta generación han alcanzado la disponibilidad general y ahora están disponibles para alquilar. .
Trillium duplica tanto la capacidad de HBM como el ancho de banda de Interchip Interconnect, y se utilizó para entrenar Gemini 2.0, el modelo insignia del gigante tecnológico de inteligencia artificial.
Google informa que ofrece una mejora de hasta 2,5 veces por dólar en el rendimiento de la capacitación en comparación con las generaciones anteriores de TPU, lo que la convierte en una opción atractiva para las organizaciones que buscan una infraestructura de IA eficiente.
Computadora con IA en la nube de Google
Trillium ofrece una variedad de otras mejoras con respecto a su predecesor, incluido más de cuatro veces el rendimiento del entrenamiento. La eficiencia energética se ha incrementado en un 67%, mientras que el rendimiento informático por chip se ha multiplicado por 4,7.
Trillium también mejora naturalmente el rendimiento de la calefacción. Las pruebas de Google indican un rendimiento tres veces mayor para modelos de imágenes como Stable Diffusion XL y casi el doble de rendimiento para modelos de llantas grandes en comparación con generaciones anteriores de TPU.
El chip también está optimizado para modelos con uso intensivo de integración, y la tercera generación de SparseCore proporciona un mejor rendimiento para operaciones dinámicas y dependientes de datos.
Trillium TPU también forma la base de la computadora con inteligencia artificial de Google Cloud. Este sistema incluye más de 100.000 chips Trillium conectados a través de una red Júpiter que proporciona un ancho de banda de 13 Petabits/seg. Combina hardware optimizado, software de código abierto y marcos de aprendizaje automático populares, incluidos JAX, PyTorch y TensorFlow.
Con Trillium ahora disponible de forma generalizada, los clientes de Google Cloud tienen la oportunidad de acceder al mismo hardware utilizado para entrenar Gemini 2.0, lo que hace que la infraestructura de IA de alto rendimiento sea más accesible para una amplia gama de aplicaciones.