- Los chips HBM4 están preparados para impulsar las ambiciones avanzadas de IA de Tesla
- El superordenador Dojo incorporará los chips HBM4 de alto rendimiento de Tesla
- Samsung y SK Hynix compiten por pedidos de chips de memoria AI de Tesla
A medida que el mercado de memorias de gran ancho de banda (HBM) sigue creciendo, y se espera que alcance los 33.000 millones de dólares en 2027, la competencia entre Samsung y SK Hynix se intensifica.
Tesla está avivando las llamas ya que, según se informa, se ha acercado a Samsung y SK Hynix, dos de los mayores fabricantes de chips de memoria de Corea del Sur, para obtener muestras de sus chips HBM4 de próxima generación.
Ahora informa lo que Diario económico coreano Tesla dice que planea evaluar estas muestras para una posible integración en su supercomputadora Dojo hecha a medida, un sistema crítico diseñado para impulsar las ambiciones de inteligencia artificial de la compañía, incluida su tecnología de vehículos autónomos.
Los ambiciosos planes de Tesla en IA y HBM4
Impulsada por el chip D1 AI patentado de Tesla, la supercomputadora Dojo ayuda a entrenar las redes neuronales necesarias para una capacidad total de conducción autónoma (FSD). Esta última solicitud indica que Tesla se está preparando para reemplazar los chips HBM2e más antiguos por el HBM4 más avanzado, que ofrece mejoras significativas en velocidad, eficiencia energética y rendimiento general. También se espera que la compañía integre chips HBM4 en sus centros de datos de inteligencia artificial y en sus futuros vehículos autónomos.
Samsung y SK Hynix, antiguos rivales en el mercado de chips de memoria, están fabricando prototipos de chips HBM4 para Tesla. Estas empresas también están desarrollando agresivamente soluciones HBM4 personalizadas para las principales empresas tecnológicas estadounidenses, como Microsoft, Meta y Google.
Según fuentes de la industria, SK Hynix sigue siendo el líder actual en el mercado de memorias de alto ancho de banda (HBM), suministrando chips HBM3e a NVIDIA y manteniendo una importante cuota de mercado. Sin embargo, Samsung está cerrando rápidamente la brecha, formando asociaciones con empresas como Taiwan Semiconductor Manufacturing Company (TSMC) para producir componentes clave para sus chips HBM4.
SK Hynix parece haber avanzado con su chip HBM4. La empresa afirma que su solución proporciona 1,4 veces el ancho de banda del HBM3e y utiliza un 30% menos de energía. Con un ancho de banda que se espera que supere los 1,65 terabytes por segundo (TB/s) y un consumo de energía reducido, los chips HBM4 ofrecen el rendimiento y la eficiencia necesarios para entrenar modelos masivos de IA utilizando la supercomputadora Dojo de Tesla.
También se espera que los nuevos chips HBM4 incluyan una matriz lógica en la base de la pila de chips, que funciona como unidad de control de la matriz de memoria. Este diseño de matriz lógica permite un procesamiento de datos más rápido y una mejor eficiencia energética, lo que hace que HBM4 sea ideal para las aplicaciones impulsadas por IA de Tesla.
Se espera que ambas empresas aceleren sus cronogramas de desarrollo de HBM4, y SK Hynix pretende entregar los chips a los clientes a finales de 2025. Samsung, por otro lado, está impulsando sus planes de producción con su avanzado proceso de fundición de 4 nanómetros (nm), que podría ayudarle a obtener una ventaja competitiva en el mercado global de HBM.
a través de fuerza de tendencia