NVIDIA MEJORA SU CHIP ESTRELLA PARA EL DESARROLLO DE LA INTELIGENCIA ARTIFICIAL

14 noviembre, 2023

Nvidia anunció el lunes nuevas funcionalidades para su avanzado chip de inteligencia artificial, el H200, indicando que la implementación de esta innovación comenzará el próximo año con gigantes como Amazon.com, Google de Alphabet y Oracle.

Este chip, conocido como H200, superará a su predecesor, el H100, destacando principalmente por contar con una mayor capacidad de memoria de gran ancho de banda. Este aspecto es crucial, ya que la memoria de gran ancho de banda es una de las partes más costosas del chip y determina la cantidad de datos que puede procesar de manera eficiente.

Nvidia, líder en el mercado de chips de inteligencia artificial y motor detrás de servicios como ChatGPT de OpenAI, está mejorando sus capacidades al aumentar la memoria de gran ancho de banda y acelerar la conexión a los elementos de procesamiento del chip. Estas mejoras permitirán que servicios similares, que generan respuestas de manera similar a la humana, proporcionen respuestas de manera más rápida.

En comparación con el H100, el H200 cuenta con 141 gigabytes de memoria de gran ancho de banda, un incremento significativo desde los 80 gigabytes de su predecesor. Aunque Nvidia no ha revelado a los proveedores de memoria para el nuevo chip, Micron Technology anunció en septiembre que estaba trabajando para convertirse en uno de los proveedores de Nvidia.

Además, Nvidia adquiere memoria de SK Hynix, empresa coreana que mencionó el mes pasado que la demanda de chips de inteligencia artificial estaba impulsando sus ventas.

En un comunicado del miércoles, Nvidia informó que Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure estarán entre los primeros proveedores de servicios en la nube que ofrecerán acceso a los chips H200. También se sumarán proveedores especializados en inteligencia artificial como CoreWeave, Lambda y Vultr.

¿CONOCES NUESTROS CURSOS?