El director ejecutivo de Nvidia, Jensen Huang, pronuncia un discurso de apertura durante la conferencia de inteligencia artificial de Nvidia GTC en el Centro SAP el 18 de marzo de 2024 en San José, California.
Justin Sullivan | imágenes falsas
La nueva generación de procesadores gráficos impulsados por IA se llama Blackwell. El primer chip de Blackwell se llama GB200 y se enviará a finales de este año. Nvidia ha estado atrayendo a sus clientes con chips más potentes para estimular nuevos pedidos. Por ejemplo, las empresas y los fabricantes de software todavía están luchando por obtener la generación actual de chips «Hopper» H100 y chips similares.
«Hopper es genial, pero necesitamos GPU más grandes», dijo el lunes el director ejecutivo de Nvidia, Jensen Huang, en la conferencia de desarrolladores de la compañía en California.
Las acciones de Nvidia cayeron más del 1% en las operaciones ampliadas del lunes.
La compañía también presentó un programa de generación de ingresos llamado NIM que facilitará la implementación de IA, brindando a los clientes otra razón para continuar usando chips Nvidia en medio de un creciente campo de competidores.
Los ejecutivos de Nvidia dicen que la compañía se ha convertido menos en un proveedor mercenario de chips y más en un proveedor de plataformas, como Microsoft o Apple, sobre las cuales otras compañías pueden desarrollar software.
«Blackwell no es un chip, es el nombre de una plataforma», afirmó Huang.
«El producto comercialmente vendible era la GPU y el software estaba destinado a ayudar a las personas a utilizar la GPU de diferentes maneras», dijo en una entrevista el vicepresidente de la Fundación Nvidia, Manuvir Das. «Por supuesto, todavía lo hacemos. Pero lo que realmente ha cambiado es que ahora tenemos una empresa de software empresarial».
Das dijo que el nuevo software de Nvidia facilitará la ejecución de software en cualquiera de las GPU de Nvidia, incluso en las más antiguas que pueden ser más adecuadas para la implementación pero no para la creación de IA.
«Si eres desarrollador y tienes un modelo interesante que quieres que la gente adopte, si lo pones en NIM, nos aseguraremos de que se pueda reproducir en todas nuestras GPU, para que puedas llegar a mucha gente». Dijo Das.
Superchip GB200 Grace Blackwell de Nvidia, con dos GPU B200 y una CPU basada en Arm.
Cada dos años, Nvidia actualiza su arquitectura de GPU, lo que genera un gran salto en el rendimiento. Muchos de los modelos de IA lanzados durante el año pasado han sido entrenados en la arquitectura Hopper de la compañía, que utiliza chips como el H100, que se anunciará en 2022.
Nvidia dice que los procesadores basados en Blackwell, como el GB200, ofrecen una enorme mejora de rendimiento para las empresas de IA, con 20 petaflops en rendimiento de IA frente a 4 petaflops del H100. Nvidia dijo que la potencia de procesamiento adicional permitirá a las empresas de inteligencia artificial entrenar modelos más grandes y complejos.
El chip incluye lo que Nvidia llama un «motor transformador diseñado específicamente para alimentar la IA basada en transformadores, una de las tecnologías centrales detrás de ChatGPT».
La GPU Blackwell es grande y combina dos matrices fabricadas por separado en un solo chip fabricado por TSMC. También estará disponible como un servidor completo llamado GB200 NVLink 2, que combina 72 GPU Blackwell y otras piezas de Nvidia diseñadas para entrenar modelos de IA.
El director ejecutivo de Nvidia, Jensen Huang, compara el tamaño del nuevo chip «Blackwell» con el actual chip «Hopper» H100 en la conferencia de desarrolladores de la compañía, en San José, California.
NVIDIA
Amazon, Google, Microsoft y Oracle venderán acceso al GB200 a través de servicios en la nube. El GB200 combina dos GPU B200 Blackwell con una única CPU Grace basada en Arm. Nvidia dijo que Amazon Web Services construirá una granja de servidores que contiene 20.000 chips GB200.
Nvidia dijo que el sistema puede implementar un modelo que contiene 27 billones de parámetros. Esto es mucho mayor que incluso los modelos más grandes, como el GPT-4, que se dice que contiene 1,7 billones de parámetros. Muchos investigadores de IA creen que los modelos más grandes contienen más parámetros y datos. Puede desbloquear nuevas habilidades..
Nvidia no proporcionó el costo del nuevo GB200 ni de los sistemas utilizados en él. El H100 basado en Hopper de Nvidia cuesta entre 25.000 y 40.000 dólares por chip, y los sistemas completos cuestan hasta 200.000 dólares, según estimaciones de los analistas.
Nvidia también venderá las GPU B200 como parte de un sistema completo que ocupa todo un rack de servidores.
Nvidia también anunció que agregará un nuevo producto llamado NIM, que significa Nvidia Inference Microservice, a su suscripción al programa Nvidia Enterprise.
NIM facilita el uso de GPU Nvidia heredadas para la inferencia o el proceso de ejecución de programas de inteligencia artificial, y permitirá a las empresas continuar usando los cientos de millones de GPU Nvidia que ya poseen. La inferencia requiere menos potencia computacional que el entrenamiento inicial de un nuevo modelo de IA. NIM permite a las empresas que quieran ejecutar sus propios modelos de IA, en lugar de comprar acceso a los resultados de la IA como un servicio de empresas como OpenAI.
La estrategia es conseguir que los clientes que compran servidores basados en Nvidia se suscriban a Nvidia Enterprise, cuya licencia cuesta 4.500 dólares por GPU al año.
Nvidia trabajará con empresas de inteligencia artificial como Microsoft o Hugging Face para garantizar que sus modelos de inteligencia artificial estén ajustados para ejecutarse en todos los chips Nvidia compatibles. Luego, utilizando NIM, los desarrolladores pueden ejecutar eficientemente el modelo en sus propios servidores o en los servidores basados en la nube de Nvidia sin un largo proceso de configuración.
«En mi código, donde llamaba a OpenAI, reemplazaba una línea de código para apuntar al NIM que obtuve de Nvidia», dijo Das.
Nvidia dice que el software también ayudará a que la IA se ejecute en computadoras portátiles equipadas con GPU, en lugar de servidores en la nube.
. «Aficionado a la música devoto. Adicto al café. Amante de Twitter. Pensador sutilmente encantador. Introvertido sin disculpas».
More Stories
QT del balance de la Fed: -1,60 billones de dólares desde el máximo, a 7,36 billones de dólares, el nivel más bajo desde diciembre de 2020
El despido de Elon Musk del equipo Tesla Supercharger genera preocupación sobre el futuro de la industria del coche eléctrico
Peloton cayó a un mínimo histórico tras anunciar la salida de su CEO y despidos