La inteligencia artificial (IA) será uno de los mayores generadores de ingresos de Nvidia, según la última proyección de TrendForce (se abre en una pestaña nueva). La firma de investigación estima que ChatGPT de OpenAI eventualmente necesitará más de 30,000 tarjetas gráficas Nvidia. Afortunadamente, los jugadores no tienen que preocuparse, ya que ChatGPT no toca las mejores tarjetas gráficas para juegos, sino los aceleradores de cómputo de Nvidia como el A100.
Nvidia siempre ha tenido la habilidad de olfatear carreras doradas. El fabricante de chips estuvo a la vanguardia del auge de las criptomonedas, obteniendo ingresos récord de los mineros. Nvidia una vez más se encuentra a la vanguardia de lo que parece ser la siguiente mejor opción: la IA. Y el auge de la IA ya está AQUÍ, como lo demuestran todos los creadores de texto e imágenes impulsados por IA que han surgido en los últimos meses.
Usando el acelerador A100 (amperios) como punto de referencia, TrendForce estimó que ChatGPT requirió alrededor de 20 000 unidades para procesar los datos de entrenamiento. Sin embargo, el número aumentará significativamente, posiblemente más de 30 000 unidades, a medida que OpenAI continúe implementando comercialmente ChatGPT y el modelo de transformador preentrenado generativo (GPT) de la compañía. El A100 cuesta entre $ 10,000 y $ 15,000, según la configuración y el factor de forma. Entonces, como mínimo, Nvidia espera $ 300 millones en ingresos. El número puede ser un poco más bajo, ya que es probable que Nvidia descuente OpenAI según la cantidad de tarjetas requeridas.
Nvidia también vende el A100 como parte del sistema DGX A100, que tiene ocho aceleradores y se vende al por menor por $ 199,000. Dada la escala de la operación de OpenAI, la compañía probablemente comprará el A100 individualmente y los apilará en grupos. El DGX A100, por otro lado, es una opción atractiva para las empresas más pequeñas que buscan sumergirse en la IA.
Si bien el A100 es excelente para la IA, Nvidia ya comenzó a enviar el H100 (Hopper), el reemplazo directo del A100. Sobre el papel, el H100 ofrece hasta tres veces el rendimiento de su predecesor. Además, según Nvidia, el H100 es incluso mejor que el A100 y ofrece hasta nueve veces más rendimiento en el entrenamiento de IA. Sin embargo, el H100 tiene un precio significativamente más alto, ya que las listas muestran que el acelerador Hopper cuesta más de $ 32,000.
El último informe de ganancias de Nvidia reveló que el negocio de centros de datos de la compañía, incluidos los aceleradores de IA, mejoró un 11 % año tras año y recaudó más de $3600 millones en ventas durante el trimestre. Es probable que esos números se disparen pronto a medida que grandes jugadores como Microsoft entren en el juego. Microsoft está en proceso de integrar ChatGPT con Bing y Edge. Teniendo en cuenta el tamaño de la base de usuarios (básicamente todos los que ejecutan Windows), es posible que Microsoft deba gastar miles de millones para escalar en los próximos meses y años.
Nvidia no es la única opción en el mercado de IA, ya que Intel y AMD también ofrecen aceleradores de IA rivales. Luego también tienes empresas como Google y Amazon con sus propias soluciones de IA. Durante el auge de las criptomonedas, los mineros compraron todas las tarjetas gráficas en efectivo, lo que ayudó a contribuir a la escasez de tarjetas gráficas. No esperamos otra escasez, pero el suministro de tarjetas gráficas GeForce para juegos podría verse afectado si Nvidia de repente decide priorizar la producción de aceleradores de IA sobre sus ofertas principales. Sólo el tiempo dirá.






