Nvidia reportó más de 19 mil millones de dólares en ingresos netos en el último trimestre, pero esto no tranquilizó a los inversores sobre el futuro crecimiento de la empresa. Durante una llamada sobre sus ganancias, los analistas preguntaron al CEO Jensen Huang cómo le iría a Nvidia si las empresas tecnológicas comenzaran a usar nuevos métodos para mejorar sus modelos de inteligencia artificial. Uno de estos métodos, llamado “escalado en tiempo de prueba”, que utiliza OpenAI, fue mencionado varias veces. La idea es que los modelos de IA pueden dar mejores respuestas si se les da más tiempo y poder de cómputo para “pensar” sobre las preguntas. Esto significa que se añade más capacidad de cómputo en la fase de inferencia de la IA, que es lo que ocurre después de que un usuario presiona enter en su solicitud.
Huang fue cuestionado sobre si estaba viendo a los desarrolladores de modelos de IA cambiar a estos nuevos métodos y cómo funcionarían los chips más antiguos de Nvidia para la inferencia de IA. El CEO de Nvidia aseguró a los inversores que el escalado en tiempo de prueba podría tener un papel más importante en el negocio de Nvidia en el futuro, describiéndolo como “uno de los desarrollos más emocionantes” y “una nueva ley de escalado”. Huang intentó tranquilizar a los inversores, afirmando que Nvidia está bien posicionada para este cambio.
Las declaraciones de Huang coincidieron con lo que el CEO de Microsoft, Satya Nadella, dijo en un evento de Microsoft: el escalado en tiempo de prueba representa una nueva forma para que la industria de la IA mejore sus modelos. Esto es importante para la industria de los chips, ya que pone un mayor énfasis en la inferencia de IA. Aunque los chips de Nvidia son el estándar de oro para entrenar modelos de IA, hay varias startups bien financiadas que están creando chips de inferencia de IA muy rápidos, como Groq y Cerebras, lo que podría hacer que el espacio sea más competitivo para Nvidia.
A pesar de los informes recientes que indican que las mejoras en los modelos generativos están desacelerándose, Huang dijo que los desarrolladores de modelos de IA aún están mejorando sus modelos al añadir más capacidad de cómputo y datos durante la fase de preentrenamiento. Dario Amodei, CEO de Anthropic, también comentó que no está viendo una desaceleración en el desarrollo de modelos. Huang afirmó que “el escalado del preentrenamiento de modelos fundamentales está intacto y continúa”. Sin embargo, también mencionó que lo que están aprendiendo es que esto no es suficiente.
Esto es lo que los inversores de Nvidia querían escuchar, ya que las acciones de la empresa han aumentado más del 180% en 2024, gracias a la venta de chips de IA que utilizan OpenAI, Google y Meta para entrenar sus modelos. Sin embargo, algunos socios de Andreessen Horowitz y otros ejecutivos de IA han mencionado que estos métodos ya están mostrando rendimientos decrecientes. Huang señaló que la mayoría de las cargas de trabajo de cómputo de Nvidia hoy en día están relacionadas con el preentrenamiento de modelos de IA, no con la inferencia, pero atribuyó esto a la situación actual del mundo de la IA.
El CEO de Nvidia expresó que algún día habrá más personas ejecutando modelos de IA, lo que significará que habrá más inferencia de IA. Huang destacó que Nvidia es la plataforma de inferencia más grande del mundo y que la escala y fiabilidad de la empresa le dan una gran ventaja frente a las startups. “Nuestra esperanza es que algún día, el mundo realice una gran cantidad de inferencia, y ese será el verdadero éxito de la IA”, concluyó Huang. “Todos saben que si innovan sobre CUDA y la arquitectura de Nvidia, pueden innovar más rápidamente, y saben que todo debería funcionar”.