Nvidia dijo que las oportunidades de ingresos para sus chips de inteligencia artificial podrían alcanzar al menos un billón de dólares para 2027, mientras la compañía presentaba una estrategia para competir de manera más agresiva en el mercado de rápido crecimiento para ejecutar sistemas de inteligencia artificial en tiempo real.
El director ejecutivo, Jensen Huang, presentó en diciembre en su conferencia anual de desarrolladores GTC en San José, California, un nuevo procesador central y un sistema de inteligencia artificial basado en la tecnología de Groq, una nueva empresa de chips a la que Nvidia le otorgó licencia de tecnología por 17 mil millones de dólares.
Las medidas son parte del intento de Huang de solidificar la posición de la compañía en la llamada computación de inferencia, el proceso de responder consultas, donde sus procesadores gráficos enfrentan una mayor competencia de unidades centrales de procesamiento y procesadores personalizados construidos por compañías como Google. Los chips de Nvidia han dominado el proceso de entrenamiento de modelos de IA, que ha sido el centro de atención en los últimos años.
“La inflexión ha llegado”, dijo Huang. “Y la demanda sigue aumentando”, añadió.
Con su característica chaqueta de cuero negra, Huang habló en un estadio de hockey con capacidad para más de 18.000 personas en la conferencia de cuatro días que se ha convertido en una de las mayores vitrinas de la tecnología de inteligencia artificial. “Sólo quiero recordarles que esta es una conferencia técnica”, dijo a la audiencia.
Pero después de un repunte meteórico que convirtió a Nvidia en la primera empresa en alcanzar una valoración de 5 billones de dólares en octubre pasado, crecieron las dudas sobre su crecimiento. Los inversores también se preguntan si su plan de reinvertir las ganancias en el ecosistema de IA dará sus frutos. Los comentarios de Huang disiparon algunos temores.
El pronóstico de 1 billón de dólares es superior a la oportunidad de ingresos de 500 mil millones de dólares hasta 2026 citada por Nvidia para sus chips Blackwell y Rubin AI durante su última conferencia telefónica sobre ganancias en febrero.
Las acciones de Nvidia subieron brevemente ante la nueva orientación, pero redujeron esas ganancias para cerrar con un alza del 1,2%.
“La visión de Huang de una oportunidad de 1 billón de dólares hasta 2027 pone de relieve la demanda duradera de la infraestructura de inteligencia artificial de Nvidia a pesar de las preocupaciones de los inversores”, dijo Jacob Bourne, analista de Emarketer.
“Esto indica que Nvidia mantiene su liderazgo en el mercado de chips de IA a medida que la industria de la IA en general se expande más allá de los primeros experimentos hacia la implementación a gran escala”.
Auge de la inferencia
Huang dijo que la inferencia, en la que los sistemas de IA responden preguntas o realizan tareas, se dividirá en dos etapas.
Los chips Vera Rubin de Nvidia manejarán una primera etapa llamada “prellenado”, donde la solicitud del usuario se transforma de palabras humanas al “lenguaje simbólico” utilizado por las computadoras de inteligencia artificial.
Los nuevos chips de Groq se encargarán de una segunda etapa de “decodificación” en la que la computadora con inteligencia artificial proporcionará la respuesta que el usuario busca.
Después de gastar cientos de miles de millones de dólares en los últimos años en chips para entrenar sus modelos de IA, empresas como OpenAI, Anthropic y Meta están dirigiendo su atención a los cientos de millones de usuarios que operan estos sistemas de IA.
También está impulsando la demanda de procesadores, dominados por Intel y cada vez más vistos como una alternativa viable a los procesadores gráficos de Nvidia para implementar modelos de IA.
“Vendemos muchos procesadores independientes”, dijo Huang al presentar el nuevo procesador Vera. “Seguramente será un negocio multimillonario para nosotros”, añadió.
Huang también describió la hoja de ruta Feynman de la compañía, pero proporcionó pocos detalles más allá de una lista de los diversos chips que Nvidia planea incluir en la plataforma, incluidos procesadores de inteligencia artificial y varios chips de red. La arquitectura Feynman se espera para 2028, siguiendo a los chips Rubin Ultra de la compañía.
La compañía también apunta al mercado de agentes autónomos de IA con NemoClaw, que se integra con la plataforma viral OpenClaw para agregar controles de privacidad y seguridad a la herramienta que puede realizar de forma autónoma una amplia gama de tareas con una mínima guía humana y que ha generado revuelo global.
“En cierto modo ha mejorado todo el debate. Ha mejorado toda la forma de pensar sobre cómo gestionan la infraestructura”, dijo Bob O’Donnell, presidente de Technalysis Research, refiriéndose a los anuncios.
“Él (Huang) solía presentar un nuevo chip GPU y decir: ‘Mira, aquí está mi nuevo chip. Ahora tiene, ya sabes, cinco bastidores de equipos que componen estos sistemas”.



