Nvidia
Crédito BoliviaInteligente vía Unsplash

Nvidia centrará su megaconferencia en los avances de la IA para vencer a la competencia

Los chips de Nvidia se sitúan en el centro de cientos de miles de millones de dólares en inversiones en centros de datos por parte de gobiernos y empresas de todo el mundo, pero la compañía se enfrenta a la competencia de otros fabricantes
Facebook
X
LinkedIn
WhatsApp
Telegram

Reuters.- Cuando Jensen Huang suba al escenario de un estadio de hockey abarrotado para dar comienzo a la conferencia anual de desarrolladores de Nvidia el lunes, es probable que revele productos y asociaciones orientadas a mantener al fabricante de chips de IA por encima de una creciente gama de competidores.

La Nvidia GTC, como se conoce a la conferencia, ocupa el corazón de Silicon Valley durante casi una semana y se ha convertido en el evento preferido del CEO Huang para mostrar los avances de Nvidia en IA en chips, centros de datos, su software de programación de chips CUDA, asistentes digitales conocidos como agentes de IA e IA física como robots.

Este año, el evento de cuatro días es aún más crucial, ya que los inversores buscarán garantías de que la estrategia de Nvidia de reinvertir sus beneficios en el ecosistema de la IA está dando sus frutos.

“Espero que Nvidia presente una actualización completa de su hoja de ruta, desde Rubin hasta Feynman, haciendo hincapié en la inferencia, la IA agéntica”, las redes y la infraestructura de la fábrica de IA”, afirma Jacob Bourne, analista de eMarketer, utilizando los nombres de las generaciones de chips actuales y futuras de Nvidia.

Los chips de Nvidia se sitúan en el centro de cientos de miles de millones de dólares en inversiones en centros de datos por parte de gobiernos y empresas de todo el mundo, pero la compañía se enfrenta a la competencia de otros fabricantes de chips e incluso de algunos de sus clientes, que están desarrollando sus propios chips.

Los analistas explicaron a Reuters que esperan que el mercado global de chips de IA siga creciendo, pero que la cuota de Nvidia se reduzca un poco a medida que el mercado de chips de IA cambie rápidamente hacia un mercado en el que los agentes de IA van y vienen entre las aplicaciones informáticas realizando tareas en nombre de los humanos. Se trata de un cambio con respecto al entrenamiento, en el que los laboratorios de IA conectan muchos chips de Nvidia en un solo ordenador para masticar enormes cantidades de datos y perfeccionar sus modelos de IA.

Se espera que estos agentes lleguen a ser tan numerosos que los humanos que les pidan que trabajen necesitarán incluso una nueva capa de mandos intermedios de IA -lo que los tecnólogos llaman una capa de “orquestación”- que se sitúe entre los usuarios humanos y sus flotas de agentes. En cierto modo, según los analistas, eso es bueno para Nvidia, porque indica que la IA es cada vez más útil.

Pero esas tareas, ampliamente conocidas como “inferencia” en la industria de la IA, también pueden ejecutarse en otros tipos de chips, incluidos los que los grandes clientes de Nvidia como OpenAI y Meta que recientemente dijo que planea lanzar nuevos chips de IA cada seis meses, pueden construir por sí mismos.

“No cabe duda de que Nvidia va a tener más competencia que hace un año”, afirma KinNgai Chan, director general de Summit Insights Group. “Nvidia sigue teniendo cerca de más del 90% de cuota de mercado en los mercados de formación e inferencia en la actualidad.”

“Creemos que Nvidia empezará a ver una pérdida de cuota a partir de 2027, una vez que los programas ASIC internos ganen cierta escala, especialmente en el mercado de la inferencia”, dijo, refiriéndose a los circuitos integrados de aplicación específica, chips adaptados para una única función o carga de trabajo personalizada, que ofrecen una mayor eficiencia que las unidades de procesamiento gráfico de propósito general.

Nvidia refuerza sus defensas

La empresa gastó 17,000 millones de dólares en diciembre para adquirir Groq, una startup de chips especializada en trabajos de computación de inferencia rápidos y baratos. Al hablar de Groq en la llamada de resultados de la compañía del mes pasado, Huang dijo que la empresa mostraría en la GTC cómo Nvidia puede conectar la tecnología de IA ultrarrápida de Groq a su actual plataforma CUDA.

William McGonigle, analista de Third Bridge, dijo que su firma espera que Nvidia lance una nueva línea de servidores que combinará los chips de Groq con las tecnologías de red de Nvidia para crear un producto rápido y rentable.

Otro tipo de chip que supone una amenaza competitiva cada vez mayor para Nvidia es la unidad central de procesamiento, o CPU, el tipo de chip defendido durante mucho tiempo por Intel y Advanced Micro Devices.

Aunque en los últimos años estos chips han quedado relegados a un segundo plano frente a las unidades de procesamiento gráfico de Nvidia (GPU), McGonigle afirma que “vuelven a estar en el punto de mira” y espera que Nvidia presente servidores que utilicen únicamente sus CPU, que Huang destacó en una reciente presentación de resultados.

“Con el auge de la IA agéntica, el cuello de botella está ahora en el nivel de orquestación del agente, que corre a cargo de las CPU”, dijo McGonigle.

Los analistas también esperan que Nvidia explique por qué invirtió 2,000 millones de dólares cada una en Lumentum y Coherent, que fabrican láseres para enviar información entre chips en forma de haces de luz. El uso de estos láseres en lo que se denomina óptica de coempaquetado podría ayudar a acelerar las conexiones entre los chips de Nvidia dentro de enormes centros de datos, pero actualmente no se fabrican en volúmenes lo suficientemente grandes como para igualar el número de chips que Nvidia vende cada año.

“Es probable que Nvidia considere la óptica combinada como la clave para conectar clústeres masivos de inteligencia artificial de forma más eficiente, pero el reto es que sea lo suficientemente asequible como para desplegarse a gran escala”, afirma Bourne, de eMarketer.