Nvidia acelera la carrera de la IA: su nueva generación de chips promete quintuplicar la potencia

Jensen Huang confirmó en el CES de Las Vegas que los nuevos procesadores ya están en producción total. Llegarán a fin de año y apuntan a marcar un salto clave en chatbots, centros de datos y autos autónomos, en un contexto de competencia cada vez más dura.

Por Eric Nesich

Periodista especializado en Economía y Finanzas

Martes 06 de enero del 2026 a las 1:57 pm

Nvidia volvió a sacudir al mundo tecnológico. Su CEO, Jensen Huang, aseguró que la próxima generación de chips de la compañía ya entró en “producción completa” y que será capaz de ofrecer hasta cinco veces más capacidad de cómputo para inteligencia artificial que los modelos actuales. El anuncio se dio durante su presentación en el Consumer Electronics Show (CES) de Las Vegas.

 

Según explicó el ejecutivo, los nuevos procesadores llegarán hacia fines de este año y ya están siendo probados en los laboratorios de Nvidia por empresas de IA. El movimiento se da en un escenario donde la firma líder del sector empieza a sentir con más fuerza la presión, tanto de competidores históricos como de grandes clientes que desarrollan chips propios.

 

La plataforma Rubin y un salto de eficiencia

 

La gran apuesta de Nvidia se llama Vera Rubin, una plataforma integrada por seis chips distintos. Su servidor insignia incluirá 72 GPUs y 36 nuevos procesadores centrales, y podrá escalarse en “pods” de más de 1.000 chips trabajando en conjunto.

 

Huang detalló que esta arquitectura permitiría mejorar hasta diez veces la eficiencia en la generación de “tokens”, la unidad básica con la que operan los sistemas de inteligencia artificial. Para lograr ese salto, los chips Rubin utilizan un formato de datos propietario que Nvidia espera que termine adoptándose como estándar en la industria.

“Así logramos un avance enorme en rendimiento, aun cuando solo incrementamos en 1,6 veces la cantidad de transistores”, explicó Huang ante un auditorio repleto.

 

Aunque Nvidia sigue dominando el entrenamiento de modelos de IA, el panorama se volvió más competitivo. Empresas como AMD avanzan fuerte, pero también lo hacen gigantes tecnológicos como Google, que además de ser clientes desarrollan sus propios chips para abastecer a cientos de millones de usuarios de chatbots y servicios basados en IA.

 

Buena parte del discurso de Huang apuntó justamente a mostrar cómo los nuevos chips se desempeñan mejor en esa etapa final, la de llevar los modelos a gran escala. Entre las novedades, se destacó una nueva capa de almacenamiento llamada “memoria contextual”, diseñada para que los chatbots respondan con mayor rapidez y coherencia en conversaciones largas.

 

Nvidia también presentó una nueva generación de switches de red con tecnología de “óptica coempaquetada”, clave para interconectar miles de máquinas como si fueran un solo sistema. En este terreno compite de lleno con Broadcom y Cisco.

 

La compañía adelantó que CoreWeave será uno de los primeros en utilizar los sistemas Rubin y espera que gigantes como Microsoft, Amazon, Oracle y Alphabet también los adopten. Además, Huang destacó avances en software para autos autónomos, con herramientas que permiten auditar cómo los sistemas toman decisiones. Parte de ese desarrollo, conocido como Alpamayo, será liberado junto con los datos de entrenamiento.

 

“No solo abrimos el código, también los datos. Es la única forma de confiar realmente en cómo se construyen estos modelos”, remarcó el CEO.

 

En paralelo, Nvidia sumó talento y tecnología tras adquirir parte de la startup Groq, cuyos ejecutivos habían sido clave en el desarrollo de chips de IA de Google. Huang aseguró que la operación no afecta el negocio central, pero sí podría derivar en nuevos productos.

 

 

¿Quiere recibir notificaciones de alertas?