Nvidia presenta en CES 2026 su visión para la próxima década: IA en cada coche, robot y dispositivo

La compañía presenta modelos abiertos para coches autónomos, una plataforma que abarata diez veces el coste de la IA y robots capaces de razonar y de comprender el mundo físico

Roborock presenta en CES 2026 su primer robot aspirador capaz de subir (y limpiar) escaleras

El CEO de Nvidia, Jensen Huang, en CES 2026
El CEO de Nvidia, Jensen Huang, en CES 2026
Susana C. Gómez

06 de enero 2026 - 19:35

Las Vegas ha sido escenario de una de las presentaciones tecnológicas más ambiciosas del año. Nvidia, el gigante californiano de los chips de inteligencia artificial, desplegó en el CES 2026 su hoja de ruta para los próximos años: una visión en la que la IA dejará de ser algo relegado a la nube o a los grandes centros de datos para integrarse en cada vehículo, robot y aparato que utilizamos.

Durante su presentación, Jensen Huang, fundador y consejero delegado de la compañía, desgranó una batería de anuncios que abarcan desde modelos abiertos de inteligencia artificial hasta plataformas de computación de nueva generación, pasando por herramientas para desarrollar vehículos autónomos y robots capaces de razonar sobre sus propias acciones.

"La informática ha experimentado una transformación fundamental como resultado de la aceleración de los procesos informáticos, a raíz del desarrollo de la inteligencia artificial", afirmó Huang ante un auditorio repleto.

Según el directivo, la industria se encuentra en un punto de inflexión: los aproximadamente 10 billones de dólares invertidos en infraestructura informática durante la última década (desde servidores hasta centros de datos) están siendo "modernizados" hacia un nuevo paradigma dominado por la IA. En otras palabras: todo el sistema se está reconstruyendo desde cero.

Alpamayo: coches autónomos que razonan como humanos

Uno de los anuncios más destacados fue Alpamayo, una familia de modelos de IA de código abierto diseñada específicamente para vehículos autónomos.

Nvidia lo presenta como "el primer modelo de visión-lenguaje-acción de razonamiento abierto para conducción autónoma", una combinación de palabras técnicas que esconde una idea sencilla: un coche que no solo ve y reacciona, sino que también comprende y explica por qué toma cada decisión.

Nvidia Alpamayo
Nvidia Alpamayo

El núcleo de esta familia es Alpamayo 1, un modelo de 10.000 millones de parámetros (la medida que indica su complejidad) capaz de interpretar el entorno, explicar sus decisiones y actuar en consecuencia.

Está entrenado "literalmente desde la cámara hasta la actuación", explicó Huang. "No solo toma la entrada de los sensores y activa el volante, los frenos o la aceleración; también razona sobre la acción que está a punto de tomar".

A diferencia de los sistemas tradicionales de conducción autónoma, que funcionan mediante reglas programadas y reconocimiento de patrones, Alpamayo intenta emular el proceso mental humano: observar, comprender el contexto, anticipar consecuencias y decidir. Por ejemplo, ante un semáforo en ámbar, no solo calcularía distancia y velocidad, sino que "razonaría" si es seguro cruzar considerando el tráfico circundante y las condiciones de la vía.

El modelo no está pensado para ejecutarse directamente en el coche (sería demasiado potente y costoso), sino como un profesor que los fabricantes pueden usar para entrenar versiones más ligeras y eficientes que sí funcionen a bordo.

Nvidia ha liberado tanto el código como los conjuntos de datos en Hugging Face, la plataforma de referencia para modelos de IA abiertos, incluyendo más de 1.700 horas de conducción grabadas en condiciones diversas y situaciones límite.

La compañía también presentó AlphaSim, un marco de simulación abierto que permite a los desarrolladores probar estos modelos en entornos virtuales realistas antes de llevarlos a la carretera. Según Huang, este enfoque será clave para afrontar "la larga cola de la conducción", es decir, la infinidad de situaciones raras o imprevisibles que un vehículo puede encontrar en el mundo real, desde un ciervo cruzando la autopista hasta un coche circulando en sentido contrario.

Rubin: la nueva generación que promete abaratar la IA

Más allá de los coches, Nvidia anunció que su nueva plataforma de computación Rubin (sucesora de la arquitectura Blackwell) ya está en producción. Se trata del primer sistema de la compañía diseñado mediante lo que llaman "concepción extrema": en lugar de desarrollar procesadores, memorias y redes por separado y luego juntarlos, todo se ha pensado desde el principio como un único conjunto optimizado.

La plataforma incluye GPU Rubin con 50 petaflops de capacidad de inferencia (el proceso por el que una IA genera respuestas), CPU Vera orientadas al procesamiento de agentes autónomos, tecnologías de interconexión ultrarrápidas como NVLink 6 y Spectrum-X, y componentes de red avanzados como ConnectX-9 y BlueField-4.

¿Qué significa todo esto en la práctica? Que generar respuestas de IA (lo que técnicamente se llama producir tokens) será diez veces más barato que con la generación anterior. Para empresas que procesan millones de consultas diarias, esto supone una reducción de costes enorme. "Cuanto más rápido entrenas los modelos, más rápido puedes llevar la siguiente frontera al mundo", señaló Huang.

Plataforma Rubin de Nvidia
Plataforma Rubin de Nvidia

La plataforma se complementa con un nuevo sistema de almacenamiento diseñado específicamente para IA, llamado Inference Context Memory, que acelera hasta cinco veces el procesamiento de conversaciones largas o documentos extensos, algo crucial para aplicaciones como asistentes virtuales o análisis de informes médicos.

Modelos abiertos para democratizar la inteligencia artificial

Nvidia reforzó su apuesta por los modelos de código abierto, una estrategia que contrasta con la de competidores como OpenAI o Anthropic, que mantienen sus sistemas propietarios.

La compañía presentó novedades en seis grandes áreas:

  • Nemotron, para agentes de IA y modelos de razonamiento
  • Cosmos, para IA física y generación de mundos virtuales
  • Alpamayo, para conducción autónoma
  • Isaac GR00T, para robótica
  • Clara, para biomedicina
  • Earth-2, para simulación climática

Entre las novedades destacan los modelos Nemotron Speech, capaces de reconocer voz en tiempo real con latencias mínimas; Nemotron RAG, para recuperación multimodal de información (texto, imagen, vídeo); y Nemotron Safety, orientados a reforzar la seguridad y detectar información sensible en documentos.

El CEO de Nvidia, Jensen Huang, presenta el ecosistema de modelos de IA abiertos
El CEO de Nvidia, Jensen Huang, presenta el ecosistema de modelos de IA abiertos

Empresas como Bosch, ServiceNow, Palantir, CrowdStrike o Fortinet ya están integrando estos modelos en sus productos. La apuesta de Nvidia es clara: si más desarrolladores tienen acceso a estas herramientas, más aplicaciones surgirán, y más chips de Nvidia se venderán para ejecutarlas.

Robots que comprenden el mundo físico

La robótica fue otro de los pilares de la presentación. Huang afirmó que "el momento ChatGPT para la robótica ya está aquí", en referencia al salto cualitativo que supuso aquel chatbot en 2022. Ahora, según la compañía, los robots están preparados para dar un salto similar gracias a modelos capaces de comprender el mundo físico tridimensional, razonar sobre él y planificar acciones complejas.

Nvidia presentó nuevos modelos Cosmos para generación de mundos virtuales y razonamiento visual, así como Isaac GR00T N1.6, un modelo de visión-lenguaje-acción diseñado específicamente para robots humanoides. Estos sistemas permiten que un robot no solo ejecute órdenes programadas, sino que entienda instrucciones en lenguaje natural -"tráeme un vaso de agua de la cocina"- y resuelva por sí mismo los pasos necesarios.

El CEO de Nvidia, Jensen Huang, en CES 2026
El CEO de Nvidia, Jensen Huang, en CES 2026

Fabricantes como Boston Dynamics, Franka Robotics, NEURA Robotics, LG Electronics o Humanoid mostraron en CES nuevos prototipos construidos sobre la tecnología de Nvidia, muchos de ellos impulsados por el nuevo módulo Jetson Thor, basado en la arquitectura Blackwell y orientado a robots que necesitan gran capacidad de computación en espacios reducidos.

La compañía también lanzó Isaac Lab-Arena, un marco abierto para evaluar y comparar políticas robóticas a gran escala (algo así como un banco de pruebas estándar), y OSMO, una plataforma que unifica todo el ciclo de desarrollo robótico, desde la generación de datos sintéticos hasta las pruebas en la nube y el despliegue físico.

De los superordenadores al escritorio

Aunque la mayor parte de los anuncios se centraron en grandes infraestructuras y robots industriales, Huang quiso dejar claro que la IA también será personal y doméstica. Durante la presentación mostró un agente de IA ejecutándose localmente en un DGX Spark, -un ordenador de escritorio potente pero no astronómicamente caro, interactuando con un pequeño robot de sobremesa llamado Reachy Mini mediante modelos descargados de Hugging Face.

"Lo sorprendente es que esto ahora es trivial, cuando hace apenas unos años era inimaginable", afirmó. La escena ilustraba una idea central: lo que hace cinco años requería un centro de datos y millones en inversión, ahora cabe en un despacho.

Una década de transformación

Huang cerró su intervención con una visión a largo plazo: un mundo en el que la IA esté integrada en todos los sistemas físicos, desde coches y robots domésticos hasta plantas industriales completamente automatizadas, que funcionarán como "grandes robots" capaces de auto-organizarse y optimizarse.

"Nuestro trabajo es crear el lote completo de herramientas para que todos vosotros podáis construir aplicaciones increíbles para el resto del mundo", concluyó ante los miles de desarrolladores, fabricantes e ingenieros reunidos en Las Vegas.

Si las previsiones de Nvidia se cumplen, la próxima década marcará el paso de la IA como experimento de laboratorio a la IA como infraestructura básica de la sociedad, tan ubicua e indispensable como lo es hoy internet. La cuestión ya no es si ocurrirá, sino a qué velocidad.

stats