Nvidia lanzó Alpamayo-R1, su primer modelo abierto de “visión, lenguaje y acción” para conducción autónoma. Una IA más segura para conducir en entornos urbanos.
En la reciente conferencia de inteligencia artificial NeurIPS 2025, Nvidia anunció el desarrollo de Alpamayo-R1 (AR1), un modelo abierto orientado a vehículos autónomos que integra visión, lenguaje y acción, el conjunto de capacidades que, según la empresa, permite un razonamiento más complejo, “como el humano”, para conducir en entornos urbanos.
AR1 se presentó como el primer modelo público de este tipo, diseñado para planificar rutas, interpretar situaciones de tráfico y tomar decisiones. Esto, evaluando múltiples trayectorias posibles con base en contexto real y datos combinados.
La empresa explica que AR1 basa su funcionamiento en su plataforma interna Nvidia Cosmos Reason, y que la versión abierta está disponible para la comunidad investigadora, apoyada con un conjunto de datos públicos, herramientas de simulación y código fuente accesible. Según Nvidia, este enfoque fomenta la colaboración internacional en el desarrollo de conducción autónoma, reduciendo barreras de acceso a tecnologías avanzadas.

Pruebas a la IA
El modelo fue sometido a pruebas con aprendizaje por refuerzo, según la compañía, y los resultados mostraron mejoras notables en su capacidad para razonar sobre escenarios de tráfico urbano. Por ejemplo, en situaciones complejas como intersecciones con peatones, vehículos estacionados de forma irregular, doble fila, obstáculos imprevistos o cierres de carril.
Así, en esos escenarios, AR1 “descompone” la situación, evalúa trayectorias alternativas y elige la más segura. Esto muestra un nivel de razonamiento y adaptabilidad que, según Nvidia, marca un nuevo estándar.
Además del modelo, Nvidia liberó varias herramientas complementarias como parte de su ecosistema: generadores de datos Lidar para simulación, herramientas para limpieza de reconstrucciones neuronales, marcos de políticas de comportamiento para robots o vehículos, y sistemas para entrenamiento de IA física en entornos simulados realistas. Este entorno está pensado para que investigadores y desarrolladores puedan adaptar AR1 a proyectos no comerciales, con resultados reproducibles y compartidos globalmente.

Inteligencia artificial de audio y lenguaje
La estrategia de apertura va más allá de AR1. La plataforma de Nvidia incluye también sistemas de inteligencia artificial aplicada a audio y lenguaje, compresión de modelos híbridos sin pérdida de rendimiento, y herramientas de inferencia optimizada de baja latencia para usos prácticos. Nvidia afirma que estas iniciativas buscan democratizar el acceso a IA avanzada, acelerar la innovación y atraer colaboradores de todo el mundo, desde universidades hasta empresas emergentes de robótica y movilidad.
Algunos de los socios ya involucrados en proyectos con la plataforma incluyen desarrolladores de robótica, empresas de conducción autónoma, grupos académicos e instituciones de investigación. En la conferencia NeurIPS se presentó un caso de uso desarrollado por investigadores de una universidad europea que utilizó Cosmos + AR1 para generar entornos urbanos tridimensionales y probar protocolos de circulación autónoma en escenarios virtuales, con resultados prometedores de seguridad y eficiencia.
Este anuncio de Nvidia llega en un momento de fuerte competencia global por la conducción autónoma. Y es que empresas tradicionales de automóviles, startups de robótica, firmas de tecnología y laboratorios de IA buscan posicionarse con soluciones confiables, seguras y eficientes. Con AR1, Nvidia apuesta por la apertura y colaboración como ventaja competitiva; permitir que la comunidad global de investigadores pruebe, mejore y adapte el modelo podría acelerar su adopción real.
Paola Reyes Bohórquez.








