Nvidia ha dado un paso decisivo hacia el futuro de la conducción autónoma con la presentación de Alpamayo-R1, su nuevo modelo de lenguaje visual con capacidades de acción, diseñado específicamente para la investigación en vehículos sin conductor. Este modelo se diferencia por integrar visión y lenguaje, una combinación que permite a los sistemas comprender su entorno visual y tomar decisiones en consecuencia, simulando un proceso de razonamiento similar al humano.
Desarrollado a partir del modelo Cosmos-Reason, Alpamayo-R1 hereda su enfoque en el razonamiento previo a la acción. En lugar de reaccionar de manera automática ante lo que percibe, este modelo «piensa» primero: analiza, interpreta y luego responde. Esta característica es fundamental en contextos como la conducción autónoma, donde una mala decisión puede tener consecuencias graves. Continúa leyendo «Nvidia impulsa la investigación en autonomía con nuevos modelos de inteligencia artificial abierta»