英伟达发布开源L4级自动驾驶推理模型Alpamayo-R1,赋能车辆“先思后行”

加利福尼亚州圣迭戈 — 英伟达公司在NeurIPS 2025大会上公布了其首款面向L4级自动驾驶的推理视觉-语言-动作(VLA)模型Alpamayo-R1,并同步在GitHub和Hugging Face平台开源。此举旨在提升自动驾驶车辆在复杂场景中的决策能力,使其能够进行类似人类的“思考”与“推理”。

Alpamayo-R1模型基于英伟达今年早些时候推出的Cosmos-Reason系列架构。该模型能够一次性处理来自摄像头、激光雷达等传感器数据以及文本指令,进行多模态融合感知。其核心亮点在于整合了“思维链”(Chain-of-Thought)AI推理与路径规划,使车辆在输出驾驶决策前能对“前车急刹”、“行人横穿”等情境进行多步骤推演,从而实现“先思考,再行动”。英伟达方面表示,Alpamayo-R1旨在为车辆注入“人类常识”,以应对实际驾驶中的长尾复杂场景。

英伟达首席科学家Bill Dally强调,机器人与物理AI将成为下一波人工智能浪潮的关键,公司致力于打造“所有机器人的大脑”。伴随Alpamayo-R1的发布,英伟达还推出了涵盖数据合成、模型评估及后训练全流程的“Cosmos Cookbook”指南,其中包含模型权重、推理脚本及评估工具,以支持开发者进行定制化微调。公司鼓励汽车制造商和Robotaxi团队在限定区域内快速验证L4级自动驾驶功能。

分析人士指出,开源推理模型的推出有望显著降低汽车厂商在自动驾驶研发方面的技术门槛。然而,Alpamayo-R1在商业化落地前仍需跨越功能安全认证及满足车规级实时性要求等关键挑战。

上一篇:

下一篇:

发表回复

登录后才能评论