英伟达在NeurIPS大会发布首个自动驾驶推理模型Alpamayo-R1,力推物理人工智能发展

近日,芯片巨头英伟达在加利福尼亚州圣地亚哥举行的NeurIPS人工智能大会上,揭示了一系列旨在加速“物理人工智能”(Physical AI)基础技术构建的新型基础设施与AI模型。这一领域的重点是开发能够感知并与现实世界互动的机器人和自动驾驶系统。

此次发布的核心是Alpamayo-R1,一款专为自动驾驶研究设计的开放式推理视觉语言动作模型(VLAM)。英伟达声称这是业界首个专注于自动驾驶的视觉语言动作模型。该模型能够同时处理图像和文本信息,使得车辆不仅能“看见”周边环境,还能基于感知信息进行决策。Alpamayo-R1构建于英伟达的Cosmos-Reason模型之上,该推理模型的一大特点是在响应前能进行“思考”和决策。英伟达指出,此类技术对于致力于实现L4级完全自动驾驶的公司至关重要,有望赋予自动驾驶汽车类似人类的“常识”,以应对复杂的驾驶情境。Alpamayo-R1已在GitHub和Hugging Face平台开放,供研究人员和开发者使用.

除了先进的视觉模型,英伟达还同步推出了“Cosmos Cookbook”。这是一套在GitHub上线的开发资源包,内含详细的指南、推理资源以及训练后工作流程。该资源旨在协助开发者更有效地利用和训练Cosmos模型,以适应其特定应用场景。Cosmos Cookbook涵盖了从数据整理、合成数据生成到模型评估等关键环节. 英伟达此前已于2025年1月发布了Cosmos模型系列,并在同年8月进行了扩展.

此次发布标志着英伟达正全面推进物理人工智能领域,将其视为旗下先进AI GPU技术的新兴应用方向。英伟达联合创始人兼首席执行官黄仁勋曾多次强调,物理人工智能将是下一波AI浪潮。英伟达首席科学家比尔·戴利也表达了相似的观点,并特别强调了物理人工智能在机器人技术中的广泛应用。戴利曾表示,他相信机器人最终将在世界舞台上扮演举足轻重的角色,而英伟达的目标是为所有机器人制造“大脑”,这要求从现在开始研发关键技术.

上一篇:

下一篇:

发表回复

登录后才能评论