Runway Gen-4.5 视频模型荣登盲测榜首,超越行业巨头

美国东部时间12月2日,视频生成技术初创公司Runway宣布,其最新研发的Gen-4.5模型在第三方盲测平台Video Arena上表现卓越,成功位居榜首。此次测试在参与者未知模型来源的情况下进行,Gen-4.5在评估中超越了谷歌的Veo 3模型和OpenAI的Sora 2 Pro模型,后者分别位列第二和第七位。

Runway首席执行官克里斯托瓦尔·瓦伦苏埃拉(Cristóbal Valenzuela)将这一成就比作“大卫与歌利亚之战”,强调了“专注研究、快速迭代”策略的有效性。他指出,一支由大约100至120人组成的团队,通过高度集中和勤奋的工作,成功地与市值数万亿美元的大型科技公司展开竞争。Gen-4.5的内部代号正是“大卫”。

Gen-4.5模型采用了Runway自主研发的时空混合Transformer架构,支持1080p高清分辨率和每秒24帧的输出,最长可生成18秒的视频内容。该模型在运动幅度、镜头语言和因果关系连贯性方面进行了重点优化,对物理现象、人物动作、镜头运动和因果效应的理解能力显著提升。据内部测试数据显示,模型在处理“子弹时间”和“手持跟随”等复杂指令时的一次通过率达到了68%,相较于上一代产品提高了19个百分点。

瓦伦苏埃拉透露,Gen-4.5已在美国多家影视工作室完成了商业闭环验证。Runway目前拥有约120名员工,估值达到35.5亿美元。其主要股东包括General Atlantic、Baillie Gifford和英伟达(NVIDIA)。

Runway计划从本周开始,通过其官方网站、API接口以及合作伙伴渠道,向全球客户分批开放Gen-4.5模型。此外,公司预计在明年第一季度推出企业级微调和本地化部署方案,以期在广告制作、短片创作和预览图制作等应用领域进一步扩大市场份额。行业分析师普遍认为,如果Runway能够维持其迭代速度,AI视频生成领域有望首次形成“以小搏大”的持续竞争格局。

上一篇:

下一篇:

发表回复

登录后才能评论