Runway AI Inc.今日发布其最先进的AI视频生成模型,标志着影视制作工具竞争进入新阶段。全新[Gen-4系统]首次实现多镜头间的角色与场景一致性——这项突破性能力此前长期困扰着AI视频生成领域。

这家获得谷歌、英伟达和Salesforce投资的纽约初创公司,已向所有付费用户及企业客户开放Gen-4,支持生成720p分辨率的5-10秒片段。此次发布恰逢OpenAI推出具备角色一致性的图像生成功能后数日,后者因用户疯狂生成吉卜力风格图像导致服务器过载,CEO萨姆·奥尔特曼戏称"我们的GPU要熔化了"。

视觉连续性:AI影视制作的最后拼图

角色一致性为OpenAI图像功能带来病毒式传播,Runway能否在视频领域复制这种成功?此前AI视频的致命缺陷正在于——当角色面部在不同镜头间微妙变化,或背景元素无故消失时,人工痕迹便暴露无遗。

传统AI生成器将每帧视为独立创作任务,效果如同让多位画家在互不知情的情况下分别绘制电影单帧。而Runway Gen-4通过建立视觉元素的持久记忆库,能从多角度渲染角色/物体/环境并保持核心特征不变。这不仅是技术升级,更意味着从生成视觉片段到讲述完整故事的跨越。

"通过视觉参考结合指令,Gen-4允许用户创建风格、主体、场景一致的图像与视频,实现叙事连贯性"
——Runway官方推文[2025.3.31]

为展示模型能力,Runway发布了多部Gen-4制作的短片:将真实动物融入纽约街景的《纽约动物园》,以及讲述神秘花卉搜寻之旅的《寻花记》(制作周期不足一周)。

从面部动画到世界模型:Runway的进化之路

Gen-4继承了Runway此前技术积累:

2024年10月推出Act-One,支持通过手机视频捕捉面部表情并迁移至AI角色

11月为Gen-3 Alpha Turbo添加3D摄像机控制功能

这种演进揭示Runway的战略远见——当竞争者聚焦单镜头质量时,它正构建完整的数字制片流程,其逻辑更贴近传统影视制作:将表演、镜头语言和视觉连续性作为有机整体而非孤立技术难题。

百亿级市场的生死竞速

据财报显示,Runway目标在新产品和API推动下实现年收入3亿美元,目前正以40亿美元估值进行新一轮融资。该公司已与狮门影业达成合作,基于其2万部影视库开发定制模型,并设立百万美元电影基金资助AI电影制作。

但技术革新伴随行业阵痛:2024年研究报告显示,75%采用AI的制片公司已开始裁员或岗位合并,预计到2026年全美将超10万娱乐业岗位受冲击。

版权争议如影随形

与所有AI公司相同,Runway面临训练数据合法性质疑。艺术家诉讼指控其未经授权使用受版权保护作品,公司则以合理使用原则抗辩。争议在OpenAI推出吉卜力风格生成功能后愈演愈烈——当AI能完美复刻宫崎骏耗费数十年打磨的视觉语言时,所谓"学习风格"与"复制创作"的界限已近乎消失。

工具已备,故事何在?

当营销机构、教育内容创作者探索Gen-4如何简化视频生产时,核心问题已从技术能力转向创意应用。对独立制作人而言,这是获得顶级特效的机遇;对传统特效师来说,则意味着职业危机。

值得深思的是:技术限制从来不是阻碍好作品的主因。当创建电影只需参考图像和文字提示时,最关键的问题将变成——在这个可以随意言说的时代,什么才真正值得表达?

精选文章:

有钱人比普通人审美,更高级?

“推动设计创新的七种方法”

开发者眼中的2025年游戏行业三大趋势

深色模式演示:时尚潮流还是实用变革?

释放水果产品设计潜力的 5 个最佳灵感