虽然生成的视频只有10秒左右,但在清晰度、细节、角色一致性等方面看起来可以匹敌现有一切视频生成模型。昨⽇,AI视频生成初创公司Runway推出了新的视频生成基础模型Gen-3 Alpha。该模型可以创建具有复杂场景变化、多种电影风格和详细艺术指导的高精细视频。Runway表示,Gen-3 Alpha是即将推出的一系列模型中的首个,系列模型是在为大规模多模态训练而构建的新基础设施上训练的。
与Gen-2相比,Gen-3 Alpha在保真度、一致性和运动性方面有了重大改进,并朝着构建通用世界模型迈出了重要一步。在博客中,Runway重点强调,Demo的所有视频均使用Gen-3 Alpha生成,未经任何修改。有许多网友表示,Runway果然让我们再次感到震撼:Runway回归!Pytorch负责人Soumith Chintala认为其中一些生成质量达到了Sora级别。
接下来,让我们欣赏下Runway视频生成的效果。从Demo中可以看到,Runway生成的10秒量级的视频在清晰度、细节、角色的一致性和保真度等方面做得非常好。让人直呼:什么时候能用上呢?细粒度的时序控制Gen-3 Alpha经过训练,具有高度的可描述性,时间密集字幕,实现富有想象力的场景过渡。生成更逼真的人类角色Gen-3 Alpha擅长创造具有多种动作、手势和情感的富有表现力的人类角色。
艺术创作Gen-3 Alpha的训练工作是由研究科学家、工程师和艺术家组成的跨学科团队共同努力完成的,旨在让Gen-3 Alpha理解、解释各种艺术风格和电影术语。行业定制Runway表示Gen-3系列模型的定制化可以实现更加风格化的控制和更加一致的角色,并针对特定的艺术和叙事要求等进行优化。
在Sora发布这几个月后,越来越多的视频生成模型出现,如近期发布的快手可灵、Luma、以及今天的Gen-3。但遗憾的是,很多产品我们还不能直接体验到。相信接下来和文本大模型一样,视频生成模型会越来越多,我们也能自由尝试这些产品了。