您现在的位置是:首页 >每日动态 > 2024-06-18 09:05:04 来源:

Runway正式发布全新Gen3模型,AI视频的王,它回来了。

导读 在AI视频被一众新秀,比如Sora、Luma、可灵等等占据注意力的时候,已经有人忘了AI视频领域统治了N久的王者,他叫Runway。去年的11月份更新...

在AI视频被一众新秀,比如Sora、Luma、可灵等等占据注意力的时候,已经有人忘了AI视频领域统治了N久的王者,他叫Runway。

去年的11月份更新了一次Gen2模型模型,然后宣布他们要开始组团队开始进军世界模型之后。

他们就再无动静了。

一晃眼,将近8个月的时间。

Sora、Vidu、LTX、Luma、可灵轮番炸场。Runway依然不为所动,甚至都有好事者,做了一张梗图。

沉入海底的墓碑。

但是今天,那个AI视频领域的王者。

他终于回来了。

在悄无声息之间,他正式发布了它的Gen3模型。

https://runwayml.com/blog/introducing-gen-3-alpha/

话不多说,先放几个Gen3的Case。

我真的一声长叹,你要说这AI时代,是谁拉开了AI视频的长河,那自始至终,也只有一个名字。

Runway。

2022年8月,跟Stability AI一起训了一个举世闻名的模型,叫Stable Diffusion。

2023年2月发布Gen1,支持视频风格转绘。

2023年6月发布Gen2,开启了文生视频和图生视频的序章。

2024年6月,整整一年的时间,带着世界模型的Gen3,终于TM的来了!!!

我的心情真的感慨万分,去年Gen2刚刚上线时,我为了展示AI视频的能力,做了《流浪地球3》的预告片,而这个片子,也一举让国内的所有影视人,看到了AI视频的魅力。

而后11月Gen2模型更新,光影质感更稳定,我又做了《三体》;2月为了参加Runway的Gen48比赛,我又做了《TheLastGoodbye》。

可以说,我命运的齿轮,也一直是跟runway一起做着数不清的纠缠。

而今天,Runway的Gen3终于发布了,虽然是Alpha版本。

但也证明了,王,他一直都在。

我把所有的官方发的片子都看了一遍,大概总结了几个点:

1.极度稳定的光影

看官方的这个Case。

Prompt:在日本城市以超高速移动的火车窗户上,一个女人的微妙倒影。

夜景的灯光,绝对是AI视频里面最难搞的之一,更别提在高速火车上极速变换的夜景灯光,但是Gen3跑出来的这个效果,不说完美,但是依然变化极其丰富,且稳定的非常可怕。

2.10s长度

可以看到,Gen3所有的case都是10s钟的。

而且大概率,Gen3开放给大家用的时候,大家生成的时长也是10s。

最重要的是,根据他们老板Cristobal Valenzuela说,Gen3的模型生成速度还非常快。

5s的视频生成时间45s,10s的视频生成时间90s。

基本秒杀现在市面上所有第二代AI视频的生成速度了。毕竟动不动几分钟一个,这个时间还是挺难顶的。

3.审美强

之前很多的AI视频产品,审美就是一坨。真的。。。实在是太丑了。

还有总是给自己乱加戏的,关键加的还是巨丑的戏。用起来神烦,说的就是那个Luma。

反观Runway,一直以来的特点就是审美强,毕竟正儿八经做影视起家的,还去做了《瞬息全宇宙》的特效,比外行强多了。

比如这两个。

Prompt:博物馆里一幅画的广角对称镜头。摄像机缩进到靠近画面。

Prompt:一个隐身人物在高楼大厦之间升空的航拍视角。

这配色和风格,喜欢,是真喜欢。

4.想象力看着靠谱

很多模型都是做真实世界的效果很强,但是一旦到了一些幻想、玄幻、科幻、魔幻的画面上,就直接废了。就感觉跟过拟合了一样。

Runway Gen3的这个看着很强,但是实际不好说,因为还得实际上手测。不过我自己,对Runway还是非常有信心的。

比如:

Prompt:在夜晚的破旧城市里,透过窗户看到一个巨大奇怪的生物在行走,只有一盏街灯微弱地照亮了周围。

Prompt:通过一个有闪烁灯光的走廊进行超级延时摄影,一块银色的布料飞过整个走廊。

5.物理规律

物理规律简直已经是第二代AI视频的标配了。Runway Gen3的物理规律看着也非常的棒。基本上是行业第一梯队水平。

Prompt:一位年长男士在侧面受光的钢琴上演奏。

整体,我很喜欢。

在官方文档里,Runway对Gen3alpha的描述是这样的:

"Gen-3Alpha is the first of an upcoming series of models trained by Runway on a new infrastructure built for large-scale multimodal training. It is a major improvement in fidelity, consistency, and motion over Gen-2, and a step towards building General World Models."

"Gen-3Alpha 是 Runway 在为大规模多模态训练构建的新基础设施上训练的即将推出的一系列模型中的第一个。与 Gen-2相比,它在保真度、一致性和动作方面有了重大改进,是朝着构建通用世界模型迈出的一步。"

但是世界模型,不是最重要的,因为大家已经看过Sora、可灵啥的了。

最重要的是这句话。

"现有的控制模式包括 Motion Brush、高级摄像头控制、导演模式以及即将推出的工具,用于更精细地控制结构、风格和动作。"

我跟很多的AI创作者有过很多的交流,大家有一个观点出奇的统一,那就是:Luma和可灵是玩具。

因为可控性。

一个完整的AI视频作品,要的除了物理规律,还要超强的可控性,要不然就会像气球人的导演控诉Sora一样,Roll特么300个镜头才有1个能用的。

而Luma和可灵,都只有文生视频和图生视频这两种模式,甚至可灵的图生视频都还没上线。

不够,这远远不够。

而Runway在2018年成立的那一天,他们的目标,就是颠覆电影行业。

所以他们清楚,可控性这玩意,太重要了。

所以他们做了相机运动,做了运动笔刷,做了人物扣除,做了各种各样的有趣的工具。

这一切,都是为了创作者们,能做出更可控的画面。而我到了如今,用的最多的AI视频工具,也还依然是Runway。

现在,Runway的Gen3,直接带着那全套的工具,回来了。

未来几天内,就会开放给所有人。

以Runway的Gen3Alpha推出的今天为信号。

我觉得,AI视频正式进入了2.0时代。

嗯,那个全面冲击的时代。

迎接变革。

也迎接,王的归来吧。