Dall-E、 ChatGPT和其他 AI 生成技术继续让我们惊叹不已。尽管如此,一旦您看到我们所有人都可以使用的新的人工智能视频生成功能,像 Midjourney 这样的人工智能图像生成工具可能会显得乏味。
Runway 提供了一个高级在线视频编辑器,它提供了许多与桌面应用程序相同的功能。然而,该公司通过率先使用人工智能工具来帮助处理各种耗时的视频杂务,例如屏蔽背景,从而使其服务与众不同。
现在, Runway将其视频魔力推向了一个新的高度,在 Twitter 上宣布了一种新的 AI 视频生成产品,该产品超越了之前展示过的任何产品,甚至超过了领先的 AI 公司,如 Google 和 Meta 。这种 AI 模型被称为 Gen-1,它使用您提供的视频以及提示来生成与原始结构相匹配但风格截然不同的非常稳定和高质量的渲染。
Runway 是 AI 生成内容领域的新面孔,但它来自Stable Diffusion的共同创建者,Stable Diffusion 是 Mac 上流行的文本到图像 AI 工具。
提示可以是基于文本的,或者您可以提供图像以用作处理视频的样式。目前有五种操作模式。程式化模式捕捉图像的外观并将其应用于视频。故事板模式取代了更多的原始视频。这个想法是您只提供占位符供 AI 替换。
为了更精确,蒙版模式允许您指定视频中的哪个部分或主题应该受到 AI 过程的影响。渲染模式类似于情节提要,为提供的视频添加了大量额外的细节。 Runway 还具有自定义模式,可提供更多选项来拨入您想要的内容。
即使是这种新生的形式,它也比从数百张 AI 生成的图像精心组合而成的视频要好得多。示例视频没有混乱的滚动,而是连贯的并且流动得更自然。
Runway 的 Gen-1 视频生成已经可以抢先体验,上面的推文详细说明了如何加入等候名单。同时,查看来自 Runway 的 YouTube 视频,它的分辨率比 Twitter 视频高。好的部分是大约 40 秒。