Runway 的最新更新已经产生了令人惊叹的结果

人们还对 9 月 13 日发布的 Runway 视频到视频生成功能感兴趣。从本质上讲,该功能允许您使用文本提示从根本上改变给定视频剪辑的视觉风格。

请观看下面的视频,了解一个令人耳目一新的示例,了解可能发生的事情。

人工智能爱好者还制作了令人惊叹的视觉效果,可以在苹果的 Vision Pro 耳机上显示,这给我们提供了潜在的暗示,让我们了解开发人员利用最近发布的 API将能够实现什么目标。

X(以前称为 Twitter)用户Cristóbal Valenzuela周一在社交媒体网站上发布了一段简短的剪辑,展示了 Gen-3 和 Apple Vision Pro 的综合功能。

该视频描绘了一个开放式办公空间,带有生成的覆盖层,使房间看起来像是丛林深处的废墟。一些用户仍然不相信该视频的真实性,但根据该帖子,该视频是由真正在 Runway 工作的人制作的。

Twitter 用户和内容创建者Cosmo Scharf在他们的帖子中展示了类似的效果,并提供了额外的视觉证据来支持他们的主张。

Runway 周一宣布发布一个新的 API,该 API 将使开发人员能够为各种设备和应用程序添加视频生成功能,尽管据报道对谁可以实际访问该 API 存在一些限制。首先,它目前仅限量发行,但您可以在此处注册等候名单。您还需要是构建版或企业版计划订阅者。一旦获得访问权限,您将只能利用 Gen-3 Alpha Turbo 模型迭代,它的功能比该公司的旗舰产品Gen-3 Alpha稍差一些。

该公司计划对使用该服务的每代信用收取一美分。就上下文而言,一秒钟的视频生成需要 5 个积分,因此基本上,开发人员将为每秒视频支付 5 美分。开发人员还需要“显着地展示”“Powered by Runway”横幅,该横幅在调用 API 的任何界面中链接回公司网站。

尽管商业视频生成领域变得越来越拥挤——Adobe的 Firefly 、Meta 即将推出的Sora 、Canva 的 AI 视频生成器、快手科技的Kling和 Minimax 的Video-01等,但 Runway 正在通过成为其中之一而脱颖而出。首先将其模型作为 API 提供。这是否足以收回公司高昂的培训成本并使其实现盈利,还有待观察。


Posted

in

by

Tags: