Adobe 周一宣布, Firefly 现在可以根据图像和文本提示生成视频,以及扩展现有剪辑。这项新功能目前正在向 Premiere Pro 订阅者推出。
视频生成功能在 Premiere Pro 和 Firefly Web 应用程序的许多新工具中首次亮相。例如,PP 的 Generative Extend 可以在剪辑的开头或结尾添加最多两秒的 AI 镜头,并对摄像机位置、跟踪甚至拍摄对象本身进行中镜头调整。
生成的视频分辨率为 720p 或 1080p,每秒 24 帧 (fps)。该工具还可以将剪辑的音效和环境噪音延长最多 10 秒,但它不能对语音对话或乐谱执行相同的操作。
Firefly Web 应用程序正在接收自己的两个新的人工智能工具:文本到视频和图像到视频工具正在有限的公开测试版中推出,您可以在此处申请等候名单。他们做他们听起来像做的事。文本到视频可生成各种艺术风格的短片,并使创作者能够使用网络应用程序的相机控件迭代地微调输出视频。
类似地,图像到视频使用文本提示和参考图像,以更少的迭代次数使模型更接近创建者的想法。这两个网络功能大约需要一分半钟才能生成长达 5 秒的 720p 分辨率和 24 fps 的视频。
虽然这些新的视频生成功能都不是特别具有开创性——Runway的 Gen-3 、 Meta 的 Movie Gen和 OpenAI 即将推出的Sora都拥有几乎相同的特性和功能——Firefly 确实为用户提供了优于其他模型的优势,因为它的输出是“商业化的”。安全的。”
Adobe 在 Adobe Stock 图像、公开许可内容和公共领域内容上训练其 Firefly 模型,这意味着其生成的输出不太可能引发任何版权侵权索赔。如果竞争对手Runway 、 Meta和Nvidia也能这么说就好了。