AI视频生成器的数量正在不断增加,其逼真度也在提升,但阻碍它们取代传统拍摄视频的一大障碍是缺乏精细控制。
许多领先的AI生成器允许用户输入文本提示或上传静态图像,底层模型将这些转换为动态内容,但生成的视频片段往往出人意料,可能会出现不现实或怪异的动作。
现在,一家备受好评的AI视频生成初创公司Luma AI正在为用户添加一组新的更精确的控制功能,并发布了其最新的AI视频生成器模型——Dream Machine 1.6。
具体而言,Luma的Dream Machine 1.6在用户在其网站生成栏中输入文本提示时,提供了一份包含12种不同相机运动的列表供用户选择应用。
Dream Machine 1.6中新增了相机运动功能!只需简单指令,即可轻松指导文本到视频和图像到视频的场景!只需输入“camera”即可解锁相机运动!在#LumaDreamMachine中尽情想象吧??https://t.co/G3HUEBEAcO pic.twitter.com/0kf1kVO5SA
— Luma AI(@LumaLabsAI)2024年9月3日
这些功能包括:
用户通过在他们的提示开头输入“camera”——无论是使用静态图像还是纯文本开始——来访问这些功能,并应看到一个自动出现的下拉菜单,列出所有这些选项。
虽然许多相机运动的描述都是不言自明的,但对于不熟悉电影摄影的人来说,他们可能会一开始不知道这些术语的意思。
幸运的是,Luma还通过在每个相机运动旁边显示一个小的3D动画弹窗来帮助新用户,这个弹窗代表了用户将其应用于生成的剪辑时将会看到的效果。
初步反应极为积极
在蓬勃发展的AI视频创作领域的早期采用者中,那些已经尝试过Luma新推出的Dream Machine 1.6相机控制功能的用户表示,这是对他们工具集的一个重大升级和补充。
“新的1.6模型似乎对特定短语(如相机推近、相机左环绕)进行了精细调整,这很有帮助,因为通常有很多不同的方式来描述同一个相机动作,”AI视频创作者Christopher Fryant在发给VentureBeat记者的社交媒体X上的私信中写道。“知道哪些短语经过精细调整可以节省大量猜测时间。”
“此外,相机运动的范围和强度似乎也大大增加。结果显示动态运动有了明显的提升。以下是一个很好的例子:”
同样,AI视频创作者Alex Patrascu也在X上写道,这次更新是“顶级之作”!
顶级之作!我昨晚一直在测试,效果很棒
——Alex Patrascu (@maxescu) 2024年9月3日
AI视频提供商之间的功能竞赛
相机运动的加入是在上个月发布Luma Dream Machine 1.5之后的更新,该版本承诺生成更高质量、更逼真的文本到视频。
这一更新也直接与Runway的Gen-2模型展开竞争,Runway在今年早些时候就添加了包括多动作画笔在内的多种运动功能。
密切关注AI行业的观察者也发现了Runway计划为其最新且最逼真的AI视频生成模型Gen-3 Alpha Turbo引入类似功能的迹象,该模型被许多AI视频创作者视为质量上的“黄金标准”。
与此同时,OpenAI的Sora在年初凭借其逼真度让观察者惊叹不已,但到目前为止——7个月后,它仍未向公众发布。
无论如何,Dream Machine 1.6增加相机控制功能表明,AI视频正以惊人的速度发展,为用户提供更精细的控制和更高质量的视觉效果——以更低的时间和成本成本,接近于传统导演所能达到的效果。
企业决策者若希望为其公司配备尖端视频制作工具,以制作内部视频或面向外部市场的营销视频,那么将Dream Machine 1.6纳入其选择范围将是明智之举。