近期,RunwayML 已率先向公众展示了其最新且更为逼真的视频生成模型,引发了业界的广泛关注。在此背景下,总部位于伦敦的AI视频创新企业Haiper(由前谷歌DeepMind精英Yishu Miao和Ziyu Wang携手创立)也不遑多让,正式推出了其视觉基础模型的升级版——Haiper 1.5,标志着AI视频创作技术再次迈出坚实步伐。
Haiper 1.5 现已在其官方网站及移动平台上线,此次升级的核心亮点在于显著增强了视频生成能力。用户如今可依据文本、图像及视频线索,轻松创作出长达8秒的视频片段,相较于初版模型,生成时长直接翻倍,为创作者提供了更为广阔的创意空间。
不仅如此,Haiper还创新性地引入了上采样功能,旨在进一步提升生成内容的质量,使视频画面更加细腻、清晰。同时,公司还透露了向图像生成领域进军的战略规划,彰显了其在AI应用领域全面拓展的雄心。
自Haiper四个月前正式面世以来,尽管其资金规模尚无法与AI领域的众多“巨头”比肩,但凭借其精准的市场定位与卓越的产品性能,已迅速吸引超过150万用户的青睐,市场反馈热烈。面对Runway等强劲对手的竞争,Haiper正通过不懈的技术创新和产品迭代,持续巩固并扩大其市场版图。
那么,Haiper AI视频平台究竟有何独特魅力呢?自今年3月亮相以来,Haiper便紧跟行业趋势,为用户打造了一个基于自研感知基础模型的视频创作一站式平台。该平台操作简便,用户仅需输入简短的文字描述,即可将脑海中的场景瞬间转化为生动的视频作品。同时,平台还提供丰富的调整选项,让用户能够自由定制角色、物件、背景及艺术风格,充分激发创作灵感。
然而,随着用户需求的日益增长,Haiper也面临着一些挑战。例如,初代模型在视频生成时长上有所局限,难以满足部分创作者的多元化需求。为此,Haiper 1.5应运而生,将视频生成时长直接扩展至8秒,有效解决了这一痛点。
此外,Haiper 1.5在视频质量上也实现了全面飞跃。以往,高清视频生成多局限于较短片段,而更长的内容则只能以标准清晰度呈现。但在此次更新后,无论视频长短,用户均可享受到SD或HD级别的清晰画质。同时,内置的上采样工具让用户能够轻松将视频内容提升至1080p高清水平,进一步提升了作品的视觉质感。
更为激动人心的是,Haiper还将其业务触角延伸至图像生成领域。用户现可基于文本提示先生成图像,再通过文本到视频的功能将其动态化,从而创作出更加完美的视频作品。这一整合不仅提升了创作效率与灵活性,也为用户提供了更多元化的创作可能。
Haiper首席执行官Miao表示:“在Haiper,我们始终将用户需求放在首位,致力于将他们的愿景变为现实。新推出的上采样器和Text2Image工具正是我们与用户紧密互动、积极改进的成果。Haiper将始终作为面向社区的视频生成式AI平台,与用户携手共进。”
尽管Haiper公司的新模型及功能更新展现出了巨大潜力,但目前这些创新尚未经历广泛用户群体的全面检验。例如,尝试访问其图像模型时,该功能尚处于测试阶段;而八秒长的视频生成及上采样功能则仅限订阅了Pro计划的用户使用。不过,据Haiper公司透露,他们正计划通过包括信用系统在内的多种策略,推动这些高级功能更加普及,并预计在本月末将图像模型免费向公众开放。
就内容质量而言,目前Haiper平台上的两秒短视频已展现出较高的稳定性。然而,对于更长的视频而言,其质量仍存在波动。在测试过程中发现,四秒长度的视频有时因细节处理不足而略显模糊。但随着Haiper持续推出更新及实施未来规划,其生成内容的质量有望获得显著提升。
展望未来,Haiper公司表示将致力于增强其基础感知模型对现实世界的理解能力,旨在打造一款能够精准捕捉现实情感与物理特性的通用人工智能(AGI)。这一AI将全面覆盖视觉领域的每一个细微之处,如光线、运动、纹理及物体间的交互等,以创造出更加逼真、生动的视觉内容。这一目标的实现不仅将推动AI技术在内容创作领域的深入应用,更有望为机器人技术、交通管理等多个领域带来颠覆性的变革。。