在视觉生成领域深耕多年后,Midjourney终于将触手伸向动态创作维度。这家以图像生成技术闻名的平台,6月19日正式面向全体用户推出视频模型1.0版本-V1视频模型,这不仅是其技术版图的重要拓展,更预示着交互式数字内容创作的全新可能。
技术野心:构建开放世界模拟系统
Midjourney团队透露,其终极目标是打造能实时模拟开放世界的人工智能系统。这一愿景需要多模块协同:从早期的图像生成技术,到如今的视频动态化,再到未来的3D空间构建与实时渲染,每个环节都是拼图中的关键部分。尽管当前的视频模型仅是阶段性成果,但已为后续技术整合埋下重要伏笔。
全新创作模式:从静态到动态的丝滑过渡
此次发布的“图像转视频”功能,保留了用户熟悉的创作逻辑:用户仍可通过文本指令生成静态图像,在此基础上,仅需点击“动画”按钮即可将画面赋予动态效果。系统提供两种操作模式:
- 自动模式:系统自动生成“动作提示”,智能赋予画面动态,适合快速创作趣味内容;
- 手动模式:用户可精准描述物体运动轨迹与场景变化,满足专业级创意需求。
同时,系统设置“高运动”与“低运动”参数供用户调节:前者适合打造充满张力的动态场景,后者则更适合表现静谧的环境变化。值得注意的是,两种模式各有利弊——高运动模式可能产生视觉误差,低运动模式有时会导致动态不足,用户需根据创作需求灵活选择。
扩展功能与跨平台创作支持
除基础动态化功能外,Midjourney还为视频创作提供两大实用拓展:
- 时长延伸:用户可将生成的视频片段逐次延长4秒,最多操作4次,轻松构建完整叙事;
- 外部图像导入:支持上传本地图片作为起始帧,结合文本提示完成动画创作,极大拓展了创作素材边界。
定价亲民
Midjourney将“低门槛、高普及”的策略延伸至视频生成领域。其V1模型定价延续亲民风格,Basic计划以10美元/月的成本即开放视频生成体验,Pro与Mega计划用户则可通过“Relax”模式解锁无限制权限。
然而,视频生成的高计算成本(约为图像的8倍)成为用户需考虑的关键因素,月度配额管理变得重要。功能上,Midjourney暂未跟进超分辨率或音频生成,输出规格为480p/24fps,相较于Runway Gen-4等竞品略显基础。但凭借其一贯的低成本优势和独特的视觉风格,Midjourney在竞争激烈的市场中仍能占据差异化定位。
未来发展
此次视频模型的发布,不仅标志着Midjourney向实时交互创作迈进的重要一步,其积累的技术经验也将反哺图像生成功能的迭代。对于内容创作者而言,这既是探索动态视觉表达的新工具,也是观察AI创作技术演进的重要窗口。未来,随着各模块的逐步整合,我们或许能见证一个真正打破虚拟与现实边界的数字创作生态。