Waver
2807
0
0
Waver是由Foundation Vision团队开源的通用视频生成大模型,它把文本-视频(T2V)、图像-视频(I2V)、多机位叙事、长时长高分辨率生成等能力整合到同一套权重里,无需额外微调即可直接输出5 s / 10 s、720 p / 1080 p的成品视频。
工具标签:
直达网站
工具介绍

一、Waver是什么?
Waver是由Foundation Vision团队开源的「All-in-One」通用视频生成大模型,官方口号是 “Make your creativity groundbreaking”。它把文本-视频(T2V)、图像-视频(I2V)、多机位叙事、长时长高分辨率生成等能力整合到同一套权重里,无需额外微调即可直接输出5 s / 10 s、720 p / 1080 p的成品视频。
二、模型性能:
Artificial Analysis(2025-08-05 19:00 GMT+8)公开排行榜:Waver 1.0在运动质量、视觉质量、Prompt Following三项均位列第一,超越Runway Gen-4、Pika 2.0、Stable Video Diffusion等开源/闭源对手。
自建评测集
- Waver-Bench 1.0:覆盖 1200+ 组复杂动作、光影、风格化prompt。
- Hermes Motion-Testset:聚焦大规模人体与动物运动,人工盲评显示 Waver 领先第二名 18 %。
三、核心功能
文本-视频:
- 亮点:单句prompt 直接出片
- 示例效果:“雨中玻璃罐里微型世界”——雨滴、蘑菇咖啡馆、小人撑伞,细节全部对齐
图像-视频:
- 亮点:任意静图「活」起来
- 示例效果:把一张帆船照片变成半水下视角的10 s航行片段
多机位叙事:
- 亮点:原生支持镜头切换,角色/场景/光场一致
- 示例效果:老工匠完工:近景手部→特写眼睛→全景工作室→情绪收束,4镜一气呵成
长时长输出:
- 亮点:最长 10 s 连续片段,情感动作更完整
- 示例效果:企鹅百米冲刺:起跑、加速、撞线、减速,动作物理合理
高分辨率:
- 亮点:1080 p 原生,无需后超分
- 示例效果:城市夜景+烟花航拍,灯牌文字清晰可辨
多艺术风格:
- 亮点:写实、动漫、黏土、毛绒、赛博朋克、Wes Anderson 等一键切换
- 示例效果:王家卫复古滤镜+可口可乐机,胶片颗粒与霓虹光斑精准还原
运动皇冠:
- 亮点:人物/动物体育动作
- 示例效果:大熊猫花样滑冰、老虎高山滑雪、袋鼠拳击,关节轨迹真实
四、需求人群
- 创意工作室:广告片头、MV、概念 PV 快速预演。
- 自媒体 & MCN:低成本生成高质感短视频,批量起号。
- 影视动画:分镜预览、特效预合成、风格探索。
- 教育与培训:医学/体育/军事等需要人体动态演示的场景。
- 电商 & 零售:商品 360° 动态展示、虚拟试穿。
- 独立开发者:开源可商用,二次开发门槛低。
五、应用场景
- 广告创意:24K 金杏坠落慢动作 + 液体飞溅,一条 5 s 片头直接投放 TikTok Ads。
- 文旅宣传:输入一张古镇照片,生成“晨雾+花瓣雨+游船穿梭”的 10 s 竖屏短片。
- 动画分镜:导演一句“赛博曼谷飞狗出租车”,30 秒出 4 镜连贯故事板。
- 体育教学:生成“托马斯全旋”第一人称视角,配合骨骼标注用于动作拆解。
- 虚拟偶像:毛绒风格偶像在黏土世界开演唱会,跨次元联动。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码:

评论
全部评论

暂无评论
热门推荐
相关推荐

EVI3
EVI3是Hume公司在2025年5月29日正式发布全新语音语言模型,这一创新标志着通用语音智能领域进入的发展阶段。作为全球首个突破传统文本到语音(TTS)技术框架的语音到语音(V2S)模型,EVI3不仅重新定义了语音交互的边界,更通过多模态情感计算能力为AI语音技术树立了新的技术标杆。
EmaFusion
EmaFusion是Ema公司推出的一款新型AI语言模型,它采用了一种创新的“级联”判断系统,能够动态平衡成本和准确性。与传统的单一策略系统相比,EmaFusion更像是一个“任务智能大脑”,能够智能地拆解复杂的问题,并将其分配给最合适的AI模型来解决。
Quasar Alpha
Quasar Alpha是一款近期神秘亮相的全新AI模型,由一家未具名的模型实验室推出,被称为其首款“隐秘”模型,是即将发布的长上下文基础模型的预发布版本。它凭借超长的上下文处理能力、优化的编码能力,以及免费开放策略,迅速成为业界热议焦点,为AI技术发展增添了新期待。
Grok Code Fast1
Grok Code Fast 1是埃隆·马斯克旗下xAI公司在2025年8月29日推出的一款颠覆AI编程领域的模型。这款以“速度”为核心竞争力的模型,凭借每秒190 token的极速响应、256K超长上下文窗口以及极具侵略性的定价策略,在发布后迅速引爆开发者社区。
Audio2Face
Audio2Face是英伟达推出的一款生成式AI面部动画模型,该模型通过深度学习和机器学习算法,实现了从音频输入到面部动画输出的实时转换。近日,英伟达宣布开源了这一模型,不仅提供了核心算法,还附带了软件开发工具包(SDK)和完整的训练框架,为游戏和3D应用领域的智能虚拟角色开发提供了强有力的支持。
Magma AI
Magma是一款由微软精心打造的多模态AI模型,它旨在处理和整合图像、文本和视频等多种数据类型。与传统的AI系统不同,Magma不仅仅专注于视觉-语言理解或机器人操作等单一领域,而是将这两种能力结合成一个统一的模型,使得AI代理能够在数字和物理环境中执行更为复杂的任务。
豆蔻妇科大模型
豆蔻妇科大模型由壹生检康(杭州)生命科技有限公司研发,基于Qwen底座模型,通过针对性合成症状数据、蒸馏训练及医学专家标注思维链,依托高质量数据完成微调和强化训练。2025年7月,该模型以64.94分的成绩通过国家妇产科卫生高级职称(正高)笔试考试,成为首成为国内首个达到主任级医师水平的垂直医疗模型
Shisa.AI
Shisa.AI是一家总部位于日本东京的AI实验室,专注于为日本市场开发开源的AI语言和语音模型。公司致力于通过优化后训练流程和合成数据驱动的方法,提升AI模型在日语环境下的性能,推动日语AI应用的发展。Shisa V2405B模型,这一开源模型被誉为“日本有史以来训练的最强大型语言模型“。
0
0






