MusicLM
4167
325
0
MusicLM是Google Research于2023年发布的文本-到-音乐(Text-to-Music)生成模型。它能把“一段平静的小提琴旋律,伴以失真吉他音轨”这样的自然语言描述,直接变成 24 kHz、持续数分钟且结构连贯的高保真音乐。
工具标签:
直达网站
工具介绍

一、MusicLM是什么?
MusicLM是Google Research于2023年发布的文本-到-音乐(Text-to-Music)生成模型。它能把“一段平静的小提琴旋律,伴以失真吉他音轨”这样的自然语言描述,直接变成 24 kHz、持续数分钟且结构连贯的高保真音乐。与只能生成30秒左右的早期模型不同,MusicLM支持“故事模式”,可按时间轴切换提示词,生成5分钟以上的完整作品。官方同时开源了评估数据集 MusicCaps(5.5 k 人工精标音乐-文本对),以推动社区研究。
二、核心功能
- 纯文本生成:仅输入一句话,生成音乐。例如输入“柏林 90 年代 Techno,低沉贝斯与强劲底鼓”,即可生成对应音乐。
- 文本+旋律:给定口哨/哼唱/音频,模型按文本风格重编配。比如把《欢乐颂》哼唱变成爵士萨克斯版。
- 故事模式:按时间轴依次给出提示词,生成长音乐。如 0 - 15 s 提示“冥想”,15 - 30 s 提示“醒来”,30 - 45 s 提示“跑步”,模型会据此生成连贯的长音乐。
- 绘画条件:以名画标题/描述为灵感生成配乐。例如输入《呐喊》,可生成紧张、扭曲的弦乐氛围音乐。
- 细粒度控制:指定乐器、水平、年代、地点等。如“初学者钢琴,在加勒比海滩弹奏”。
- 多样性采样:同一提示多次生成,结果各不相同。比如输入“运动激励音乐”,可生成 5 首风格迥异的音乐。
三、技术原理
分层序列 - 到 - 序列框架
- 语义阶段:采用 30 s 语义 token 自回归建模(Transformer Decoder,430 M 参数)。
- 声学阶段:用残差向量量化(RVQ)把语义 token 转成 24 kHz 音频。
- 长序列策略:运用 15 s 滑动窗口 + 自回归前缀,实现数分钟音乐的一致性。
条件机制
- 文本侧:借助 MuLan 文本 - 音乐联合嵌入,解决成对数据稀缺问题。
- 旋律侧:将旋律嵌入与文本嵌入相加,作为额外条件控制风格。
音频 Tokenizer
采用 SoundStream + RVQ,6 kbps 即可高保真重建 24 kHz 立体声。
四、技术优势
- 采样率:MusicLM 为 24 kHz,Jukebox(OpenAI)为 44.1 kHz,Bark(Suno)为 24 kHz。
- 最长时长:MusicLM 可生成超过 5 分钟连贯音乐,Jukebox 约 1 分钟且有断层,Bark 约 1 分钟。
- 文本贴合度:MusicLM 较高(得益于 MuLan 嵌入),Jukebox 中等,Bark 中高。
- 旋律控制:MusicLM 支持,Jukebox 和 Bark 不支持。
- 商用授权:MusicLM 和 Jukebox 仅限研究/非商用,Bark 已商用。
五、需求人群
- 音乐创作者:可用于快速制作 Demo 原型、获取灵感草稿。
- 独立游戏 / 影视配乐师:能低成本生成循环 BGM。
- 广告/短视频 MCN:可批量生成无版权风险配乐。
- 音乐教育:能展示不同风格、年代、乐器的即时范例。
- AI 研究者:可借助 MusicCaps 评估新算法。
六、应用场景
场景 1:游戏动态音乐
玩家进入“森林夜晚”区域,系统给出实时文本提示“神秘、虫鸣、轻打击乐”,MusicLM 生成 30 s 循环音乐,且能随区域切换平滑过渡。
场景 2:短视频配乐工厂
MCN 运营上传脚本“赛博朋克 + 古筝 + 女高音吟唱”,MusicLM 批量产出 10 条差异化音频,经热度测试后择优投放。
场景 3:音乐课堂互动
老师哼唱《小星星》,输入文本“巴洛克弦乐四重奏”,学生可现场听到改编版,加深对风格的理解。
场景 4:沉浸式展览
观众面对达利《记忆的永恒》,系统读取画作描述,生成扭曲、融化感的电子音色,强化视觉体验。
七、MusicLM使用教程
- 访问演示站:google-research.github.io/seanet/musiclm/examples
- 输入文本(英文效果最佳):例如“melodic techno, 120 bpm, ethereal female vocal pad, uplifting”
- 可选上传旋律条件:上传 10 - 30 s 口哨/钢琴 midi 作为旋律条件
- 选择时长:有 10 s / 30 s / 60 s / Story Mode 可选
- 点击 Generate:约 20 - 60 s 可试听、下载 WAV
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码:

评论
全部评论

暂无评论
热门推荐
相关推荐

Play.HT
人工智能驱动的文本到语音生成器
Open-Sora2.0
Open-Sora2.0是一款由潞晨科技推出的开源视频生成模型。它通过高效的训练流程和创新的技术架构,成功在保持高性能的同时,大幅降低了视频生成模型的训练成本。这款110亿参数的大模型,仅花费了20万美元(224张GPU)就训练成功,性价比远超那些动辄耗资数百万美元的闭源模型。
白日梦AI
白日梦AI是由光魔科技推出的一款领先AI创作平台,它通过自然语言处理技术,使用户能够输入文本内容并快速生成视频,最长可生成50分钟的视频。该平台支持文生视频、动态画面、AI角色生成等功能,并能保持人物和场景的一致性,人物一致性强特。别适合创作儿童绘本和连环画。支持最新的Nano Banana。
Unmute
Unmute是由法国AI实验室Kyutai推出的一款革命性的语音AI系统。它为文本大语言模型(LLM)赋予了强大的语音交互能力,以其高度模块化的设计、智能对话、超低延迟和个性化定制功能,正在引领语音AI技术迈向更高的灵活性和实用性,为语音AI领域注入了新的活力.
MoneyPrinterTurbo
MoneyPrinterTurbo是一款基于人工智能大模型的开源工具,旨在简化短视频制作流程。用户只需输入视频主题或关键词,即可全自动生成包含文案、素材、字幕和背景音乐的高清短视频。这款工具不仅适用于内容创作者,还适合教育工作者、企业营销人员等需要快速制作高质量视频的用户群体。
ToonComposer
ToonComposer是腾讯联合香港中文大学、北京大学等机构推出的一款生成式AI动画制作工具,其核心功能是通过少量草图和关键帧自动生成高质量、风格一致的动画,并支持区域控制等创新特性,显著提升动画制作效率与灵活性。
DubbingX智声云配
DubbingX智声云配是智声悦合(杭州)科技有限公司推出的一款专注于AI音频的创新型工具。
HunyuanVideo-Avatar
HunyuanVideo - Avatar 是腾讯混元联合腾讯音乐天琴实验室推出的开源语音数字人模型,由混元视频大模型与 MuseV 技术研发,支持多景别、多风格等,“一张图 + 一段音频” 即可生成人物自然说话 / 唱歌、含表情与动作的视频,单主体能力已开源 。
0
325






