对标谷歌 MusicLM!Meta 发布开源音乐模型 MusicGen
(资料图片)
财联社 6 月 13 日讯(编辑 夏军雄)随着聊天机器人 ChatGPT 的兴起,人们开始尝试把生成式人工智能(AI)技术应用在包括音乐在内的多个领域。
Meta 近日推出了名为 MusicGen 的开源 AI 模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。
Facebook 研究科学家 Gabriel Synnaeve 上周末在领英上公布了这一消息,并称其为简单可控的音乐生成模型。
据悉,由 Synnaeve 领导的团队使用了 2 万小时的授权音乐来训练 MusicGen,其中包括来自内部数据集的 1 万首高质量音乐曲目,以及素材供应商 Shutterstock 和 Pond5 的曲目。
Meta 已经在 Github 上以开源的形式发布了 MusicGen 的代码和模型,并允许商业使用。
Synnaeve 表示:" 我们公开发布代码和预训练模型,以供开放研究、可重复性和更广泛的音乐界研究这项技术。"
用户目前可在 Hugging Face 上体验 MusicGen,除了文本提示外,还可搭配音频一同作为生成音乐的条件。在确定提示信息后,便可让 MusicGen 生成一段 12 秒的音频,不过需要等待一些时间,等待时长取决于在线的用户数量和用户所设置的提示信息。
经笔者实测,在要求 MusicGen 生成一段具备中国风元素的重金属音乐后,MusicGen 大约花了大约 3 分钟时间(不包括排队等待时长)给出了结果。
MusicGen 基于谷歌于 2017 年发布的 Transformer 模型,而谷歌今年 1 月也发布了名为 MusicLM 的音乐生成模型,并于 5 月向上月向所有用户开放。
除了谷歌的 MusicLM 外,目前较为常见的音乐模型还有 Riffusion、Mousai 和 Noise2Music 等。