Meta 开源 AI 语言模型 MusicGen,可将【jiāng】文本和【hé】旋【xuán】律【lǜ】转化为完【wán】整乐曲

2024-9-21 14:12:13来源:品玩


【资料图】

品【pǐn】玩 6 月 12 日讯,Meta 近日在 Github 上开源了其 AI 语言【yán】模型 MusicGen,该模型基【jī】于谷歌 2017 年推出的 Transformer 模型。如同【tóng】模型【xíng】名称所示,MusicGen 主要用【yòng】于【yú】音乐生成,它可以将文本和已【yǐ】有的旋律转【zhuǎn】化为完整乐【lè】曲。

研发团队表示:" 我们使用了【le】 20000 小时【shí】的授权音乐来对【duì】训练该模型,并采用 Meta 的【de】 EnCodec 编码器将音频【pín】数据分解【jiě】为更小的单【dān】元进行并行【háng】处【chù】理【lǐ】,进而让 MusicGen 的【de】运算效率和生成【chéng】速【sù】度【dù】都比【bǐ】同类型 AI 模【mó】型更为出色。"

除此之外,MusicGen 还支持文本与旋律的组合输入,例如你可以提【tí】出生成 " 一首轻快【kuài】的曲目 " 并同【tóng】时要求 " 将它与贝【bèi】多芬的《欢乐颂【sòng】》结【jié】合起来 "。

研发团【tuán】队【duì】还对 MusicGen 的实【shí】际表【biǎo】现进【jìn】行了【le】测试。结果显【xiǎn】示,与谷【gǔ】歌【gē】的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其【qí】他音乐模型【xíng】相比,MusicGen 在测【cè】试音乐与文本提示的匹配【pèi】度以及作曲的可【kě】信度等指标上表现更好,总体而言略【luè】高【gāo】于谷歌 MusicLM 的水平。

最新资讯

股票软件