扫码打开虎嗅APP
本文来自微信公众号:新智元 (ID:AI_era),编辑:桃子、好困,原文标题:《“AI孙燕姿”全网沸腾!AI翻唱大爆发,整个华语乐坛都“复兴”了》,题图来自:视觉中国
一夜之间,“AI孙燕姿”火遍全网。
B站上,AI孙燕姿翻唱林俊杰的《她说》、周董的《爱在西元前》、赵雷的《成都》等等,让一众网友深陷无法自拔。
“冷门歌手”孙燕姿新晋成为2023年度热门歌手,掀起许多人的追星狂欢。
网友表示,“听了一晚上AI孙燕姿,出不去了......”
图/Twitter
这些翻唱歌曲,是由Eternity丨L、罗斯特_x等UP主通过开源项目自制后并上传。(作者似乎特意在《半岛铁盒》中加入了一秒空白,凑成5分20秒)
图/UP主:Eternity丨L
除了AI孙燕姿,还有AI周杰伦,AI王心凌、AI林志炫......
可能许多人做梦也没有想到,2023年华语乐坛竟以这种形式复兴了。
“AI孙燕姿”在线营业
前段时间,一位TikTok网友用AI创作了一首“Heart on My Sleeve”很快蹿红网络,引来1000多万人围观。
听完这首歌的网友纷纷表示,太让我惊讶了,简直太疯狂!
这首歌正是用两位美国流行音乐人Drake和The Weeknd的声音创作而成。先通歌手声音训练AI,然后再用AI来创作。
在国内,B站上AI翻唱的华语乐坛歌曲也渐渐成为许多人关注的焦点,孙燕姿、王心凌、周杰伦等明星纷纷“复出”。
而最火的莫过于孙燕姿,凭借“天后音色”的称号,直接成为AI新宠儿。
图/UP主:罗斯特_x
有人还自制了AI孙燕姿粤语版《爱得太迟》。
然而,对于AI音乐制作,在整个音乐行业并非是一个新事物。只不过生成式AI的大火,让AI翻唱的门槛再次被拉低。
比如,年初,谷歌还曾推出了文本到音乐模型MusicLM,通过将音乐的生成过程视为分层的序列到序列建模任务,并以24 kHz的频率生成高保真的音乐。
图/Google Research
对于许多歌迷来讲,AI翻唱一定程度上满足了自己的许多遐想。
还有一些歌迷,自己训练了已故经典老歌手的AI,包括阿桑、张国荣、姚贝娜、邓丽君等等。
这或许是一种数字永生,通过这样一种方式让久违的声音再次回到人们心里。
图/Twitter
Midjourney出图逼真的超强能力,让人们惊呼画家要失业了。对于AI翻唱,难道歌手也要被去取代吗?
一位UP主@阿张Rayzhang用自己的音色训练出的AI唱Killer Queen后,瞬间感觉太恐怖了。
紧急录制一个视频后,并附上了“AI歌手会让翻唱区集体失业吗?我被AI版的我爆杀!”标题。
有网友称,自己就是AI第一批受害者画手,感觉什么职业也逃不掉。
图/B站
有些人也表示,翻唱的有些地方一点也不像。
要知道,对于AI翻唱来讲,也需要丰富的特定艺术家音色训练数据,这样AI生成的作品才更加真实。
就目前的技术,虽然歌手的唱腔、技巧和风格等还不能完全模仿,但音色已经基本能完全复刻。
但是真正的大家是不能被取代。
图/新浪微博
AI翻唱火虽火,但AI创作音乐的另一面,是迫在眉睫的版权问题。
AI创作的“Heart on My Sleeve”在TikTok上风靡一时后,完整版被上传到了Apple Music、Spotify、YouTube等平台上。
就此,美国歌手Drake对此在Ins表达了不满,“这是(压死骆驼的)最后一根稻草”。目前,这首歌因为侵权问题已经下架。
《金融时报》称,拥有Taylor Swift、Bob Dylan等巨星版权的环球音乐集团,正敦促Spotify和苹果阻止AI工具从其艺术家的版权歌曲中抓取歌词和旋律。
但是有些艺术家却不吝啬自己的声音,马斯克前女友Grimes在网上表示,“任何人都可以使用我的声音AI生成歌曲。”不过,还得再付50%的版权。
图/Twitter
而这次大火的AI翻唱背后的原始项目“so-vits-svc”的作者,据称也是因为太多人滥用,而删除了项目。
SoVitsSvc:唱歌声音转换
歌声转换模型使用SoftVC内容编码器来提取源音频语音特征,然后将向量直接送入VITS,而不是转换为基于文本的中间格式。因此,音高和音调都可以被保留下来。
此外,项目开发者还通过采用NSF HiFiGAN作为声码器(vocoder),从而解决了声音中断的问题。
特征输入改为Content Vec · 采样率统一使用44100Hz
由于参数的改变,以及模型结构的精简,推理所需的GPU显存明显减少。
增加选项1:vc模式的自动音高预测,这意味着在转换语音时不需要手动输入音高键,男声和女声的音高可以自动转换。但是,这种模式在转换歌曲时,会造成音高偏移。
增加选项2:通过k-means聚类方案减少音色泄漏,使音色与目标音色更相似。
增加选项3:增加NSF-HIFIGAN增强器,对一些训练集少的模型有一定的音质增强效果,但对训练好的模型有负面影响,所以默认关闭。
预训练模型文件
将checkpoint_best_legacy_500.pt放在hubert目录下。
将G_0.pth和D_0.pth放在logs/44k目录下。
预处理
0. 音频切片
利用audio-slicer-GUI或audio-slicer-CLI工具,将原始音频切片至5秒-15秒。
长一点也没问题,但太长(比如30秒)可能会在训练甚至预处理时导致“torch.cuda.OutOfMemoryError”,俗称爆显存。
切片后,删除过长和过短的音频。
1. 重采样至44100Hz和单声道
python resample.py
2. 自动将数据集分成训练集和验证集,并生成配置文件
python preprocess_flist_config.py
3. 生成hubert和f0
python preprocess_hubert_f0.py
完成上述步骤后,dataset目录将包含预处理的数据,dataset_raw文件夹可以被删除。
现在,你可以修改生成的config.json中的一些参数——
keep_ckpts:在训练中保留最后的keep_ckpts模型。设置为0将保留所有模型,默认是3。
all_in_mem:将所有数据集加载到RAM中。当某些平台的磁盘IO太低,而系统内存比你的数据集大得多时,可以启用。
训练
python train.py -c configs/config.json -m 44k
推理
模型在需要使用“inference_main.py”。
举个例子:
python inference_main.py -m "logs/44k/G_30400.pth" -c "configs/config.json" -s "nen" -n "君の知らない物語-src.wav" -t 0
虽然原始项目组现已停止维护,但有不少网友都进行了fork并且也做了一些更新。
比如下面这个图形化界面:
AI“复活”
AI翻唱之外,许多网友此前曾做了类似的项目,比如“AI-Talk”让马斯克和乔布斯进行了穿越时空的对话。
视频中,AI不但模拟了他们的声音,还在一定程度上模拟了其对话思路,使得交流过程十分流畅。
AI让我们与逝者的对话成为可能。此前,B站UP主用AI还复活了老奶奶。
图/B站
对于老奶奶的声音制作,直接把过去已有的音频上传,素材基本来自于过去的电话录音、录像视频或者微信语音。
并用音频编辑软件AU进行调整,调整主要是降噪、人声增强等方面。
图/B站
然后将更加清晰的音频样本切割成若干秒的短句,方便进行标注。最后将处理好的音频打包放入语音合成系统中去。
利用语音合成系统,就可以尝试输入文本转语音了。
网友见证科技狠活
AI孙燕姿的歌,已经唱到许多网友的心坎。
图/B站
最近沉迷AI“翻唱”,上至AI侃爷唱罚酒,下至苏小玎唱真相是真。但说句正经的,确实还是AI届顶流孙燕姿的翻唱最好听。
图/新浪微博
这几天沉迷B站的AI孙燕姿,刚刚听了一首《一场游戏一场梦》,太好听了,唱到心坎里
图/新浪微博
不少网友听过AI翻唱的歌曲后,感受到AI歌手的可怕之处:
科技的力量真是让人细思极恐。
图/新浪微博
深深感受到了什么叫做科技的力量......
图/新浪微博
这就是AI生命,数字飞升!
图/新浪微博
还有网友对逝去歌手的怀念。
图/新浪微博
参考资料:
https://github.com/svc-develop-team/so-vits-svc
https://www.bilibili.com/video/BV1io4y1w73k/?vd_source=eecf800392d116d832e90ad1c9ae70f6
本文来自微信公众号:新智元 (ID:AI_era),编辑:桃子、好困