【无需去伴奏】就能直接进行歌声转换的SVC库
-
PlayVoice/so-vits-svc-5.0 有口音,辨识度高,适合非跨语言,跨语言会口糊
-
PlayVoice/lora-svc 无口音,辨识度略低,适合跨语言,跨语言不口糊
-
PlayVoice/max-vc 不提取F0,解决F0提取不准,丝滑的转换结果
-
内容提取器更新为OpenAI的whisper
-
HiFiGAN更新为NVIDA的BigVGAN
-
VITS框架加入Micsoft的NatureSpeech优化
-
加入音色提取
-
加入说话人适配器
-
加入GRL阻止音色泄漏
Feature | Status |
---|---|
whiser | ✅ |
bigvgan | ✅ |
nature speech | ✅ |
nsf vocoder | ✅ |
speaker encoder | ✅ |
GRL for speaker | 用法和判别器类似,模型训练完了再处理 |
one shot vits | ✅ |
band extention | ✅ |
歌声音色转换模型,通过SoftVC内容编码器提取源音频语音特征,与F0同时输入VITS替换原本的文本输入达到歌声转换的效果。同时,更换声码器为 NSF HiFiGAN 解决断音问题
据不完全统计,多说话人似乎会导致音色泄漏加重,不建议训练超过10人的模型,目前的建议是如果想炼出来更像目标音色,尽可能炼单说话人的
针对sovits3.0 48khz模型推理显存占用大的问题,可以切换到32khz的分支 版本训练32khz的模型
目前发现一个较大问题,3.0推理时显存占用巨大,6G显存基本只能推理30s左右长度音频
断音问题已解决,音质提升了不少
2.0版本已经移至 sovits_2.0分支
3.0版本使用FreeVC的代码结构,与旧版本不通用
与DiffSVC 相比,在训练数据质量非常高时diffsvc有着更好的表现,对于质量差一些的数据集,本仓库可能会有更好的表现,此外,本仓库推理速度上比diffsvc快很多
仅需要以以下文件结构将数据集放入dataset_raw目录即可
dataset_raw
├───speaker0
│ ├───xxx1-xxx1.wav
│ ├───...
│ └───Lxx-0xx8.wav
└───speaker1
├───xx2-0xxx2.wav
├───...
└───xxx7-xxx007.wav
待完善~~~
-
1, 设置工作目录
export PYTHONPATH=$PWD
-
2, 重采样
生成采样率16000Hz音频, 存储路径为:./data_svc/waves-16k
python prepare/preprocess_a.py -w ./data_raw -o ./data_svc/waves-16k -s 16000
生成采样率48000Hz音频, 存储路径为:./data_svc/waves-48k
python prepare/preprocess_a.py -w ./data_raw -o ./data_svc/waves-48k -s 48000
可选的16000Hz提升到48000Hz,待完善~批处理
python bandex/inference.py -w svc_out.wav
-
3, 使用16K音频,提取音高
python prepare/preprocess_f0.py -w data_svc/waves-16k/ -p data_svc/pitch
-
4, 使用16k音频,提取内容编码
python prepare/preprocess_ppg.py -w data_svc/waves-16k/ -p data_svc/whisper
-
5, 使用16k音频,提取音色编码
python prepare/preprocess_speaker.py data_svc/waves-16k/ data_svc/speaker
-
6, 使用48k音频,提取线性谱
python prepare/preprocess_spec.py -w data_svc/waves-48k/ -s data_svc/specs
-
7, 使用48k音频,生成训练索引
python prepare/preprocess_train.py
-
8, 训练文件调试
python prepare/preprocess_zzz.py
启动训练
python svc_trainer.py -c configs/base.yaml -n sovits5.0
查看日志
tensorboard --logdir logs/
-
1, 设置工作目录
export PYTHONPATH=$PWD
-
2, 导出推理模型:文本编码器,Flow网络,Decoder网络;判别器和后验编码器只在训练中使用
python svc_export.py --config configs/base.yaml --checkpoint_path chkpt/sovits5.0/***.pt
-
3, 使用whisper提取内容编码,没有采用一键推理,为了降低显存占用
python whisper/inference.py -w test.wav -p test.ppg.npy
生成test.ppg.npy;如果下一步没有指定ppg文件,则调用程序自动生成
-
4,指定参数,推理
python svc_inference.py --config configs/base.yaml --model sovits5.0.pth --spk ./configs/singers/singer0001.npy --wave test.wav --ppg test.ppg.npy
当指定--ppg后,多次推理同一个音频时,可以避免重复提取音频内容编码;没有指定,也会自动提取;
生成文件在当前目录svc_out.wav;
args name --config 配置文件 --model 模型文件 --spk 音色文件 --wave 音频文件 --ppg 音频内容
https://github.com/facebookresearch/speech-resynthesis paper
https://github.com/jaywalnut310/vits paper
https://github.com/openai/whisper/ paper
https://github.com/NVIDIA/BigVGAN paper
https://github.com/mindslab-ai/univnet [paper]
https://github.com/nii-yamagishilab/project-NN-Pytorch-scripts/tree/master/project/01-nsf
VI-SVC, Singing Voice Conversion based on VITS decoder
Adapter-Based Extension of Multi-Speaker Text-to-Speech Model for New Speakers
AdaSpeech: Adaptive Text to Speech for Custom Voice