放入后点击检查按钮,打勾代表成功。 链接:huggingface(https://huggingface.co/SpicyqSama007/Bert-VITS2-train-models/tree/main) 链接:百度网盘(https://pan.baidu.com/s/1ZA8mFnbOOQo4nOgSrE7Gig?pwd=1127) 训练参数配置: 以上参数为16GB显存,32GB内存及以上的推荐配置。 若要确认配置,请点击更改训练参数配...
等着就行,跟SVC类似,每1000步会在autodl-tmp/workdir/Bert-VITS2/Data这个文件夹里保存一个模型,我一般推荐4000步、5000步的模型可以听听效果了,没有大问题的话,就可以继续往后炼,10000步的模型差不多就可以用了,但是我还是推荐你10000步以后的每个保存下来的模型,都听一下,挑个最好的。 最后,模型差不多了,...
Bert-vits2项目又更新了,更新了一个新的分支:中文特化,所谓中文特化,即针对中文音色的特殊优化版本,纯中文底模效果百尺竿头更进一步,同时首次引入了大模型,使用国产IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型作为Bert特征提取,基本上完全解决了发音的bad case,同时在情感表达方面有大幅提升,可以作为先前V1.0.1纯...
Bert-VITS2 V2.0.2本地训练 万事俱备,只差训练。先不要着急,打开Data/keqing/config.json配置文件: {"train":{"log_interval":50,"eval_interval":50,"seed":42,"epochs":200,"learning_rate":0.0001,"betas":[0.8,0.99],"eps":1e-09,"batch_size":8,"fp16_run":false,"lr_decay":0.99995,"se...
2. 较小的 batch size 也可能导致训练过程中的梯度估计不稳定, 使用小 batchsize 的时候应 当相应缩小学习率,降低 Loss:NaN 或 Loss:0.99/1 的概率。越大的 batchsize 越有利于模 型泛化效果,大就是好,大就是美( 如何设置 batchsize: 一般来说建议贴着硬件上限,以提高运算效率,即显存几乎吃满,但又不吃...
Bert-vits2项目又更新了,更新了一个新的分支:中文特化,所谓中文特化,即针对中文音色的特殊优化版本,纯中文底模效果百尺竿头更进一步,同时首次引入了大模型,使用国产IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型作为Bert特征提取,基本上完全解决了发音的bad case,同时在情感表达方面有大幅提升,可以作为先前V1.0.1纯...
Bert-VITS2 V2.0.2基于现有数据集 目前Bert-VITS2 V2.0.2大体上有两种训练方式,第一种是基于现有数据集,即原神各角色已经标注好的语音数据,这部分内容是公开的,但是不能商用,可以在这里下载: https://pan.ai-hobbyist.org/Genshin%20Datasets/%E4%B8%AD%E6%96%87%20-%20Chinese/%E5%88%86%E8%A7%92...
简介:Bert-vits2项目又更新了,更新了一个新的分支:中文特化,所谓中文特化,即针对中文音色的特殊优化版本,纯中文底模效果百尺竿头更进一步,同时首次引入了大模型,使用国产IDEA-CCNL/Erlangshen-MegatronBert-1.3B大模型作为Bert特征提取,基本上完全解决了发音的bad case,同时在情感表达方面有大幅提升,可以作为先前V1.0...
目前Bert-VITS2 V2.0.2大体上有两种训练方式,第一种是基于现有数据集,即原神各角色已经标注好的语音数据,这部分内容是公开的,但是不能商用,可以在这里下载: https://pan.ai-hobbyist.org/Genshin%20Datasets/%E4%B8%AD%E6%96%87%20-%20Chinese/%E5%88%86%E8%A7%92%E8%89%B2%20-%20Single/%E8%A7...
git clone https://github.com/Stardust-minus/Bert-VITS2 随后安装项目的依赖: cd Bert-VITS2 pip3 install -r requirements.txt 接着下载bert模型放入到项目的bert目录。 bert模型下载地址: 中:https://huggingface.co/hfl/chinese-roberta-wwm-ext-large ...