【AI天童爱丽丝】爱丽丝唱韩语小甜歌Cupid 此项目采用so-vits-svc完成; 感谢 羽毛布団 大佬提供的教学视频以及整合包下载; 模型参考: 此模型共27500步,扩散模型16000步,无聚类模型; Cover/原唱: Cupid-FIFTY FIFTY 音声来源:蔚蓝档案 天童爱丽丝(CV:田中美海) 免责声明:本作品仅作为娱乐目的发布,可能造成的...
找到训练的命令,第一条是训练扩散模型的命令,第二条是主模型训练命令,复制命令时别把!复制进去 进入到终端复制粘贴第一条命令训练扩散模型,扩散模型训练,一般训练个1-2w步就行了,按ctrl+c停止训练 再打开一个新的终端复制粘贴第二条命令训练主模型,也是按ctrl+c停止训练 ...
双击so-vits-svc文件夹里的启动webui.bat,会弹出一个网页。 选择模型文件。 需要选择主模型、主模型配置文件、扩散模型和扩散模型配置文件。 模型文件有的放了步数不同的两个,效果可能略微不同,请多多尝试。 点击加载模型文件夹复制位置正确的话So-vits 说话人位置会出现歌手名。 把准备好的干音拖进框框。 选择...
在v2.3.6 之前的版本,浅扩散模型是训练完整 1000 步深度的,但在大多数情况下,推理时很少会用到完整深度扩散。可以只训练一个特定步数深度的浅扩散模型(“100步深度”,注意不等同训练时只训练100步,和训练步数是完全不同的概念),由此可以进一步加快浅扩散的训练速度。在理论和实践测试中,只训练部分步数浅扩散的模...
说明:最后一个执行“f0预测器,默认使用rmvpe且带浅扩散”会慢点,等待100%后(大概2分钟)。表示成功 3 开始主模型训练等待上面显示预处理完后,找到训练代码块,一共有浅扩散模型训练和主模型训练 只能同时训练一个模型,建议先训练下面的主模型,主模型训练好后再去训练浅扩散(浅扩散模型属于扩展模型,能增强效果,但会...
原因:v1 分支的模型用了 vec768 的配置文件,如果上面报错的 256 的 768 位置反过来了那就是 vec768 的模型用了 v1 的配置文件。 解决方法:检查配置文件中的 ssl_dim 一项,如果这项是 256,那你的 speech_encoder 应当修改为 vec256|9,如果是 768,则是 vec768|12 详细修改方法请参考 #2.1...
配置文件存放在config文件夹,名为config.json扩散模型的配置文件默认就行,如需查看参数,请见/config_template/diffusion_template.yaml(懒得去翻译了) all_in_mem,cache_all_data:加载所有数据集到内存中,硬盘IO过于低下、同时内存容量远大于 数据集体积...
江南-AI周杰伦,使用So-vits-svc训练模型,仅供娱乐 - ~210~于20240118发布在抖音,已经收获了109个喜欢,来抖音,记录美好生活!
G_0.pth#download_pretrained_diffusion_model#不训练扩散模型时不需要下载wget-Lhttps://huggingface.co/datasets/ms903/Diff-SVC-refactor-pre-trained-model/resolve/main/fix_pitch_add_vctk_600k/model_0.pt-ologs/44k/diffusion/model_0.pt#如果使用rmvpeF0预测器的话,需要下载预训练的 RMVPE 模型curl-L...
歌声音色转换模型,通过SoftVC内容编码器提取源音频语音特征,与F0同时输入VITS替换原本的文本输入达到歌声转换的效果。同时,更换声码器为 NSF HiFiGAN解决断音问题。 🆕 4.1-Stable 版本更新内容 特征输入更换为 Content Vec 的第12层Transformer输出,并兼容4.0分支 更新浅层扩散,可以使用浅层扩散模型提升音质 增加whisp...