【AI天童爱丽丝】爱丽丝唱韩语小甜歌Cupid 此项目采用so-vits-svc完成; 感谢 羽毛布団 大佬提供的教学视频以及整合包下载; 模型参考: 此模型共27500步,扩散模型16000步,无聚类模型; Cover/原唱: Cupid-FIFTY FIFTY 音声来源:蔚蓝档案 天童爱丽丝(CV:田中美海) 免责声明:本作品仅作为娱乐目的发布,可能造成的...
So-VITS-SVC 第一步先进入到网站https://www.autodl.com/market/list 第二步选一张显卡租借并镜像选择选择社区镜像搜索svc选择如下图所示的镜像然后点击立即创建 第三步进入到控制台点击容器实例,点击开机后快捷工具第一个开启jupyter notebook 第四步进入到jupyter notebook ...
curl -L https://huggingface.co/datasets/ms903/sovits4.0-768vec-layer12/resolve/main/sovits_768l12_pre_large_320k/clean_G_320000.pth -o logs/44k/G_0.pth#download_pretrained_diffusion_model#不训练扩散模型时不需要下载wget -L https://huggingface.co/datasets/ms903/Diff-SVC-refactor-pre-trai...
普通模型:so-vits-svc/logs/44k/G_xxx.pth 扩散模型:so-vits-svc/logs/44k/diffusion/model_xxx.th 导入配置文件: 普通模型训练配置:so-vits-svc/configs/config.json 扩散模型训练配置:so-vits-svc/logs/44k/diffusion/config.yml 点击右侧的加载模型,如果成功加载,可以得到音色名称 6.4、导入声音并替换 将刚...
经过实际测试发现,浅扩散模型的步数并不能设置的过大,尤其是扩散模型训练的不好的时候,步数大反而会起到反效果,增加哑音出现的概率。 3.特征检索模型与聚类模型 考虑到音色还原程度,我更的是使用特征检索模型,该参数0.3和0.5最为合适,过大会导致咬字不清晰。
so-vits-svc是基于VITS的开源项目,VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)是一种结合变分推理、标准化流和对抗训练的高表现力语音合成模型。 环境 本文章使用的是腾讯云GPU计算型GN7,具体环境如下: 代码语言:shell ...
前言 最近在做AI变声和AI翻唱相关调研,主要还是考察了SVC和RVC两款AI模型。本篇文章主要是SVC的部署、训练、推理说明文档。原文来自于so-vits-svc-Deployment-Documents/README_zh_CN.md at 4.1 · SUC-DriverOld/so
江南-AI周杰伦,使用So-vits-svc训练模型,仅供娱乐 - ~210~于20240118发布在抖音,已经收获了109个喜欢,来抖音,记录美好生活!
扩散模型预训练底模文件: model_0.pt 放在logs/44k/diffusion目录下 Sovits底模从svc-develop-team(待定)或任何其他地方获取 扩散模型引用了DDSP-SVC的Diffusion Model,底模与DDSP-SVC的扩散模型底模通用,可以去DDSP-SVC获取扩散模型的底模 虽然底模一般不会引起什么版权问题,但还是请注意一下,比如事先询问...
* `duration`:训练时音频切片时长,可根据显存大小调整,**注意,该值必须小于训练集内音频的最短时间!** * `batch_size`:单次训练加载到GPU的数据量,调整到低于显存容量的大小即可 * `timesteps` : 扩散模型总步数,默认为1000. * `k_step_max` : 训练时可仅训练`k_step_max`步扩散以节约训练时间,注意...