1. 安装更新基础环境 2. 安装miniconda 3. 创建虚拟环境 4. 克隆项目仓库,并打开文件 5. 依赖安装 6. 运行模型 三、界面演示 一、模型介绍 【AI 剑魔 ①】在线语音合成(Bert-Vits2),将输入文字转化成暗裔剑魔·亚托克斯音色的音频输出。 作者:Xz 乔希https://space.bilibili.com/5859321 声音归属:Riot Games...
(Bert-VITS2项目所在文件夹)/Data/你的数据集/filelists/genshin.list 用文本编辑器打开genshin.list后,像是这个样子: 如果要合成多个说话人的模型, 请这样操作: (1)分别创建不同的“你的数据集”这样的文件夹,得到他们分别的filelists下的genshin.list (2)把所有的这些说话人的genshin.list拼起来组合为一个...
libpostproc57.1.100/57.1.100 这里安装的是最新版ffmpeg version 6.0 克隆代码库 接着克隆代码库: #@title 克隆代码仓库 !git clone https://github.com/v3ucn/Bert-vits2-V2.3.git 程序返回: Cloninginto'Bert-vits2-V2.3'... remote:Enumeratingobjects:234,done. remote:Countingobjects:100%(234/234),d...
/home/aistudio/bert-vits2 二,准备动作 将data文件夹里的bert模型.zip解压,解压后点入一层,如果看到文件夹名字后面不带一堆乱码,就是bert,把它替换源码的bert文件夹 三,处理音频 in [ ] #step 3.测试bert模型是否安装成功 #正常情况下,运行后会出现一列1024长度的tensor,你看到没问题后再进行下一步 !
输入cd Bert-VITS2 进入项目文件夹 创建虚拟环境(可选) 不过为了防止环境冲突还是比较推荐使用 python -m venv venv 会生成一个venv名称的文件夹 激活虚拟环境(以后每次运行都需要先激活虚拟环境) 前面会出现(venv) 安装项目依赖 pip install -r requirements.txt ...
首先我们要把训练数据集中的lab文件转换成bert-vits2要求的训练格式。bert-vits2要求的格式参考bert-vits2-master/filelists目录下的esd.list,里面的内容如下:文件名称|说话人物名称|语言(例如中文就是ZH)|说话的内容 原始的训练数据,存放在 bert-vits2/raw/yuanshen 目录下,把生成的新标注文件放在bert-vits2-...
数字伙伴新增支持网络语音合成功能,即使没有独立显卡也能超快速合成语音,并大大减少内存占用。还支持Bert-VITS2的在线语音合成,语音朗读效果完美超越VITS原版,情感饱满没有口音。于是这里出了这期本地部署simple-vits-api的视频,并配置到数字伙伴上由于临时手头上没有B
注意:本项目完全免费!别被骗了,以上。项目地址:https://github.com/Ikaros-521/AI-Vtuber项目在线文档:https://luna.docs.ie.cx/bert-vits2仓库:https://github.com/Stardust-minus/Bert-VITS2vits-simple-api仓库:https://github.com/Artrajz/vits, 视频播放量 1.1
我们在autodl-tmp/workdir/Bert-VITS2这个路径下,找到一个叫config.yml的文件。双击点开它。 找到105行。 把这行的路径model: "Data/maolei/models/G_0.pth",换成你自己的。 比如我的说话人最开始设的叫Khazix,现在我想用5000步的模型去做推理,那我就把这行改成: ...
新建安装依赖命令: #@title 安装所需要的依赖%cd/content/Bert-vits2-V2.2!pip install -r requirements.txt 依赖安装的时间要长一些,需要耐心等待。 下载必要的模型 接着下载必要的模型,这里包括bert模型和情感模型: #@title 下载必要的模型!wget -P emotional/clap-htsat-fused/ https://huggingface.co/laion...