最后,模型差不多了,我们就要开始推理了~也就是真正的把文字转成语音了~推理我建议还是上云推理,本地推理要求最低也是8G显存,挺高的。。。像我这种垃圾3060想都不敢想。 推理第一步,先去改一下配置文件,因为这个项目比较新,所以用户体验不是特别好,大家忍耐一下,马上就完事了~ 我们在autodl-tmp/workdir/Bert-...
Bert-vits2中文特化版本引入了大模型,导致入门的门槛略微变高了一点,官方说至少需要8G显存才可以跑,实际上6G也是可以的,如果bert大模型选择参数更少的版本,相信运行的门槛会进一步的降低。 最后奉上整合包链接: 整合包链接:https://pan.quark.cn/s/754f236ef864...
这里需要调整的参数是batch_size,如果显存不够,需要往下调整,否则会出现“爆显存”的问题,假设显存为8G,那么该数值最好不要超过8。 与此同时,首次训练建议把log_interval和eval_interval参数调小一点,即训练的保存间隔,方便训练过程中随时进行推理验证。 随后输入命令,开始训练: python3 train_ms.py 程序返回: 11-...
这里需要调整的参数是batch_size,如果显存不够,需要往下调整,否则会出现“爆显存”的问题,假设显存为8G,那么该数值最好不要超过8。 与此同时,首次训练建议把log_interval和eval_interval参数调小一点,即训练的保存间隔,方便训练过程中随时进行推理验证。 随后输入命令,开始训练: python3 train_ms.py 程序返回: 11-...
一、本地配置说明 使用的CPU是I5-13600KF 内存32GB 显卡是4070ti 显存12GB 系统版本 Win11 专业工作站版 22H2 二、准备数据集文件 这次使用的数据集是我自己录的干声总时长两小时左右,用Slicer-gui的默认配置切成了每7s一个wav文件 slicer-gui默认配置 ...
硬件设备在处理大规模矩阵运算时效率更高。但是,更大的 batchsize 会导致显存占用 增加,超出硬件所能承受的范围便会出现 COOM (Cuda out of memory) 2. 较小的 batch size 也可能导致训练过程中的梯度估计不稳定, 使用小 batchsize 的时候应 当相应缩小学习率,降低 Loss:NaN 或 Loss:0.99/1 的概率。越大的...
Bert-VITS2-Extra-Fix中文特化修复版整合包,向下兼容显存占用低 #bert-vits2 - 刘悦的技术博客于20240129发布在抖音,已经收获了3672个喜欢,来抖音,记录美好生活!
Bert-vits2中文特化版本引入了大模型,导致入门的门槛略微变高了一点,官方说至少需要8G显存才可以跑,实际上6G也是可以的,如果bert大模型选择参数更少的版本,相信运行的门槛会进一步的降低。 最后奉上整合包链接: 整合包链接:https://pan.quark.cn/s/754f236ef864...
Bert-vits2中文特化版本引入了大模型,导致入门的门槛略微变高了一点,官方说至少需要8G显存才可以跑,实际上6G也是可以的,如果bert大模型选择参数更少的版本,相信运行的门槛会进一步的降低。 最后奉上整合包链接: 整合包链接:https://pan.quark.cn/s/754f236ef864...
这里需要调整的参数是batch_size,如果显存不够,需要往下调整,否则会出现“爆显存”的问题,假设显存为8G,那么该数值最好不要超过8。 与此同时,首次训练建议把log_interval和eval_interval参数调小一点,即训练的保存间隔,方便训练过程中随时进行推理验证。