LLM篇接入 百度 千帆大模型,多种LLM任你挑选,唯一的不足之处就是要钱( 06:47 功能篇新增API接口,可以和其他程序对接。也就是说,你可以借助api将本项目的功能缝合到你的程序中 04:37 LLM篇 接入 Gemini 谷歌双子座!在线免费白嫖,“碾压”GPT4,这不试试?! 03:31 平台篇 对接 微信视频号,虽迟但到,...
说明服务已经启动,没错,Bert-vits2的推理api是基于Fast-api的。关于Fast-api框架,请移步: 2020年是时候更新你的技术武器库了:Asgi vs Wsgi(FastAPI vs Flask) 随后访问http://127.0.0.1:7860/: 这里可以将两个模型一起加载进来。 右侧参数为推理设备和语言,默认是使用cuda和中文。 如果是没有N卡的同学,也可...
功能篇 新增 闻达 接入。配合官方启动器使用,共用ChatGPT配置,目前支持rwkv模型 04:19 点歌模式 新增 随机点歌功能,命令均可通过GUI自定义修改。 03:57 功能篇 新增 纯 VITS 接入,配合vits-simple-api,支持情感控制,语速调控 08:27 功能篇 接入langchain_chatglm,附赠整合包,构建自己的知识库,限定使用场景 ...
音频api改为post,从而实现更长文本的切分生成。不支持2023/11/9之前release的bertvits ver 0.3.5 新增 添加了自动切分与自动翻译功能。 添加了帮助页面 ver 0.3.3 新增功能 从训练文件中获取随机音频示例 ver 0.3.2 优化 优化模型选择框,较多模型时不再加载卡顿 ...
# 检查模型是否存在 if model_id not in loaded_models.models.keys(): return {"status": 10, "detail": f"模型model_id={model_id}未加载"} @@ -235,7 +225,7 @@ def voice( return response @app.get("/models/info") def get_loaded_models_info(): def get_loaded_models_info(request:...
日文模型:huggingface.co/ku-nlp/d 底模地址:openi.pcl.ac.cn/Stardus )(3)下载训练的音频数据,这里用的是《原神》这款游戏的人物语音数据集。原始的数据集长下面这样子。每一个人物一个文件夹,然后每个人物文件夹里分别对应一个wav文件和lab文件,wav文件是人物的说话语音文件,lab文件是语音文件的标注文字。例...
数字伙伴新增支持网络语音合成功能,即使没有独立显卡也能超快速合成语音,并大大减少内存占用。还支持Bert-VITS2的在线语音合成,语音朗读效果完美超越VITS原版,情感饱满没有口音。 于是这里出了这期本地部署simple-vits-a - aYYbsYYa于20231001发布在抖音,已经收获了6
vits-simple-api是一个使用经过训练的模型的 Web 前端。我使用它主要是因为它的长文本支持,而原始项目没有。 git clone https://github.com/Artrajz/vits-simple-api git pull https://github.com/Artrajz/vits-simple-api cd vits-simple-api conda create -n vits-simple-api python=3.10 pip conda a...
说明服务已经启动,没错,Bert-vits2的推理api是基于Fast-api的。关于Fast-api框架,请移步: 2020年是时候更新你的技术武器库了:Asgi vs Wsgi(FastAPI vs Flask) 随后访问http://127.0.0.1:7860/: 这里可以将两个模型一起加载进来。 右侧参数为推理设备和语言,默认是使用cuda和中文。
至此,模型配置完成。安装好依赖后,在根目录执行命令。程序返回,说明服务已启动。Bert-vits2的推理api基于Fast-api框架。关于Fast-api框架,请参考以下链接:2020年是时候更新你的技术武器库了:Asgi vs Wsgi(FastAPI vs Flask)随后访问 127.0.0.1:7860/,这里可以将两个模型一起加载进来。右侧参数为...