xinference launch --model-name bge-reranker-v2-m3 --model-type rerank 调用代码(没找到openai,不过我用dify,直接设置) 就这么简单搞定了,配合用部署的Qwen2-72B RAG效果不错,基本能找到想要的信息。
🐳 Docker:拉取最新版本即可,也可以直接在镜像内用 pip 更新🆕 更新日志新功能✅ 新增支持 Python 3.12,移除对 Python 3.8 的支持🛠️ 新增对 openmind_hub 模型仓库(魔乐社区)的支持,当前支持下载 internlm2-chat、qwen系列、glm4系列、llama3.1 等模型🐞 BUG修复修复bge-reranker-v2-minicpm-layer...