https://github.com/imartinez/privateGPTgithub.com/imartinez/privateGPT 注意:privateGPT 本地部署目前只支持基于llama.cpp 的gguf格式模型 本文主要采用国产YI-34B-CHAT模型,基于privateGPT提供的界面进行简单聊天和文档问答测试,本测试中文档用的英文。 安装 基础环境的安装参考文档:PrivateGPT | Docs 模型下载...
privateGPT采用llam_index 加载本地模型,llama_index 底层用的是python-llama-cpp,在本地运行时发现速度较慢,在进行文档问答时token的生成率大约为4.5t/s, 直接用llama.cpp server 运行YI-34B-CHAT模型时大约每秒 17.75 token。所以尝试配置privateGPT采用兼容openai api的方式进行推理。用llama.cpp server 加载模型...
排在它前面的模型只有 26 个,但是其中 48% (14个)都是 Yi-34B 和 Yi-34B 200K 的变体模型,其中第一名是来自社区用户 fblgit 的“LLaMa Yi 34B”,比之前因为数据污染而被取消榜单资格的 TigerBot 的 70B 的效果还要好一些,千问憋出的大招 QWen 72B 暂居第二;而原本被 70B 霸占的头部榜单里,还剩包括...
为了方便大家的使用,我们已经在 OpenBayes 发布了一个公共教程这个公共教程包含了 1)Yi-34B-Chat-Q4_K_M GGUF 模型,这样你就不需要另外下载模型了。2)使用 LlamaEdge 运行大模型所需要的推理文件,都是 Wasm 文件。3)用于构建 chatbot 的 web UI。 有了这三样,在 OpenBayes 上运行 Yi-34B 就变得非常简单,...
「使用 LlamaEdge 运行 Yi-34B-Chat 的量化模型」已上线至 OpenBayes 公共资源,该教程已经预先安装好了:* Yi-34B-Chat-Q4_K_M GGUF 模型* 使用 LlamaEdge 运行大模型所需要的推理文件* 用于构建 Chatbot 的 Web UI教程链接:https://openbayes.com/console/public/tutorials/v6ZVAzejUCM打开链接后,点击右...
* Yi-34B-Chat-Q4_K_M GGUF 模型 * 使用 LlamaEdge 运行大模型所需要的推理文件 * 用于构建 Chatbot 的 Web UI 教程链接: https://openbayes.com/console/public/tutorials/v6ZVAzejUCM 打开链接后,点击右上角「克隆」,克隆当前项目,可以直接依据当前模板创建新的训练任务,无需花费时间下载模型,省时又便捷...
一时间,34B 和 34B 200K 蔚然成风。 如果你对上面详细的模型的血缘关系和基础模型分类感兴趣,可以移步文章结尾中的“其他”小节。 在之前文章里,我们使用的是来自社区的 finetune 和量化版本,这次,我们来陆续测试和使用下官方的模型吧。 当然,本篇文章也会聊聊之前漏了的 GGUF 模型量化,希望对你有帮助。
和Yi 34B 基础模型相比,200K 上下文,轻轻松松吃光所有的资源。 尝试对模型进行几种不同的量化操作 量化模型相比原版模型最直观的差别是“模型尺寸”会得到显著的减少、模型的运行速度通常会有明显的提升。如果你采用了合适的量化方案,在大模型的场景下,通常模型的性能影响是可以接受的。 通用模型格式:GGUF GGUF (...
原始模型: Dolphin 2.2 Yi 34B 200K 模型描述: 这个仓库包含了Eric Hartford的Dolphin 2.2 Yi 34B 200K模型的GGUF格式文件。 GGUF格式简介 GGUF是由llama.cpp团队在2023年8月21日引入的新格式,旨在替代不再支持的GGML格式。 支持GGUF的客户端和库包括llama.cpp、text-generation-webui、KoboldCpp、GPT4All、LM...
由[OpenBayes]()贝式计算赞助,Second State 与 Yi User Group 联合发起的《Yi 起过大年—春节 Prompt 大赛》现已正式开启。 「使用 LlamaEdge 运行 Yi-34B-C...