🤖️ 一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。增加 clue-ai/ChatYuan 项目的模型 ClueAI/ChatYuan-large-v2 的支持。 💡 受 GanymedeNil 的项目 document.ai 和AlexZhangji 创建的 ChatGLM-6B Pull Request 启发,建立了全部基于开源模型实现的本地知识问答应用。 ✅ 本...
ChatGLM2模型+Langchain知识库挂载 经过上文介绍,在中文能力测评中,ChatGLM2-6B 是众多大模型中表现较好的一个,同时 由于其发布时间较早,投资者对于它的认知程度也更高。我们此处以该模型为例进行部署 和 Langchain 知识库的挂载介绍。我们推荐首先使用模型 Github 官方项目的代码进行部署,在 web_demo.py 中...
git clone https://github.com/THUDM/ChatGLM2-6B 安装依赖 cd ChatGLM2-6B# 其中 transformers 库版本推荐为 4.30.2,torch 推荐使用 2.0 及以上的版本,以获得最佳的推理性能pip install -r requirements.txt 下载模型 # 这里我将下载的模型文件放到了本地的 chatglm-6b 目录下git clone https://...
-t chatglm-cuda:latest . docker run --gpus all -d --name chatglm -p 7860:7860 chatglm-cuda:latest #若要使用离线模型,请配置好模型路径,然后此repo挂载到Container docker run --gpus all -d --name chatglm -p 7860:7860 -v ~/github/langchain-ChatGLM:/chatGLM chatglm-cuda:latest...
📃 LangChain-Chatchat (原 Langchain-ChatGLM) 基于ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。 目录 介绍 解决的痛点 快速上手 1. 环境配置 2. 模型下载 3. 初始化知识库和配置文件 4. 一键启动 5. 启动界面示例 联系我们 介绍 🤖️...
-t chatglm-cuda:latest . docker run --gpus all -d --name chatglm -p 7860:7860 chatglm-cuda:latest #若要使用离线模型,请配置好模型路径,然后此repo挂载到Container docker run --gpus all -d --name chatglm -p 7860:7860 -v ~/github/langchain-ChatGLM:/chatGLM chatglm-cuda:latest...
🤖️ 一种利用 ChatGLM-6B + langchain 实现的基于本地知识的 ChatGLM 应用。 💡 受 GanymedeNil 的项目 document.ai 和AlexZhangji 创建的 ChatGLM-6B Pull Request 启发,建立了全部基于开源模型实现的本地知识问答应用。 ✅ 本项目中 Embedding 选用的是 GanymedeNil/text2vec-large-chinese,LLM 选用...
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:1. 更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM ...
🤖️ 一种利用ChatGLM-6B+langchain实现的基于本地知识的 ChatGLM 应用。增加clue-ai/ChatYuan项目的模型ClueAI/ChatYuan-large-v2的支持。
🤖️ 一种利用ChatGLM-6B+langchain实现的基于本地知识的 ChatGLM 应用。