# 下载chatglm3-6b web_demo项目 sudo git clone https://github.com/THUDM/ChatGLM3.git # 安装依赖 cd /mnt/mydisk/webcodes/ChatGLM3 pip install -r requirements.txt 启动 修改模型地址 终端方式 cd /mnt/mydisk/webcodes/ChatGLM3/basic_demo python cli_demo.py 浏览器方式 # 修改模型地址和侦听...
使用快捷工具中的JupyterLab查看服务器状态,下载模型及模型权重至"autodl-tmp"文件夹,从GitHub下载ChatGLM3模型地址为:THUDM/ChatGLM3。通过项目中的"README"文件进行模型下载,点击"HF Repo"进入"Hugging Face"进行模型权重等下载,通过"git.lfs"初始化下载。在服务器终端输入初始化命令后,即表明"Gi...
1.租服务器选择西北地然后进入到后台,在应用管理中的自建新建一个开发的应用。区和内蒙古地区的服务器,我这边因为对接的GLM3模型所以我租的服务器选择的是RTX 4090服务器,在基础镜像选择PyTorch版本2.0.0,python3.8(ubuntu20.04),Cuda版本选择11.8,这些准备就绪然后开始下载模型。 三.wechat项目的下载 地址如下https:...
选择进入”autodl-tmp“文件夹,该文件夹为数据盘,将模型及模型权重等下载到这里面,ChatGLM3模型地址为: THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型 (github.com)通过项目中的”README“文件,进行模型下载,然后点击”HF Repo“进入" Hugging Face"进行...