模型 量化 显存要求 ChatGLM2 FP16 13G ChatGLM2 INT4 6G ChatGLM2-32k FP16 20G ChatGLM2-32k INT4 11G 项目仓库 清华大学云盘网址cloud.tsinghua.edu.cn/d 前置条件 在执行项目安装之前,需要安装Anaconda、git、Conda、git-lfs、cuda、cudnn、pycharm、TDMGCC 操作流程 切换环境,CMD运行:conda activate ...
在Anaconda虚拟环境中,我们可以使用conda命令来安装ChatGLM2-6B模型。打开命令提示符或终端窗口,输入以下命令:conda install -c pytorch chglm2-6b这将自动从PyTorch通道下载并安装ChatGLM2-6B模型。等待安装完成即可。步骤四:配置ChatGLM2-6B模型安装完成后,我们需要配置ChatGLM2-6B模型的相关参数。在Anaconda虚拟环境...
首先,使用CMD或shell环境,运行以下命令以激活Anaconda的特定环境:conda activate ChatGLM 进入PYTHON环境或在pycharm中切换环境,并直接执行你的PYTHON脚本文件。在pycharm中运行模型之前,需通过如下步骤进行环境配置:在CONDA中创建并激活新的PYTHON环境(例如使用“Windows运行cmd”)。在CMD或终端下,依次运...
清华大学KEG和数据挖掘小组(THUDM)发布的第二代ChatGLM2-6B。据说在目前处理中文的大模型里它是最吊的,没有之一。而且它允许商用,如果把ChatGLM2-6B部署在自己电脑上,让它写网文,每小时自动码个十万八万字应该不成问题吧? 发布于 2023-07-23 20:05・IP 属地辽宁 赞同16 分享收藏 写下你...