1、使用 P-Tuning v2 微调 ChatGLM3-6B - 参考信息 2、环境准备 (1)项目工作目录 (2)克隆 https://github.com/THUDM/ChatGLM3 代码 (3)克隆 chatglm3-6b 模型 (4)创建虚拟环境 (5)安装 finetune_chatmodel_demo 所需依赖 (6)更改 torch==2.1.2 为 torch==2.1.2+cu118 3、微调 (1)克隆微调...
从模型结构的调整角度来看,P-tuning主要在模型的特定层(如首层embedding)添加提示向量来进行微调,这种策略虽然能在一定程度上提升模型性能,但其应用范围相对有限。相比之下,P-tuning v2则在模型的每一层都插入了连续的prompts来微调,如图(4)所示,这不仅扩展了微调的范围,使得模型能够更全面地利用提示信息,而且进一步...
图1为ChatGLM3-6B模型简图,其结构基于Transformer Encoder架构的Encoder,大体上与BERT架构类似。ChatGLM3实现模型架构时,已预置支持P-tuning v2微调结构,图7中的PrefixEncoder,负责将若干Prefix Tokens映射到各GLM Block层的输入层,并与上一个GLM Block层的输出结合为当前GLM Block层的输入。后续各落地场景数据,只需...
方案1,可以作为学习可以,但是由于本身MPS的问题,运行速度并不快,而且M1最高配置只有16GB,非常难受。 方案2,虽然我们的总量够了16GB,达到了LoRA和P-TuningV2的要求,但是要求每张显卡都有可以完整放下模型的空余,也就是说,我们单卡的8GB是不满足的。具体需要13GB,可看上章节LLM-02中的实机运行内容。 方案3,虽然...
LLM-04 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(准备环境) 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
P-TuningV2 微调: 1张显卡,占用 18426MiB 显存。 LORA 微调: 1张显卡,占用 14082MiB 显存。 实机配置 目前我有三个方案: 方案1:MacBookProM1 16GB(平常用的机器,可以支撑起 LoRA…勉强跑 不推荐) 方案2:找算法组借的 2070 Super 8GB * 2 一共16GB显存(但是不能微调,后续说) ...
在fintuning_demo目录下的config ds_zereo_2/ds_zereo_3.json:deepspeed配置文件。 lora.yaml/ptuning.yaml/sft.yaml: 模型不同方式的配置文件,包括模型参数、优化器参数、训练参数等。 这里选择LoRA,配置文件中的参数描述如下: 训练模式 这里主要使用finetune_hf.py该文件进行微调操作。其中的参数 ...
lora.yaml / ptuning.yaml / sft.yaml: 模型不同方式的配置文件,包括模型参数、优化器参数、训练参数等。 这里选择LoRA,配置文件中的参数描述如下: 训练模式 这里主要使用finetune_hf.py该文件进行微调操作。其中的参数 第一个参数:数据集的路径 第二个参数:模型的路径 ...
lora.yaml/ptuning.yaml/sft.yaml: 模型不同方式的配置文件,包括模型参数、优化器参数、训练参数等。 这里选择LoRA,配置文件中的参数描述如下: 训练模式 这里主要使用finetune_hf.py该文件进行微调操作。其中的参数 第一个参数:数据集的路径 第二个参数:模型的路径 ...
此过程涉及将信息整理成jsonl文件,确保数据格式符合训练需求。接下来,执行微调训练。使用官方推荐的P-Tuning v2方法,对scripts/finetune_pt_multiturn.sh文件进行相应修改。启动训练后,关注训练损失值,预计训练过程需要占用约23G显存。完成训练后,通过测试结果评估模型性能,确保知识更新的成效。