对于ChatGLM2-6B 模型基于 PEFT 的特定任务微调实验。 1.1 硬件需求 注:r为LoRA 维数大小,p 为前缀词表大小,l 为微调层数,ex/s 为每秒训练的样本数。gradient_accumulation_steps 参数设置为 1。上述结果均来自于单个 Tesla V100 GPU,仅供参考。 1.2 微调方法 目前我们实现了针对以下高效微调方法的支持: LoRA:...
可以看到可训练的参数量只有 0.03328330453698988。 二、ChatGLM2-6B Lora 微调 数据集: 数据处理 # -*- coding: utf-8 -*- from torch.utils.data import Dataset import torch import json import numpy as np class QADataset(Dataset): def __init__(self, data_path, tokenizer, max_source_length, ...
微调后的ChatGLM2-6B模型可以应用于多种场景,如智能客服、知识问答、文本创作等。通过不断优化和调整,模型可以逐渐适应特定领域的需求,提供更加精准和个性化的服务。 结论 使用自有数据集微调ChatGLM2-6B模型是一项具有挑战性的任务,但通过精心准备数据集、合理设置训练参数和不断优化模型配置,可以显著提升模型在特定任...
ChatGLM2-6B 模型的微调。需要使用--use_v2 参数来进行训练。 本地模型的微调,需要使用--model_name_or_path参数来指定。 不联网情况下微调训练 alpaca_gpt4_zh要用10个小时,换self_cognition数据集30秒训练完成。 mkdir output CUDA_VISIBLE_DEVICES=0python src/train_bash.py \--do_train \--model_name...
ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调,是目前社区非常活跃的一个开源LLM。 本范例使用非常简单的,外卖评论数据集来实施微调,让ChatGLM2-6b来对一段外卖评论区分是好评还是差评。 可以发现,经过微调后的模型,相比直接 3-shot-prompt 可以取得明显更好的效果。
ChatGLM2-6B 环境已经有了,接下来开始模型微调,这里我们使用官方的 P-Tuning v2 对 ChatGLM2-6B 模型进行参数微调,P-Tuning v2 将需要微调的参数量减少到原来的 0.1%,再通过模型量化、Gradient Checkpoint 等方法,最低只需要 7GB 显存即可运行。安装依赖 # 运行微调需要 4.27.1 版本的 transformerspip ...
上篇文章:ChatGLM2-6B清华开源本地部署 二、微调依赖项目 https://github.com/hiyouga/ChatGLM-Efficient-Tuning 三、数据集准备 1、在项目的/data目录下,复制一份self_cognition.json,改为train001_cognition.json instruction是问题,output是回答 2、更改dataset_info.json文件,新增刚才的文件索引 ...
中文ChatGLM-6B预训练模型 5.2万提示指令微调演示 #小工蚁 #chatgpt #chatglm 查看AI文稿 420小工蚁 02:06 #人工智能 个人电脑部署大语言模型chatglm2-6b,由于chatgpt和Bing的使用违反我国法律法规,同时数据存在泄露风险。因此本地化或内网布置的大语言模型将也是Ai研究的应用方向。
生成的结果保存在 ./output/$CHECKPOINT/generated_predictions.txt。在评测数据中,含有与验证集相同的输入,labels 是dev.json中的预测输出,predict 是 ChatGLM2-6B 生成的结果,对比预测输出和生成结果,评测模型训练的好坏。如果不满意调整训练的参数再次进行训练。