现在国内一般微调比较多的模型应该是chatglm,chatglm刚出来的时候少资源情况下只能微调几层,微调效果不好,后续引入了p tuning v2的方法来少资源微调。同样还有另一种方法来微调,peft包中就集成Lora的方法,下面我会详细介绍下两种方法的区别。 二、p tuning v2 p tuning v2并不是一个新技术,而是之前用于少样本...