生成新的提示:论文使用固定模型 Llama2-Chat 70B few-shot方法(8-shot)生成新的提示xi,方法为:从原始种子IFT数据中抽取提示,遵循 Self-instruct方法 (注意保证指令多样性) 生成候选回应:然后我们使用采样从我们的模型中为给定提示xi生成N个多样化的候选回应{ y_i^1,..., y_i^N }。 评估候选回应:最后,论文...
受到self-instruct启发,除了通用LLM还能做垂直领域的小LLM实现定制效果,通过GPT获得question和answer来作为训练数据, 其中的重点在于根据自己的垂直领域问题来编写prompt,在config.py配置中。 tips:有问题欢迎提issue 一、流程示意图 为了简化和易复现,本项目没有下图的过滤步骤,当然理想情况下有是比较好的,可以选用simcse...