第一步肯定是合并,本来是需要 一步一步合并的,但是目前有chinese-alpaca-plus-7B-hf的开源版,可以下载,然后跟LaWGPT-7B-beta1.1合并就可以 python merge.py \ --base_model 'minlik/chinese-alpaca-plus-7B-hf' \ --lora_model 'entity303/LaWGPT-7B-beta1.1' \ --output_dir './models/base_models/...
chinese_alpaca_plus_lora_7b.zip (1002.18M) 下载 File Name Size Update Time YOU_MUST_ALSO_DOWNLOAD_LLAMA_PLUS_7B.md 207 2023-04-28 12:10:54 adapter_config.json 423 2023-04-28 08:55:40 adapter_model.bin 1138332843 2023-04-28 08:55:42 special_tokens_map.json 96 2023-04-28 08:55:...
| Chinese-Alpaca-Plus-7B | 4ee0bf805c312a9a771624d481fbdb4485e1b0a70cd2a8da9f96137f177b795d | | Chinese-Alpaca-13B | cb8dda3c005f3343a0740dcd7237fbb600cb14b6bff9b6f3d488c086a2f08ada | | Chinese-Alpaca-Plus-13B | | | Chinese-Alpaca-Plus-13B | a1fcdcb6d7e1068f925fb36ec78632c...
首先,本项目是进行两次训练,第一次是基于llama训练中文语料,得到了chinese-llama和chinese-llama-plus,然后在这两个基础上又添加了指令数据进行精调,如果希望体验类ChatGPT对话交互,请使用Alpaca模型,而不是LLaMA模型,这里就涉及到模型的下载和合并,我们以chinese-alpaca-plus-7b为例子 模型下载 这里需要三个模型,1、...