此模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,中文Alpaca模型进一步使用了中文指令数据进行精调,显著提升了模型对指令的理解和执行能力。 - 飞桨AI Studio
Chinese-Alpaca-Pro-7B 🆕指令模型指令4.3M原版LLaMA-7B & LLaMA-Plus-7B[4]1.1G[百度][Google] [🤗HF][🤖ModelScope] Chinese-Alpaca-Pro-13B 🆕指令模型指令4.3M原版LLaMA-13B & LLaMA-Plus-13B[4]1.3G[百度][Google] [🤗HF][🤖ModelScope] ...
chinese_alpaca_plus_lora_7b.zip 星 星尘局 2枚 CC BY-NC-SA 4.0 自然语言处理 0 3 2023-07-04 详情 相关项目 评论(0) 创建项目 文件列表 chinese_alpaca_plus_lora_7b.zip chinese_alpaca_plus_lora_7b.zip (1002.18M) 下载 File Name Size Update Time YOU_MUST_ALSO_DOWNLOAD_LLAMA_PLUS_7B.md ...
中文Alpaca模型在上述中文LLaMA模型的基础上进一步使用了指令数据进行精调。如希望体验类ChatGPT对话交互,请使用Alpaca模型,而不是LLaMA模型。模型名称训练数据重构模型[1]大小[2]LoRA下载[3] Chinese-Alpaca-7B 指令2M 原版LLaMA-7B 790M [百度网盘][Google Drive]...
骆驼:A Chinese finetuned instruction LLaMA. Developed by 陈启源 @ 华中师范大学 & 李鲁鲁 @ 商汤科技 & 冷子昂 @ 商汤科技 - Chinese-alpaca-lora/data/trans_chinese_alpaca_data.json at main · LC1332/Chinese-alpaca-lora
1、下载好7B、llama-lora、alpaca-lora到model_hub下。进入到model_hub目录下。 2、将llama转换为hugging face支持的格式:python convert_llama_weights_to_hf.py --input_dir ./ --model_size 7B --output_dir ./7B-hf。如果报错:If this call came from a _pb2.py file, your generated code is out...
如希望体验类ChatGPT对话交互,请使用Alpaca模型,而不是LLaMA模型。 对于Alpaca模型,Pro版针对回复内容过短的问题进行改进,模型回复效果有明显提升;如果更偏好短回复,请选择Plus系列。 模型名称类型训练数据重构模型[1]大小[2]LoRA下载[3] Chinese-LLaMA-Plus-7B 基座模型 通用120G 原版LLaMA-7B 790M [百度] [...
[4] Alpaca-Plus模型的合并方法略有不同,请参考合并教程。 压缩包内文件目录如下(以Chinese-LLaMA-7B为例): chinese_llama_lora_7b/ - adapter_config.json # LoRA权重配置文件 - adapter_model.bin # LoRA权重文件 - special_tokens_map.json # special_tokens_map文件 ...
合并Chinese-Alpaca-Plus/Pro需要提供两个LoRA权重,分别为Chinese-LLaMA-Plus-LoRA和Chinese-Alpaca-Plus/Pro-LoRA。执行以下命令完成合并: python scripts/merge_llama_with_chinese_lora.py \ --base_model path_to_original_llama_hf_dir \ --lora_model path_to_chinese_llama_plus_lora,path_to_chinese_alp...
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练 OpenChineseLLaMA: 地址:https://github.com/OpenLMLab/OpenChineseLLaMA 简介:基于 LLaMA-7B 经过中文数据集增量预训练产生的中文大语言模型...