Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB 文件列表 chinese-alpaca-2-lora-13b-16k.zip chinese-alpaca-2-lora-13b-16k.zip (1341.95M) 下载 File Name Size Update Time adapter_config.json 471 2023-08-31 12...
Chinese-Alpaca-2-16K (7B/13B) 操作系统 Linux 详细描述问题 在Code Llama中,通过设置rope_theta来让长文本的效果更好,请问当前chinese-alpaca-2-13b-16k训练过程中修改了这个参数吗? "rope_theta": 1000000(https://huggingface.co/codellama/CodeLlama-7b-hf/blob/main/config.json) https://scontent-hk...
指令模型: Chinese-Alpaca-2 (1.3B, 7B, 13B) 适用于问答、写作、聊天等指令理解场景 需要套用特定输入模板 长上下文模型: Chinese-LLaMA-2-16K (7B, 13B) Chinese-Alpaca-2-16K (7B, 13B) Chinese-LLaMA-2-64K (7B) Chinese-Alpaca-2-64K (7B) 偏好对齐模型: Chinese-Alpaca-2-RLHF (1.3B, 7B) ...
基座模型:Chinese-LLaMA-2-1.3B, Chinese-LLaMA-2-7B, Chinese-LLaMA-2-13B 聊天模型:Chinese-Alpaca-2-1.3B, Chinese-Alpaca-2-7B, Chinese-Alpaca-2-13B 长上下文模型:Chinese-LLaMA-2-7B-16K, Chinese-LLaMA-2-13B-16K, Chinese-Alpaca-2-7B-16K, Chinese-Alpaca-2-13B-16K 中文LLaMA&Alpaca大模型 ...
Chinese-Alpaca-2-13B 指令 49.6 53.2 50.9 53.5 Chinese-LLaMA-2-13B 基座 46.8 50.0 46.6 51.8 LongBench LongBench是一个大模型长文本理解能力的评测基准,由6大类、20个不同的任务组成,多数任务的平均长度在5K-15K之间,共包含约4.75K条测试数据。以下是本项目模型在该中文任务(含代码任务)上的评测效果。Long...
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2 简介:该项目将发布中文LLaMA-2 & Alpaca-2大语言模型,基于可商用的LLaMA-2进行二次开发。 Chinese-LlaMA2: 地址:https://github.com/michael-wzhu/Chinese-LlaMA2 简介:该项目基于可商用的LLaMA-2进行二次开发决定在次开展Llama 2的中文汉化工作,包括Ch...
神经网络机器翻译模型通常使用固定的词汇表进行操作。 与大多数假设无限词汇量的无监督分词算法不同,SentencePiece 在训练分词模型时,使最终的词汇表大小固定,例如:8k、16k 或 32k。 从原始句子进行训练 以前的子词(sub-word)实现假设输入句子是预标记(pre-tokenized)的。 这种约束是有效训练所必需的,但由于我们必须...
Chinese-Alpaca-2-13B-16K 指令模型 24.7 GB 文件列表 config.json generation_config.json pytorch_model.bin.index.json SHA256.md special_tokens_map.json tokenizer.model tokenizer_config.json pytorch_model-00003-of-00003.bin pytorch_model-00001-of-00003.bin pytorch_model-00002-of-00003.bin config....
Instruction/chat model: Chinese-Alpaca-2 (1.3B, 7B, 13B) Long context model (16K/64K): Chinese-LLaMA-2-16K (7B, 13B) 、Chinese-Alpaca-2-16K (7B, 13B) Chinese-LLaMA-2-64K (7B)、Chinese-Alpaca-2-64K (7B) RLHF model:Chinese-Alpaca-2-RLHF (1.3B, 7B)Chinese...
| Chinese-Alpaca-2-13B-16K | 指令模型 | 24.7 GB | [[百度]](https://pan.baidu.com/s/1gIzRM1eg-Xx1xV-3nXW27A?pwd=qi7c) [[Google]](https://drive.google.com/drive/folders/1mOkYQCvEqtGoZ9DaIpYFweSkSia2Q0vl?usp=share_link) [[🤗HF]](https://huggingface.co/hfl/chinese...