Chinese-Alpaca-2-13B-16K 指令模型 24.7 GB Chinese-Alpaca-2-13B-16K 指令模型 24.7 GB 文件列表 config.json generation_config.json pytorch_model.bin.index.json SHA256.md special_tokens_map.json tokenizer.model tokenizer_config.json pytorch_model-00003-of-00003.bin pytorch_model-00001-of-00003.bi...
基座模型:Chinese-LLaMA-2-1.3B, Chinese-LLaMA-2-7B, Chinese-LLaMA-2-13B 聊天模型:Chinese-Alpaca-2-1.3B, Chinese-Alpaca-2-7B, Chinese-Alpaca-2-13B 长上下文模型:Chinese-LLaMA-2-7B-16K, Chinese-LLaMA-2-13B-16K, Chinese-Alpaca-2-7B-16K, Chinese-Alpaca-2-13B-16K 中文LLaMA&Alpaca大模型 ...
Chinese-Alpaca-2-13B43.245.5 Chinese-LLaMA-2-13B38.942.5 MMLU是一个用于评测自然语言理解能力的英文评测数据集,是当今用于评测大模型能力的主要数据集之一,其中验证集和测试集分别包含1.5K和14.1K个选择题,涵盖57个学科。MMLU推理代码请参考本项目:📖GitHub Wiki ...
聊天模型(4K上下文):Chinese-Alpaca-2 (1.3B, 7B, 13B) 长上下文模型(16K/64K): Chinese-LLaMA-2-16K (7B, 13B) 、Chinese-Alpaca-2-16K (7B, 13B) Chinese-LLaMA-2-64K (7B)、Chinese-Alpaca-2-64K (7B) 偏好对齐模型:Chinese-Alpaca-2-RLHF (1.3B, 7B) 中文LLaMA&Alpaca大模型 | 多模态中文...
基座模型:Chinese-LLaMA-2-1.3B, Chinese-LLaMA-2-7B, Chinese-LLaMA-2-13B 聊天模型:Chinese-Alpaca-2-1.3B, Chinese-Alpaca-2-7B, Chinese-Alpaca-2-13B 长上下文模型:Chinese-LLaMA-2-7B-16K, Chinese-LLaMA-2-13B-16K, Chinese-Alpaca-2-7B-16K, Chinese-Alpaca-2-13B-16K ...
神经网络机器翻译模型通常使用固定的词汇表进行操作。 与大多数假设无限词汇量的无监督分词算法不同,SentencePiece 在训练分词模型时,使最终的词汇表大小固定,例如:8k、16k 或 32k。 从原始句子进行训练 以前的子词(sub-word)实现假设输入句子是预标记(pre-tokenized)的。 这种约束是有效训练所必需的,但由于我们必须...
Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB 文件列表 chinese-alpaca-2-lora-13b-16k.zip chinese-alpaca-2-lora-13b-16k.zip (1341.95M) 下载 File Name Size Update Time adapter_config.json 471 2023-08-31 12...
Chinese-Alpaca-2-13B 指令 49.6 53.2 50.9 53.5 Chinese-LLaMA-2-13B 基座 46.8 50.0 46.6 51.8 LongBench LongBench是一个大模型长文本理解能力的评测基准,由6大类、20个不同的任务组成,多数任务的平均长度在5K-15K之间,共包含约4.75K条测试数据。以下是本项目模型在该中文任务(含代码任务)上的评测效果。Long...
长上下文模型(16K/64K): Chinese-LLaMA-2-16K (7B, 13B) 、Chinese-Alpaca-2-16K (7B, 13B) Chinese-LLaMA-2-64K (7B)、Chinese-Alpaca-2-64K (7B) 偏好对齐模型:Chinese-Alpaca-2-RLHF (1.3B, 7B) 中文LLaMA&Alpaca大模型 | 多模态中文LLaMA&Alpaca大模型 | 多模态VLE | 中文MiniRBT | 中文LER...
Instruction/chat model: Chinese-Alpaca-2 (1.3B, 7B, 13B) Long context model (16K/64K): Chinese-LLaMA-2-16K (7B, 13B) 、Chinese-Alpaca-2-16K (7B, 13B) Chinese-LLaMA-2-64K (7B)、Chinese-Alpaca-2-64K (7B) RLHF model:Chinese-Alpaca-2-RLHF (1.3B, 7B) ...