Chinese-Alpaca-2-13B-16K 指令模型 24.7 GB 文件列表 config.json generation_config.json pytorch_model.bin.index.json SHA256.md special_tokens_map.json tokenizer.model tokenizer_config.json pytorch_model-00003-of-00003.bin pytorch_model-00001-of-00003.bin pytorch_model-00002-of-00003.bin config....
-[Alpaca-2-7B输出样例](./alpaca-2-7b.md) -[Chinese-Alpaca-2-7B输出样例](./alpaca-2-7b.md) -[Chinese-Alpaca-2-13B输出样例](./alpaca-2-13b.md) **📊 模型在线对战**:[http://chinese-alpaca-arena.ymcui.com](http://chinese-alpaca-arena.ymcui.com/) ...
Tibetan-Alpaca-13B指令模型24.7 GB[🤗HF] Tibetan-Llama2为基座模型,不具有指令理解能力,推荐使用Tibetan-Alpaca进行交互。 详细请看[rd]) 🤖 命令行交互形式 python inference/inference_hf.py \ --base_model path_to__Tibetan-Llama2_or_Tibetan-Alpaca_dir \ --with_prompt \ --interactive ...
Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB Chinese-Alpaca-2-LoRA-13B-16K 指令模型 Llama-2-13B-hf 1.5 GB 文件列表 chinese-alpaca-2-lora-13b-16k.zip chinese-alpaca-2-lora-13b-16k.zip (1341.95M) 下载 File Name Size Update Time adapter_config.json 471 2023-08-31 12...
chinese-alpaca-2-13b-16k 长文本训练过程咨询#375 New issue ClosedDescription zx4321 opened on Oct 30, 2023提交前必须检查以下项目 请确保使用的是仓库最新代码(git pull),一些问题已被解决和修复。 我已阅读项目文档和FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案。 第三方插件问题:...
You should regard Chinese-Alpaca-2 as an instruction-tuned LLaMA. Technically speaking,Chinese-Alpaca-2-LoRA-13Binheritsthe weight ofChinese-LLaMA-2-LoRA-13Band perform further instruction tuning. That being said, the base model (meta's llama) has not been changed in training both LLaMA and Al...
v2.0 Release: Chinese-LLaMA-2-13B and Chinese-Alpaca-2-13B (ymcui#118) Browse files main (ymcui/Chinese-LLaMA-Alpaca-2#118) ymcui committed Aug 14, 2023 Verified 2 parents 54d8152 + 2b0c9b8 commit db21c15 Showing 2 changed files with 180 additions and 125 deletions. W...
例如,Tibetan-Alpaca-13B是在Tibetan-Llama2-13B上训练的。模型是在2张 NVIDIA RTX A6000(显存48GB)上训练的,显存共96GB。 类型数量 释义生成 58544 时态生成 2484 新闻生成 241292 开放问答 170449 摘要生成 234166 文本分类 8193 🎯 实验结果分析 由于大语言模型的评估是一项具有挑战性的工作,缺乏标准化的藏文...