随着人工智能技术的不断发展,自然语言处理(NLP)领域取得了显著的进步。其中,大型语言模型(LLM)如GPT、LLaMA等已成为NLP领域的研究热点。近期,一个名为Chinese-LLaMA-Alpaca的民间版中文羊驼模型引起了广泛关注。该模型结合了LLaMA和Alpaca的特点,旨在提供强大的中文语言处理能力。本文将详细记录在Windows环境下,使用本地C...
原项目链接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2 下载Chinese-Alpaca-2-7B模型即可,百度网盘不需要挂梯子,其他都需要梯子 linux部署llamacpp环境 原项目链接:https://github.com/ggerganov/llama.cpp 原文档链接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2/wiki/llamacpp_zh Step 1: 安装...
中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署 (Chinese LLaMA & Alpaca LLMs) - pengge/Chinese-LLaMA-Alpaca
💡 下图是中文Alpaca-Plus-7B模型在本地CPU量化部署后的实际体验速度和效果。 中文LLaMA-2&Alpaca-2大模型 | 多模态中文LLaMA&Alpaca大模型 | 多模态VLE | 中文MiniRBT | 中文LERT | 中英文PERT | 中文MacBERT | 中文ELECTRA | 中文XLNet | 中文BERT | 知识蒸馏工具TextBrewer | 模型裁剪工具TextPruner 新闻...
Chinese-Alpaca-2-7B 指令模型 12.9 GB [百度] [Google] [🤗HF] 下载Chinese-Alpaca-2-7B模型即可,百度网盘不需要挂梯子,其他都需要梯子 linux部署llamacpp环境 原项目链接:https://github.com/ggerganov/llama.cpp 原文档链接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2/wiki/llamacpp_zh Step 1...
💡 下图是中文Alpaca-Plus-7B模型在本地CPU量化部署后的实际体验速度和效果。 中文LLaMA-2&Alpaca-2大模型 | 多模态中文LLaMA&Alpaca大模型 | 多模态VLE | 中文MiniRBT | 中文LERT | 中英文PERT | 中文MacBERT | 中文ELECTRA | 中文XLNet | 中文BERT | 知识蒸馏工具TextBrewer | 模型裁剪工具TextPruner 新闻...
中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署 (Chinese LLaMA & Alpaca LLMs) - zzu-hzc/Chinese-LLaMA-Alpaca
中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs) - wooley/Chinese-LLaMA-Alpaca
Chinese-Alpaca-Pro-33B 🆕 指令模型 指令4.3M 原版LLaMA-33B &LLaMA-Plus-33B[4] 2.1G [百度网盘][Google Drive] [1] 重构需要原版LLaMA模型,去LLaMA项目申请使用或参考这个PR。因版权问题本项目无法提供下载链接。 [2] 经过重构后的模型大小比同等量级的原版LLaMA大一些(主要因为扩充了词表)。 [3] 下载...
中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs) - andrea-veritas/Chinese-LLaMA-Alpaca