技术报告(V2):[Cui, Yang, and Yao] Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca 本项目主要内容: 🚀 针对原版LLaMA模型扩充了中文词表,提升了中文编解码效率 🚀 开源了使用中文文本数据预训练的中文LLaMA以及经过指令精调的中文Alpaca ...
本项目基于Meta最新发布的新一代开源大模型Llama-3开发,是Chinese-LLaMA-Alpaca开源大模型相关系列项目(一期、二期)的第三期。本项目开源了中文Llama-3基座模型和中文Llama-3-Instruct指令精调大模型。这些模型在原版Llama-3的基础上使用了大规模中文数据进行增量预训练,并且使用精选指令数据进行精调,进一步提升了中文基...
中文Alpaca模型在上述中文LLaMA模型的基础上进一步使用了指令数据进行精调。如希望体验类ChatGPT对话交互,请使用Alpaca模型,而不是LLaMA模型。 Model Hub 可以在🤗Model Hub下载以上所有模型,并且使用transformers和PEFT调用中文LLaMA或Alpaca LoRA模型。以下模型调用名称指的是使用.from_pretrained()中指定的模型名称。 脚...
中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs): https://github.com/ymcui/Chinese-LLaMA-Alpaca LLaMa模型怎么样? LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开放且高效的大型基础语言模型,共有7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开...
中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs): https://github.com/ymcui/Chinese-LLaMA-Alpaca LLaMa模型怎么样? LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开放且高效的大型基础语言模型,共有7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开...
LLaMA 2 🦙🦙 LLaMA 3 🦙🦙🦙 Mistral 7B Mixtral MoE DBRX Falcon Chinese LLaMA / AlpacaandChinese LLaMA-2 / Alpaca-2 Vigogne (French) BERT Koala Baichuan 1 & 2+derivations Aquila 1 & 2 Starcoder models Refact MPT Bloom
6月项目精选: 主要包含 诗词库/AI模型/ChatGPT/人工智能教育/音频处理等热点项目 OpenGithub社区:https://open.itc.cn/Github : https://github.com/OpenGithubs1.中华古诗词数据库:chinese-poetry 43.2k⭐项目地…
13.中文 LLaMA 模型和指令精调:Chinese-LLaMA-Alpaca 11.7k⭐ 项目地址:github.com/ymcui/Chines Github趋势榜: 入选2023-04-18周榜,周增⭐1,603 stars this week 入选2023-05-14月榜,月增⭐3,565 stars this month 开源时间:2023-03-15 最后更新:2023-06-29 主要语言:Python 项目分类:[ChatGPT]...
本项目的最新版本中通过使用FastChat接入 Vicuna, Alpaca, LLaMA, Koala, RWKV 等模型,依托于langchain框架支持通过基于FastAPI提供的 API 调用服务,或使用基于Streamlit的 WebUI 进行操作。 ✅ 依托于本项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 ...
Visual-Chinese-LLaMA-Alpaca(VisualCLA)是基于中文LLaMA&Alpaca大模型项目开发的多模态中文大模型。VisualCLA在中文LLaMA/Alpaca模型上增加了图像编码等模块,使LLaMA模型可以接收视觉信息。在此基础上,使用了中文图文对数据进行了多模态预训练,对齐图像与文本表示,赋予其基本的多模态理解能力;并使用多模态指令数据集精调,...