○ 地址:https://github.com/LC1332/Luotuo-Chinese-LLM ○ 简介:囊括了一系列中文大语言模型开源项目,包含了一系列基于已有开源模型(ChatGLM, MOSS, LLaMA)进行二次微调的语言模型,指令微调数据集等。 ● Linly: ○ 地址:https://github.com/CVI-SZU/Linly ○ 简介:提供中文对话模型 Linly-ChatFlow 、中文基...
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练 OpenChineseLLaMA:地址:https://github.com/OpenLMLab/OpenChineseLLaMA 简介:基于 LLaMA-7B 经过中文数据集增量预训练产生的中文大语言...
地址:https://github.com/pengxiao-song/LaWGPT 简介:该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容...
Github地址:github.com/ymcui/Chines 一、项目介绍 通过在原有的LLaMA词汇中增加20,000个中文符号来提高中文编码和解码的效率,并提高LLaMA的中文理解能力; 采用低秩适应(LoRA)的方法来有效地训练和部署中文的LLaMA和Alpaca模型,使研究人员能够在不产生过多计算成本的情况下使用这些模型; 评估了中文羊驼7B和13B模型在各...
地址:https://github.com/baichuan-inc/Baichuan2 简介:由百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练,在多个权威的中文、英文和多语言的通用、领域 benchmark上取得同尺寸最佳的效果,发布包含有7B、13B的Base和经过PPO训练的Chat版本,并提供了Chat版本的4bits量化。 Anima 地址...
来源| Github、zhihu 【导读】大规模语言模型(LLM)是许多NLP任务的通用底座,然而目前的预训练模型通常针对单一或少数语言进行预训练,即使是多语言模型(例如GPT-NeoX)也会在预训练数据上偏袒英文语料造成不同语言上的性能不均衡。以Meta训练...
比如在看Stanford的Generative Agents的工作的时候,我们就可以顺手fork这个项目,https://github.com/LC1332/Chinese-generative-agents并且进行一些翻译,就可以得到自己的结果。得益于计算机公共的底层和库,这种学习方式是非常高效的。 【开源骆驼】把斯坦福的25 ChatGPT玩游戏翻译成中文,佟湘玉与白展堂密谈了起来 ...
https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM(目前仅有数据处理脚本和数据、模型权重) 摘要 CT-LLM 是一个 2B 的 LLM,在 1200B 的 token 上预训练,包括 800B 的中文 token、300B 的英文 Token、100B 的代码 token,以提高模型理解和处理中文的能力。CT-LLM 不仅在中文基准 CHC-Bench 上表现出色...
https://github.com/FlagAI-Open/Aquila2 https://model.baai.ac.cn/ https://huggingface.co/BAAI 最强中英双语大模型,开源!22项综合排名领先,仅凭1/2的参数量和2/3的训练数据量,就超越了Llama2-70B和其余开源基座模型,Aquila2-34B是怎样做到的?这背后,当然要归功于智源多年积累的高质量语料。经过...
AquilaSQL开源仓库地址:https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila/Aquila-sql AquilaSQL顺利地生成了多表查询语句,完成了这个复杂查询任务。 「全家桶」级别开源,业界良心 一个冷知识是,虽然Llama2也开源,但它的商用许可协议,对中文用户并不那么友好。