Luotuo-Chinese-LLM: 地址:github.com/LC1332/Luotu 简介:囊括了一系列中文大语言模型开源项目,包含了一系列基于已有开源模型(ChatGLM, MOSS, LLaMA)进行二次微调的语言模型,指令微调数据集等。 Linly: 地址:github.com/CVI-SZU/Linl 简介:提供中文对话模型Linly-ChatFlow 、中文基础模型 Linly-Chinese-LLaMA 及其...
尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。 截止到当前,已统计到77个相关项目,具体数量分布如下: 项目地址:https://github.com/HqWu-HITCS/Awesome-Chinese-LLM 地址:https://github.com/THUDM/ChatGLM-6B 简介:中文领域效果最好的...
Chinese-LLMs 汇总 以ChatGPT为代表的大语言模型(LLM)展现出成为通用人工智能(AGI)的潜力,并受到~~NLP社区~~社会各界的广泛关注。然而,目前整理LLM的项目大多以英文语料和英文LLM为主,这为构建高质量的中文对话大模型形成阻碍。 为了促进中文LLM的发展,本项目整理了可用的中文大模型,中文开源数据,也欢迎大家继续在...
https://github.com/HqWu-HITCS/Awesome-Chinese-LLM Stars:13.6kLicense:NOASSERTION Awesome-Chinese-LLM 是整理开源的中文大语言模型,主要包括规模较小、可私有化部署、训练成本较低的模型,涵盖底座模型、垂直领域微调及应用、数据集与教程等。 包含各种规模的中文大语言模型 可私有化部署 低训练成本 收集中文LLM...
【[17.6k星]Awesome-Chinese-LLM:中文大语言模型(LLM)的开源资源,包括模型、应用、数据集和教程等,特别强调了可私有化部署和训练成本较低的模型】'整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主,包括底座模型,垂直领域微调及应用,数据集与教程等。' GitHub: github.com/HqWu-HIT...
fastllm: 地址:https://github.com/ztxz16/fastllm 简介:纯c++的全平台llm加速库,chatglm-6B级模型单卡可达10000+token / s,支持moss, chatglm, baichuan模型,手机端流畅运行。 WebCPM 地址:https://github.com/thunlp/WebCPM 简介:一个支持可交互网页搜索的中文大模型。
中文大模型能力评测榜单:覆盖百度文心一言、chatgpt、阿里通义千问、讯飞星火、belle / chatglm6b 等开源大模型,多维度能力评测。不仅提供能力评分排行榜,也提供所有模型的原始输出结果! - MoMo-xuexue/chinese-llm-benchmark
Chinese LLM developers navigate US chip sanction through innovation Amanda Liang, Taipei; Jingyue Hsiao, DIGITIMES Asia Monday 9 September 2024 Enter email addresses (max 10), separated by commas (required): Your name (required)and email (required) ...
中国法律-硕士LLM LLM in Chinese Law 基本信息 学位类型: 硕士 学制: 1年 开学时间: 秋季 申请截止日期: 2月28日 申请要求 托福: 总分:97,口语:97,写作:97 雅思: 总分:7,听力:6.5,阅读:6.5,口语:7,写作:7 申请材料 Transcript: Please upload certificates and complete transcripts of your undergraduate...
引入 LoRA 进行微调,该方法在预训练模型层旁引入可训练的 A、B 矩阵,通过调整秩 r 控制训练参数,大幅减少了可训练参数的数量。作者在中文 LLaMA 和 Alpaca 模型的实验中应用 LoRA,包括预训练和微调阶段,特别是在注意力模块的权重中引入 LoRA。实验设置和微调:预训练阶段使用原始 LLaMA 权重初始化...