GLM-130B:开源双语大语言模型(ICLR 2023) 双语支持:支持英文和中文。 • 性能(EN):在LAMBADA上比GPT-3 175B(+4.0%)、 OPT-175B(+5.5%)和BLOOM-176B(+13.0%)更好,并 且在MMLU上略优于GPT-3 175B(+0.9%)。 • 性能(CN):在7个零样本CLUE数据集上比ERNIE TITAN 3.0 260B显著提高(+24.26%),...
今年6月,智谱AI 迭代出ChatGLM2,包括6B、130B、12B(120亿参数)、32B、66B等参数的模型,推理速度增长42%。据张鹏透露,相比GPT-4版的ChatGPT,ChatGLM2-12B、32B和66B性能分别提升16%、36%和280%。当前,智谱 AI 开源模型在全球下载量已超过1000万次。同时,该公司也进行商业化探索,打造AIGC(生成式 AI...
今年6月,智谱AI迭代出ChatGLM2,包括6B、130B、12B(120亿参数)、32B、66B等参数的模型,推理速度增长42%。评测结果显示,相比GPT-4版的ChatGPT,ChatGLM2-12B、32B和66B性能分别提升16%、36%和280%。目前,智谱AI开源模型在全球下载量已超过1000万次。此次发布的ChatGLM3系列模型,在性能、推理、算力、Agent...
2021年,他们利用MoE架构成功训练出万亿稀疏模型,2022年公布了1300亿级超大规模预训练通用模型GLM-130B。2023年,他们推出了千亿基座的对话模型ChatGLM,并在个人开发者和企业应用领域部署了开源模型ChatGLM-6B等。今年6月,他们迭代出了ChatGLM2,推理速度增长了42%。目前,智谱 AI 公司的估值已经超过了100亿元,成...
为了更进一步促进大模型开源社区的发展,智谱AI在6月份的时候发布了ChatGLM2,千亿基座对话模型全系升级并开源,包括6B、12B、32B、66B、130B不同尺寸,能力提升,丰富场景。 ChatGLM 2的中文榜单上排名领先,截至2023年6月25日,ChatGLM2位居C-Eval榜单Rank 0,ChatGLM2-6B位居Rank 6。相比一代模型,ChatGLM 2在MMLU...
ChatGLM-6B和ChatGLM-130B模型,都在包含1T token的中英文语料上进行训练,使用了有监督微调(SFT)、反馈自助(feedback bootstrap)和人类反馈强化学习(RLHF)等方式。 ChatGLM模型能够生成符合人类偏好的答案。结合量化技术,用户可以在消费级显卡上进行本地部署(INT4量化级别下最低只需6GB显存),基于GLM模型可以在笔记本...
为了更进一步促进大模型开源社区的发展,智谱AI在6月份的时候发布了ChatGLM2,千亿基座对话模型全系升级并开源,包括6B、12B、32B、66B、130B不同尺寸,能力提升,丰富场景。 ChatGLM 2的中文榜单上排名领先,截至2023年6月25日,ChatGLM2位居C-Eval榜单Rank 0,ChatGLM2-6B位居Rank 6。相比一代模型,ChatGLM 2在MMLU...
为了更进一步促进大模型开源社区的发展,智谱AI在6月份的时候发布了ChatGLM2,千亿基座对话模型全系升级并开源,包括6B、12B、32B、66B、130B不同尺寸,能力提升,丰富场景。 ChatGLM 2的中文榜单上排名领先,截至2023年6月25日,ChatGLM2位居C-Eval榜单Rank 0,ChatGLM2-6B位居Rank 6。相比一代模型,ChatGLM 2在MMLU...
它是由智谱AI和清华大学KEG实验室联合发布的,是基于GLM-130B的对话微调版本。 它不仅可以生成流畅、有趣、有逻辑的对话,还可以执行各种工具调用,如搜索、翻译、计算、绘图等。 它的性能在10B以下的基础模型中最强,超过了GPT-3.5等知名模型。下面我就来具体介绍一下它。
为了更进一步促进大模型开源社区的发展,智谱AI在6月份的时候发布了ChatGLM2,千亿基座对话模型全系升级并开源,包括6B、12B、32B、66B、130B不同尺寸,能力提升,丰富场景。 ChatGLM 2的中文榜单上排名领先,截至2023年6月25日,ChatGLM2位居C-Eval榜单Rank 0,ChatGLM2-6B位居Rank 6。相比一代模型,ChatGLM 2在MMLU...