2020年,智谱AI 开始GLM预训练架构的研发,并训练了100亿参数模型GLM-10B;2021年利用MoE架构成功训练出万亿稀疏模型;2022年公布1300亿级超大规模预训练通用模型GLM-130B,并以此打造大模型平台及产品矩阵。2023年,智谱AI 推出千亿基座的对话模型ChatGLM,并开源单卡版模型ChatGLM-6B等,部署于个人开发者和企业应用...
张鹏透露,目前智谱 AI GLM大模型已经应用于政务、金融、能源、制造、医疗等领域,支持华为昇腾、神威超算、海光DCU等10余种国产硬件生态,合作伙伴包括阿里、腾讯云、火山引擎、华为、美团、微软、OPPO、海天瑞声等数十家公司。
张鹏透露,目前智谱 AI GLM大模型已经应用于政务、金融、能源、制造、医疗等领域,支持华为昇腾、神威超算、海光DCU等10余种国产硬件生态,合作伙伴包括阿里、腾讯云、火山引擎、华为、美团、微软、OPPO、海天瑞声等数十家公司。
张鹏透露,目前智谱 AI GLM大模型已经应用于政务、金融、能源、制造、医疗等领域,支持华为昇腾、神威超算、海光DCU等10余种国产硬件生态,合作伙伴包括阿里、腾讯云、火山引擎、华为、美团、微软、OPPO、海天瑞声等数十家公司。
# arxiv: 单个工具调用示例 1 run_tool(["arxiv"], llm, [ "帮我查询GLM-130B相关工作" ])系统指示 尽可能准确、有帮助地回应人类。 工具介绍 工具名称:arxiv 描述:用于在arxiv.org的科学文章中回答关于物理、数学、计算机科学、定量生物学、定量金融、统计学、电气工程和经济学的相关问题。输入应为搜索...
新增3个模型:Llama-4-Scout-17B-16E-Instruct、Llama-4-Maverick-17B-128E-Instruct-FP8、ERNIE-X1-32K-Preview,☛查看模型完整信息 [2025/4/5] v3.15版本 金融领域新增多个评测维度,详见link 删除陈旧的模型:abab7-chat-preview、gemini-2.0-flash-exp、gemma-2-9b-it、gemma-2-27b-it、qwen2.5-math-72...
2020年,智谱AI 开始GLM预训练架构的研发,并训练了100亿参数模型GLM-10B;2021年利用MoE架构成功训练出万亿稀疏模型;2022年公布1300亿级超大规模预训练通用模型GLM-130B,并以此打造大模型平台及产品矩阵。 2023年,智谱AI 推出千亿基座的对话模型ChatGLM,并开源单卡版模型ChatGLM-6B等,部署于个人开发者和企业应用领域。
今年6月,智谱AI迭代出ChatGLM2,包括6B、130B、12B(120亿参数)、32B、66B等参数的模型,推理速度增长42%。评测结果显示,相比GPT-4版的ChatGPT,ChatGLM2-12B、32B和66B性能分别提升16%、36%和280%。目前,智谱AI开源模型在全球下载量已超过1000万次。此次发布的ChatGLM3系列模型,在性能、推理、算力、Agent...
2020年,智谱AI 开始GLM预训练架构的研发,并训练了100亿参数模型GLM-10B;2021年利用MoE架构成功训练出万亿稀疏模型;2022年公布1300亿级超大规模预训练通用模型GLM-130B,并以此打造大模型平台及产品矩阵。 2023年,智谱AI 推出千亿基座的对话模型ChatGLM,并开源单卡版模型ChatGLM-6B等,部署于个人开发者和企业应用领域。
该论文介绍了一种名为GLM-130B的双语(英语和中文)预训练语言模型,并且该模型在多个英语基准测试中表现出了显著优于GPT-3 175B(davinci)的性能,同时在相关基准测试中显著优于ERNIE TITAN 3.0 260B(最大的中文语言模型)。该模型通过一种独特的GLM-130B的标度特性,在几乎不损失性能的情况下达到了INT4量化,这是...