上下文长度:GLM 4默认支持128k的上下文长度,同时还有一个1m版本,跻身高水准。 多语言支持:GLM 4增加了对日语、韩语、德语等26种语言的支持。 许可证:GLM 4的许可证由智源AI自行声明,商用需进行登记,灵活性上不如Llama 3的Apache 2。目前,几个版本的模型都已经发布到HuggingFace上,可以通过transformers直接加载,或者...
清华智源研究院出了个ChatGLM,开源版本号称消费级显卡可单机使用,我查了下最小显存13G,心想,这是高消费啊…… 先搞一块12G显存的试试吧! 发布于 2023-03-25 10:24・IP 属地山东 赞同 48 分享 收藏 写下你的评论... 13 条评论...
智源目前担任蚌埠越晴珞光伏科技有限公司、黄山越晴瑶光伏科技有限公司等47家企业法定代表人,同时在47家企业担任高管,包括担任蚌埠越晴珞光伏科技有限公司执行董事兼总经理,黄山越晴瑶光伏科技有限公司执行董事兼总经理;二、智源的商业合作伙伴:基于公开数据展示,智源目前有9个商业合作伙伴,包括宋宇豪、廖晓民、黄海等。
在6月14日,北京智源大会大语言模型论坛中, Llama3、百川大模型、ChatGLM、MiniCPM等国内外知名模型的作者们共同回答了关于大语言模型的一些关键问题,并给出了最新的论断: 北京大学助理教授贺笛:高效Transformer在解决复杂推理问题时表现不如标准Transformer。 ChatGLM作者东昱晓:大模型能力的涌现与预训练损失(loss)的降低...
魔搭社区每周速递 10.20-10.26 | 🙋魔搭ModelScope本期社区进展:📟4848个模型:Emu3系列、GLM-4-Voice、stable-diffusion-3.5-large、Janus-1.3B等;📁45个数据集:CCI3-HQ-Annotation-Benchmark、SWE-bench、simpletuner_venv等;🎨46个创新应用:SD3.5-turbo快速生图、阿里Tora-轨迹导向的视频生成、open-note...
在6月14日,北京智源大会大语言模型论坛中, Llama3、百川大模型、ChatGLM、MiniCPM等国内外知名模型的作者们共同回答了关于大语言模型的一些关键问题,并给出了最新的论断: 北京大学助理教授贺笛:高效Transformer在解决复杂推理问题时表现不如标准Transformer。