今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。这也使得Grok-1成为当前参数量最大的开源大语言模型。封面图根据 Grok 提示使用 Midjourney 生成的:神经网络的 3D 插图,具有透明节点和发光连接,以不同粗细和颜色的连接线展示不同的...
项目地址:github.com/xai-org/grok 马斯克还不忘嘲讽OpenAI一番,「告诉我们更多关于OpenAI的「open」部分...」 纽约时报点评道,开源Gork背后的原始代码,是这个世界上最富有的人控制AI未来战斗的升级。 开源究竟会让技术更安全,还是会让它更滥用? 「开源支持者」马斯克,以身作则地卷入了AI界的这场激烈辩论,并用...
项目地址:https://github.com/xai-org/grok-1 马斯克还不忘嘲讽OpenAI一番,「告诉我们更多关于OpenAI的「open」部分...」纽约时报点评道,开源Gork背后的原始代码,是这个世界上最富有的人控制AI未来战斗的升级。开源究竟会让技术更安全,还是会让它更滥用?「开源支持者」马斯克,以身作则地卷入了AI界的这场...
今天凌晨,马斯克旗下大模型公司xAI宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言模型。 封面图根据 Grok 提示使用Midjourney生成的:神经网络的 3D 插图,具有透明节点和发光连接,以不同粗细和颜色的连接线展示不同的权重。 ...
xAI 遵守 Apache 2.0 许可证来开源 Grok-1 的权重和架构。Apache 2.0 许可证允许用户自由地使用、修改和分发软件,无论是个人还是商业用途。项目发布短短四个小时,已经揽获 3.4k 星标,热度还在持续增加。 项目地址 https://github.com/xai-org/grok-1 ...
1.xAI正式发布3140亿参数混合专家模型Grok-1的权重和架构,成为迄今参数量最大的开源LLM。 2.Grok-1的基础模型在大量文本数据上训练,未针对任何特定任务进行微调,拥有8个MoE,权重架构全开放。 3.项目一经上线GitHub,便狂揽6k星,586个Fork,地址为https://github.com/xai-org/grok-1。 4.由于模型较大,需要具有...
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言模型。 封面图根据 Grok 提示使用 Midjourney 生成的:神经网络的 3D 插图,具有透明节...
项目地址:https://github.com/xai-org/grok-1 马斯克还不忘嘲讽OpenAI一番,「告诉我们更多关于OpenAI的「open」部分...」 纽约时报点评道,开源Gork背后的原始代码,是这个世界上最富有的人控制AI未来战斗的升级。 开源究竟会让技术更安全,还是会让它更滥用?
GitHub地址:https://github.com/xai-org/grok-1 不过,xAI 强调,由于模型规模较大(314B参数),需要有足够GPU内存的机器才能使用示例代码测试模型。Grok-1开源消息公布之后,很多人开始在X平台上进行讨论。知名机器学习与 AI 研究者 Sebastian Raschka 评价:“与其他通常带有使用限制的开放权重模型相比,Grok-1 ...
今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言模型。 封面图根据 Grok 提示使用 Midjourney 生成的:神经网络的 3D 插图,具有透明节点和发光连接,以不同粗细和颜色的连接线展示不同的权...