git clone https://github.com/xai-org/grok-1.git && cd grok-1 pip install huggingface_hub[hf_transfer] huggingface-cli download xai-org/grok-1 --repo-type model --include ckpt-0/* --local-dir checkpoints --local-dir-use-symlinks False ...
一经上线GitHub,Grok就狂揽了6k星,586个Fork。项目地址:https://github.com/xai-org/grok-1 马斯克还不忘嘲讽OpenAI一番,「告诉我们更多关于OpenAI的「open」部分...」纽约时报点评道,开源Gork背后的原始代码,是这个世界上最富有的人控制AI未来战斗的升级。开源究竟会让技术更安全,还是会让它更滥用?「开源...
3月 17 日,马斯克创办的 xAI 公开发布了 Grok-1 模型的代码和模型权重 [GitHub],均采用 Apache 2 开源许可证。权重文件体积为 318.24GB,采用磁力链接的形式提供下载。 根据随附的博客文章,Grok-1 是在 2023 年 10 月使用 JAX 和 Rust 编写的自制训练工具从头开始训练的,参数量为 314B,为混合专家(Mixture-...
最新最有趣的科技前沿内容 GitHub-xai org/grok-1:grok开放发布 内容导读: GitHub存储库"xai-org/grok-1"通过提供Grok-1模型的开放权重,为人工智能领域做出了重要贡献。该模型以其庞大的规模而闻名,拥有3140亿个参数,这突显了需要足够的GPU内存来有效运行它。该存储库通过包含示例代码和简单的设置过程简化了测试模...
3140亿参数8个MoE,GitHub狂揽6k星 说到做到,马斯克xAI的Grok,果然如期开源了! 就在刚刚,xAI正式发布3140亿参数混合专家模型Grok-1的权重和架构。 3140亿的参数,让Grok-1成为迄今参数量最大的开源LLM,是Llama 2的4倍。 目前,xAI关于Grok-1没有透露更多信息。 官网放出的信息如下—— - 基础模型在大量文本数据...
📌 Checklist before creating the PR I have created an issue for this PR for traceability The title follows the standard format: [doc/gemini/tensor/...]: A concise description I have added releva...
开源地址:https://github.com/xai-org/grok-1 博客:https://x.ai/blog/grok-os 概述 这个issue...
GitHub地址:https://github.com/xai-org/grok-1 不过,xAI 强调,由于模型规模较大(314B参数),需要有足够GPU内存的机器才能使用示例代码测试模型。Grok-1开源消息公布之后,很多人开始在X平台上进行讨论。知名机器学习与 AI 研究者 Sebastian Raschka 评价:“与其他通常带有使用限制的开放权重模型相比,Grok-1 ...
项目地址:github.com/xai-org/grok就在发文的时候,我看了下星标(收藏)人数就超过了14k人,关注速度超级快。 英伟达高级科学家 Jim Fan 则对这个模型展现出了浓厚的兴趣。 不过 在Grok发布后,ChatGPT的推特账号就对马斯克的开源帖子进行了回复,暗讽Grok抄袭自己。真是热闹有意思。 说归说,闹归闹,开源了,广大网友...
具有更好的性能和可靠性。苹果之前在多模态 LLM 方面的工作成果包括 Ferret,这个模型在去年 10 月被悄悄开源,但直到 12 月才引起公众的注意。Grok-1 的权重和架构已放在 GitHub 上,还附有开始上手模型的操作说明,详见:https://github.com/xai-org/grok?ref=maginative.com。