GPT-4可能在大约10000-25000张A100上进行了训练 Meta大约21000 A100 Tesla大约7000 A100 Stability AI大约5000 A100 Falcon-40B在384个A100上进行了训练Inflection使用了3500和H100,来训练与GPT-3.5能力相当的模...
1、马斯克前脚呼吁暂停GPT5的研发,后脚就被爆出推特买了10000张A100的GPU,准备大干人工智能。2、某知名私募前脚在微博唱空AI,后脚就说自己买了美股AI,再后来又爆出手下all in AI。股市是一个名利场,人前一套,人后一套,说一套,做一套,两面三刀,真真假假,谁也说不清,轻信别人,注定亏麻。
$中科曙光(SH603019)$GPU缺货依旧 GPT-4可能在大约10000-25000张A100上进行了训练 - Meta大约21000 A100 - Tesla大约7000 A100 - Stability AI大约5000 A100 - Falcon-40B在384个A100上进行了训练 –Inflection使用了3500和H100,来训练与GPT-3.5能力相当的模型 另外,根据马斯克的说法,GPT-5可能需要30000-50000个H1...
$罗博特科(SZ300757)$据说DS有10000张A100? 还是统统回归硬件吧。。。 全部讨论 今天18:15 还是卡。应该还是吃资源,我们自己部署,也挺吃算力。
回复@姜汉哲: 【据State of AI 2023】Tesla现在有16000张A100和10000张H100以及大约10000张V100(老款)没有计入。加上Tesla自己的Dojo,目前应该大约10 Exaflops(Exaflops:一百亿亿次浮点运算/秒)的训练算力。【评论】作为参考: 小鹏 600 Pflops, 理想 1200 Pflops,