10000p如果是fp16精度的话,那等于tf32精度的5000p,英伟达h100单卡算力约为1p,一台服务器8卡,算一下需要服务器625台,单台价格就算250万,需要资金156250万元,公司不知道能搞定多少钱 $ST瑞德(SH600666)$$上证指数(SH000001)$$科创50(SH000688)$
计算网络只需要使用到Spine-Leaf两层交换机(Mellanox QM9700),网络拓扑如下图所示。 交换机用量:集群中每32台DGX H100构成一个SU(每个SU中有8台Leaf交换机),128台H100服务器集群中有4个SU,以此总共32台Leaf交换机。SU中每个DGX H100都需要与全部8台Leaf交换机有连接,由于每个服务器只有4个用于计算网络连接的800...
一、计算网络 512台H100台服务器,分成4个SuperPod,每个SuperPod包含4个SU,每个SU包含32台H100服务器。也就是每个SuperPod有128台服务器。 每4台Leaf交换机+4台Spine交换机构成一个汇聚组(Rail Group),每个SuperPod对应8个Rail Group,即32台Leaf交换机+32台Spine交换机,对应Core核心层需要16台Core交换机。即每个Su...
去年年末,美国突然放宽对英伟达的出口禁令,允许老黄将阉割版的H100卖给中国。而到了今年年初,在中国市场份额达7%的英伟达AI芯片销量惨遭滑铁卢,腾讯、阿里等多家云计算科技公司对老黄的阉割卡并不感冒,反而选择了生态更好,性价比更高的昇腾910B。 要知道华为提供的不仅仅是昇腾AI芯片,还有服务器硬件和软件,以及开发...
根据NVIDIA参考设计文件:DGX H100服务器集群中,每32台DGX H100组成一个SU,每4台DGX H100被放置在一个单独的机架上(推算每个机架功率接近40KW),各类交换机则被放置在两个独立机架上。因此,每个SU包含10个机架(8个用于放置服务器、2个用于放置交换机)。计算网络只需要使用到Spine-Leaf两层交换机(Mellanox QM9700)...
之前文章《256台H100如何组建集群?》提到,采用IB网络组集群,256台服务器已经是Spine-Leaf两层架构的极限了,超过256台就必须上三层架构,即:Core-Spine-Leaf三层架构。因此,今天介绍的512台H100的组网,我们是按三层IB网络考虑。 考虑到大模型训练对数据传输要求特别高,其中计算网络按全局无阻塞设计(no-blocking),采用...