5月29日,NVIDIA(英伟达)发布了一款专为生成式AI、大语言模型、AI应用、推荐系统和数据处理等研发打造的超级计算机——DGX GH200。DGX GH200的核心是NVIDIA® GH200 Grace Hopper超级芯片和NVIDIA NVlink技术。它提供了惊人的144 TB共享内存,这比2020年推出的上一代NVIDIA DGX A100多了近500倍,使得研发人员能够更...
在 GH200 系统的 PCIe 连接性方面,如果使用两个启动驱动器,将占用 64 个通道中的 8 个。对于横向...
英伟达推出的DGX GH200服务器,可拔插256个CPU/GPU,对短距离通信的LPO需求是非常强烈的。如果插满256个GPU卡,采用LPO相比现在的EML方案节省的功耗将是万瓦级别,节省的成本都是百万级人民币。这也是为什么新易盛送样多次失败但仍然被要求坚持送样的原因,英伟达的这种超级服务器是LPO应用的最好场景!$新易盛(SZ300502)$...
英伟达创始人兼CEO黄仁勋在NVIDIA Computex 2023演讲中宣布,生成式AI引擎“NVIDIA DGX GH200”现已投入量产,将于今年年底上市。 据悉,配置144TB共享内存,DGX GH200是将256个GH200超级芯片组合在一起,使它们可以作为单个GPU执行。GH200是将基于Arm架构的NVIDIA Grace CPU与NVIDIA H100 Tensor Core GPU封装在一起,以...
1和NVSwitch Layer 2的交叉互连;此前LinkX AOC标准光缆主要用于Infiniband直联/级联,如今被GH200应用...
【英伟达宣布生成式AI引擎DGX GH200已投入量产 可支持万亿参数AI大模型训练】财联社5月29日电,英伟达创始人兼CEO黄仁勋在NVIDIA Computex 2023演讲中宣布,生成式AI引擎NVIDIA DGX GH200现已投入量产。英伟达官网显示,NVIDIA DGX GH200是将256个NVIDIA Grace Hopper超级芯片完全连接到单个GPU中的新型AI超级计算机,支持...
在日前于台湾举行的COMPUTEX大会开幕演讲中,全球领先的GPU制造商英伟达(NVIDIA)发布了一款全新的AI超级计算机——DGX GH200,该计算机采用了NVIDIA GH200 Grace Hopper Superchips和NVIDIA NVLink® Switch System技术,旨在为生成式AI语言应用、推荐系统和数据分析等巨型下一代模型的开发提供支持。DGX GH200 AI ...
GH200超级芯片还针对Transformer计算进行了优化,Transformer算子是BERT到GPT-4等大模型的基础,且越来越多地应用于计算机视觉、蛋白质结构预测等不同领域。GH200中新的Transformer引擎与Hopper FP8张量核心相结合,在大型NLP模型上提供比高达9倍的AI训练速度和30倍的AI推理速度(与A100服务器相比)。新的Transformer引擎...
英伟达在5月29日开幕的COMPUTEX台北电脑展正式发布了DGX GH200 AI超级计算机,以及其搭载的GH200 Grace Hopper超级芯片。这种超级计算机专门用于AI计算,利用NVLink技术集成了256颗GH200超级芯片,使其如同一个GPU一样完美工作。 性能方面,DGX GH200超级计算机的运算速度可达1 Exaflop(百亿亿次),具有144 TB内存,远超此...
由于DGX GH200极其强大的算力,因此这款AI超算备受厂商尤其是AI厂商的青睐,目前包括谷歌、微软、Meta都已经与英伟达合作,将DGX GH200投入到具体应用中去。考虑到目前AI越来越吃香,也成为了行业巨头纷纷追逐的领域,英伟达也推出了MGX架构主机,这是介于DGX与HGX之间的架构,专门为AI运算打造,英伟达也为厂商们提供了...