美国当地时间3月18日下午,全球瞩目的NVIDIA GTC 2024正式开幕,黄仁勋化身"泰勒·斯威夫特"引爆全场,发布了较NVIDIA H100 GPU拥有5倍性能提升的NVIDIA B200 GPU以及30倍LLM推理加速的NVIDIA GB200超级芯片。全新架构,性能再升级 NVIDIA B200 GPU "Hopper很棒,但我们需要更大的GPU
北京时间2024年3月19日,全球科技界瞩目的年度盛事——NVIDIAGTC如期举行。在此次大会上,英伟达CEO黄仁勋身着标志性皮衣,宣布了一款全新架构的人工智能芯片——Blackwell B200。这款超级芯片在性能上比前一代H100 GPU强大五倍,预示着AI和高性能计算领域的新高峰,震撼了在场的观众及整个科技界。 Blackwell B200的核心特...
另外B200的优势就是其FP4算力。NVIDIA CEO 黄仁勋表示在过去的8年时间里,AI算力提升了1000倍,其中最为关键的改进是第二代Transformer引擎,通过FP4算力使计算、带宽和模型大小得到了显著提升。相较于AI常用的FP8算力,B200的2个计算芯片让其性能达到了H100的2.5倍,每个Blackwell架构下的芯片算力要比上代Hopper芯片高出了...
左:B200(Blackwell),右:H100(Grace Hopper)NVIDIA B200 GPU采用4纳米(4NP)工艺蚀刻而成,整合了两个独立制造的裸晶(Die),并由10TB/s带宽连接,共有2080亿个晶体管,提供高达20 petaflops的FP4八精度浮点运算能力。相比之下,NVIDIA H100 GPU的晶体管数量为800亿个,提供4 petaflops的FP4八精度浮点运算...
如今,NVLINK不仅能连接单个服务器内的8个GPU,更能扩展至整个机架,实现最多72个B200 GPU的互联互通。为此,英伟达特别将这款产品命名为GB200 NV72。值得一提的是,由于单个服务器难以容纳72个GPU,因此NVLINK技术的这一重大升级使其得以应用于机架式服务器,并采用了高效的液冷散热技术来应对高负荷运算带来的散热...
NVIDIA在2024年GPU技术大会(NVIDIA GPU Technology Conference,GTC)发布了全新的算力芯片和服务,即基于最新的Blackwell架构的算力芯片B200和GB200服务器。但是,大多数人对于NVIDIA芯片的升级只有数字的变化,本文将针对NVIDIA的GPU算力芯片做简单的介绍,并说明NVIDIA B200以及GB200的升级的地方。
根据各方信息和路线图,NVIDIA预计会在今年第二季度发布Blackwell架构的新一代GPU加速器“B100”,官方称可轻松搞定1730亿参数大语言模型,是现在H200的两倍甚至更多。 B100之后,还有更强大的升级版B200,一如现在H100、H200的关系。 戴尔首席运营官兼副董事长在最近的一次会议中确认了B200的存在,发布时间在明年。
架构名称发布时间制程工艺内存容量FP4算力主要优势Hopper H1002023年TSMC 4nm80GB HBM34 PetaFLOPS训练性能优化Blackwell B2002024年TSMC 4N192GB HBM310 PetaFLOPS训练推理平衡Blackwell Ultra B3002025年下半年TSMC N4P288GB HBM3E15 PetaFLOPS推理性能提升1.5倍Vera Rubin2026年下半年未公布未公布50 PetaFLOPS性能提升3.3...
而采用CPO方案后,单个port的功耗降低到9W, 对应的能效比为5.63pJ/bit, 光引擎部分的功耗则降低到54MW,降低了30%,如下图所示。功耗降低的百分比,与此前Broadcom CPO公布的数据接近。而单颗B200芯片的功耗为1KW,节省下来的数据互联功耗可给12.6万张B200芯片供电。