比如,700亿参数的Llama2大模型推理速度比H100快一倍,而且能耗还降低了一半呢!对于那些显存密集型的HPC应用来说,H200的显存带宽能确保高效地访问操作数据,与CPU相比,获得结果的时间最多可提升110倍哦!这个H200芯片预计将于2024年第二季度出货,售价暂时还没公布。但是,多家超算中心已经准备部署GH200超算节点,可以访问...