h800和h100的算力确实有一定的差距。具体来说,h100作为更新一代的GPU,通常在算力上会有显著提升,相比h800能提供更强大的计算能力。不过,具体的算力差距还需要根据实际应用场景和测试数据来确定。如果您对这两款GPU的算力有详细要求,建议查阅相关的性能测试报告或联系专业人士进行咨询。
以目前它展示出的潜质,这个结论没有一丝夸大!首先,DeepSeek是用2048张H800,跑出了足以匹敌O1的推理能力,这个结果代表了,算力在当下已经不是决定性因素,美国之前通过十万集群,打造出的铜墙铁壁,已经失效!其次,DeepSeek训练使用的H800只是阉割版,其性能和H100虽然差距巨大,但这个制程和性能,国内是有替代品的,这几日...
英伟达显卡#英伟达 #显卡 #h100显卡和h800显卡差距 - 超有钱于20240605发布在抖音,已经收获了5.7万个喜欢,来抖音,记录美好生活!
显卡#英伟达 #显卡 #h100显卡和h800显卡差距 #芯片 - 超有钱于20240613发布在抖音,已经收获了5.7万个喜欢,来抖音,记录美好生活!
DeepSeek发布DeepSeek-V3模型以后,Meta发现,这个大模型比自己开发的要好,最糟糕的是成本还比自己低,低多少?自己的开发成本是DeepSeek的15倍,而让自己无颜的是DeepSeek使用的是H800,被英伟达大幅度阉割的产品,而自己使用的是正牌的H100。这种差距让小扎,无地自容!Meta的投资者感到愤怒,给你们那么好的资源和薪水,...
H100与H800的区别#科技 #ai技术 #服务器 #GPU #硬件 - 服务器掌门人于20230730发布在抖音,已经收获了756个喜欢,来抖音,记录美好生活!
实际情况是,DeepSeek拥有10,000个H800、约10,000个H100,以及剩下约30,000个H20,其中H20是Nvidia在出口管制法案后为中国市场定制的产品。其服务器CapEx总额接近13亿美元,这些GPU由High-Flyer和DeepSeek共享,用于交易、推理、训练和研究。该分析中提出了一个有趣的观点,将AI模型产业与芯片产业进行类比。在芯片产业中...
最扯的是,Grok3的训练,使用了20万张英伟达H100芯片,总训练时长更是达到恐怖的7.3亿GPU小时! 而GPT4只用了2.5万张H100,DeepSeek就更少了,比如V3,仅使用2000张H800,训练了2个月时间。 这20万张H100芯片,单次训练耗电450万度,差不多等于5000个家庭一整年的用电量,碳排放量高达2800吨,但性能只提升了...