IT之家 12 月 24 日消息,科技媒体 SemiAnalysis 于 12 月 22 日发布博文,表示经过长达 5 个月的深入调研后,发现 AMD 的新款 MI300X AI 芯片虽硬件强大,但软件问题严重,难以撼动英伟达的市场主导地位。IT之家注:单从规格上来看,AMD 的 MI300X 芯片更有优势,拥有 1307 TFLOPS(FP16)的算力和 192...
最后啊,咱们也得给AMD一点鼓励和支持哦!毕竟他们在硬件领域可是有着不少亮眼的表现的。希望他们能够吸取这次MI300X的教训啊,在未来的发展中更加注重软件生态的构建和提升用户体验哦!这样一来啊,咱们这些消费者才能真正享受到科技进步带来的红利哦!结语:AMD MI300X,硬件虽强,软件需努力 好了啊,今天就跟大...
IT之家 6 月 27 日消息,科技博客 Chips and Cheese 于 6 月 25 日发布博文,详细测试了 AMD MI300X GPU,并在高速缓存、延迟、推理等方面对比后发现,性能远超英伟达的 H100。MI300X 简介 AMD Instinct MI300X 人工智能加速器基于 CDNA 3 架构打造,采用混合的 5nm 和 6nm 制程工艺,最多拥有 1530 ...
如今MI300X呈现出的纸面规格仅仅证明硬件用料扎实,以及间接反映出单卡Flops/Byte指标的突出,其中有关“多机多卡集群系统”的硬件/软件指标仍然未知,这对于通常的分布式AI/DL workloads以及IDC Pref/TCO都是不利的。因此,MI300X最明显的硬件短板可能就在于多机多卡的集群互连能力;当下无论如何与NV DGX标准节点和Super...
MI300X 得益于 PCIe Gen 5 x16 接口,远超竞争对手。虽然 NVIDIA 的 H100 也支持 PCIe Gen 5。 机器学习推断性能 机器学习最近备受关注。使用 vLLM 和 Mistral 的 73 亿参数模型,MI300X 的推理延迟比 NVIDIA 的 H100 PCIe 快了约 16%。与较旧的 GPU 如 A100 相比,MI300X 的优势更大。这些结果与 AMD...
12月24日消息,半导体研究机构Semianalysis在进行了5个月的调查后发现,AMD最新的AI芯片MI300X因为存在重大软件缺陷,导致性能不如预期,难以撼动英伟达(Nvidia)的市场主导地位。Semianalysis在研究报告中指出,虽然MI300X规格看来令人印象深刻,拥有192 GB HBM3內存,可以提供1,307 TeraFLOPS的FP16精度算力。而英伟达...
AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。苏姿丰介绍,MI300X可以支持400亿个参数的Hugging Face AI 模型运行,并演示了让这个LLM写一首关于旧金山的诗。这是全球首次在单个GPU上运行这么大的模型。单个MI300...
对于力求在业务中利用 AI 和 HPC 的客户,AMD Instinct 加速器可以应对这方面的诉求,提供卓越的性能,而不会造成服务器尺寸或能耗大幅度增加,让架构革新和产品创新得以实现。AMD 非常高兴地宣布,AMD Instinct MI300X 加速器正式发布 – 这款 GPU 产品能提供客户所需的算力,能够满足要求极其严苛的 AI 和 HPC 工作...
MI300 AMD Instinct MI300X Accelerator Overview 从2020年到2023年,AMD先后发布MI100、MI200和MI300,M100是专为加速高性能计算FP64和FP32负载设计的第一个专用GPU架构,MI200采用密集计算架构(Dense compute architecture)同时增加了内存容量和带宽,MI300主要提升了统一内存设计以及AI数据格式性能和节点内网络。 MI300...
据苏姿丰介绍,相比英伟达H100芯片,MI300X提供的HBM密度最高是H100的2.4倍,HBM带宽则是H100的1.6倍。这也就意味着,以后生成式AI模型不再需要数目庞大的GPU,可以为客户节省不少成本。值得一提的是,在发布会现场,苏姿丰演示了在单个MI300X GPU上运行拥有400亿个参数的Falcon-40B大型语言模型,让它实时写作了...