新闻 三星电子举办“2023年存储器技术日”活动 以多项创新技术拥抱超大规模AI时代 技术日人工智能Auto高带宽存储器存储器 技术博客 HBM-PIM:加速下一代人工智能的领先存储技术 内存内处理HBM-PIM存储器高带宽存储器ChatGPT技术人工智能 技术博客 携手三星存储器解决方案迈向未来 ...
HBM-PIM:加速下一代人工智能的领先存储技术 2023年03月31日 当下ChatGPT风靡全球,持续火爆。这种超大规模(Hyperscale)人工智能(AI)技术具有媲美人类的超强能力,可以回答问题、展开对话,甚至能够作曲和编程。 在ChatGPT令人惊叹的超能力背后,支撑它的是大量的存储器密集型数据计算。 ...
三星在2021年推出了集成AI处理器的HBM2内存,名为“HBM-PIM (processing-in-memory) ”,最高可提供1.2 TFLOPS嵌入式计算能力,使内存芯片本身可以执行CPU、GPU、ASIC或FPGA的操作。三星在每个内存模块内注入了一个AI处理器,从而将处理操作转移到HBM本身,从而减轻了内存与一般处理器之间转移数据的负担。据相关媒体...
据媒体报道,在今年的Hot Chips 2023上,三星电子公布了HBM-PIM和LPDDR-PIM的最新研究成果,三星表示,这两款存储器均为可用于人工智能行业的下一代存储器。 三星电子和AMD在此前就已经开始了有关PIM技术的合作,三星在AMD的商用GPU加速卡MI-100上配备了HBM-PIM内存,并将其应用于生成式人工智能,根据三星的研究结果显...
当然SK 海力士首席执行官兼总裁 Kwak No-jeong的发言更值得玩味,他说:“HBM、计算快速链接(CXL)和内存处理(PIM)的出现将为内存半导体公司带来新的机遇,这种滨化模糊了逻辑半导体和存储器之间的界限,内存正在从一种通用商品转变为一种特殊商品,起点将是 HBM4。” ...
理想情况下,PIM可以有效消除存储单元与计算单元之间的数据吞吐,从而提高了性能和能效。除了HBM-PIM,三星电子还展示了LPDDR-PIM,它将移动DRAM与PIM相结合,可在移动设备中直接进行数据的处理和计算。由于它是针对移动设备开发的产品,因此它的带宽(102.4GB/s)也较低。但功耗却节省了72%。
三星昨天宣布了一项新突破,首次在AI人工智能市场上推出了HBM-PIM技术。 据报道,新架构可以提供两倍于系统的性能,并减少71%的功耗。 以前,业界最强大,使用最广泛的内存技术是HBM和HBM2内存技术。 这次,HBM-PIM在HBM芯片上集成了AI处理器的功能。 这也是业界首个集成了人工智能(AI)处理功能的高带宽内存(HBM)芯片。
“会思考”的储存芯片,三星发布 HBM-PIM 技术 除了新一代5000万像素ISOCELL GN2图像传感器,三星还发布了一款“会思考”的储存芯片,叫三星HBM-PIM,这是业界第一个高带宽内存(HBM)集成人工智能(AI)处理能力的芯片。 这是一款集成了人工智能(AI)处理能力的HBM-PIM(高带宽存储器-PIM),采用全新PIM架构,在高性能...
牵涉到堆叠和矽中介层 由三星公司开发的HBM-PIM将DRAM优化的AI引擎放置在每个存储库中,从而可以进行并行处理并最大程度地减少数据移动,HBM是比较新的技术,牵涉到堆叠和矽中介层,每个HBM堆叠都有上千个连接,因此需要高密度的互连,这远远超过PCB的处理能力,HBM追求最高效能和最佳的电源效率,但成本更高,需要更多...
除了光互连创新之外,制造商还在探索将HBM 堆栈直接集成到处理器芯片上的可能性,这与内存中处理(PIM)的理念类似。图 2 展示了 SK 海力士对这种被称为 “HBM4” 技术的构想。这种紧密集成可能带来更快的互联速度,但如果缺乏行业标准,也可能面临专有技术锁定的风险(Mellor,2023年)。