其显著特点是通过CXL提高了基于RDMA系统的性能,并利用RDMA克服了CXL的距离限制。为解决RDMA和CXL在粒度、通信和性能方面的不匹配,Rcmp:(1)提供基于全局页面的内存空间管理,实现细粒度数据访问;(2)设计了一种有效的通信机制,避免了通信阻塞问题;(3)提出了一种热页识别和交换策略,减少了RDMA通信;(4)设计了一个RDMA...
超出CXL的实际限制,以太网可以满足对高容量分离内存的需求。从数据中心的角度来看,以太网的覆盖范围是无限的,超大规模的超大规模企业已经将RDMA-over-Ethernet(RoCE)网络扩展到数千个服务器节点。然而,运营商已经部署了这些大型RoCE网络,用于使用SSD进行存储分离,而不是DRAM。 图3展示了内存RDMA交换的一个示例实现,即...
在这个子集群上,DirectCXL内存上DLRM应用程序的张量初始化阶段比在FDR InfiniBand互连上使用RDMA快2.71倍,在推理阶段,推荐者实际上根据用户配置文件提出建议的速度提高了2.83倍,推荐者从头到尾的整体性能提高了3.32倍。 下图显示了 InfiniBand 上的本地 DRAM、DirectCXL 和 RDMA 如何堆叠,以及 CXL 与 RDMA 在各种工作...
通过利用 RDMA,我们能够将远程数据访问的延迟从 100 多毫秒显著降低到微秒量级,同时提供类似本机内存的读/写接口,极大地减少了远程操作的成本。作为最前沿的互联协议,CXL 旨在提供高速且具备缓存一致性的跨物理节点数据传输。例如,DirectCXL[1] 将主机处理器与远程内存资源连接,支持加载/存储指令,其远程 CXL内存访问...
通过优化的协议栈,CXL在维持高带宽的同时还能提供低延迟的通信。这使得其在需要快速数据交换的应用中非常适合,如AI加速、数据分析等。相比于传统的基于RDMA的分解内存架构,CXL可以实现纳秒级的低延迟,相比于NVDIMM的非易失性内存,其时延也低几个数量级。“与其他互联协议不一样,CXL的关键差异点就在于其硬件支持...
鉴于KAIST的HPC根源,将DirectCXL原型放在一起的研究人员专注于使用远程直接内存访问(RDMA)协议将CXL内存池与跨系统直接内存访问进行比较。他们使用了一个非常老式的Mellanox SwitchX FDR InfiniBand和ConnectX-3互连,以56 Gb / sec的速度运行,作为CXL努力的基准,InfiniBand的延迟确实降低了。但在过去的几代人中,它们肯...
本文提出了一种基于RDMA和CXL的新型低延迟、高可扩展性的内存解耦合系统Rcmp。其显著特点是通过CXL提高了基于RDMA系统的性能,并利用RDMA克服了CXL的距离限制。为解决RDMA和CXL在粒度、通信和性能方面的不匹配,Rcmp:(1)提供基于全局页面的内存空间管理,实现细粒度数据访问;(2)设计了一种有效的通信机制,避免了通信阻塞...
针对这一问题,国数集联将未来互联技术CXL的发展特点与RDMA技术相结合,创新性地推出了RDMA over CXL协议。该协议在仅依赖CXL交换机的情况下,无需额外的网卡设备支持,就实现了点对点传输性能,同时延迟仅为1.97微秒。国数集联这一突破性创新将为RDMA技术应用于更广泛的领域提供新的解决方案。
通过优化的协议栈,CXL在维持高带宽的同时还能提供低延迟的通信。这使得其在需要快速数据交换的应用中非常适合,如AI加速、数据分析等。相比于传统的基于RDMA的分解内存架构,CXL可以实现纳秒级的低延迟,相比于NVDIMM的非易失性内存,其时延也低几个数量级。
其次,如果主机存储器耗尽,则可以使用远程存储器直接访问(RDMA)来利用来自网络连接存储器节点的存储器。 然而,这些处理方法存在缺陷。配置额外的存储器节点会增加更多的中央处理器和系统,从而增加成本。另一方面,远程直接内存访问会因数据传输的软件开销而会性能降低。CMM-D通过减少开销并...