NVMe/TCP:使用具有 TCP/IP 传输的以太网网络,但不使用 RDMA。一般认为 NVMe/TCP 是最经济的解决方案之一,因为以太网网络架构比FC基础设施成本低,且实现难度更低。由于 NVMe/TCP 原生可路由,因此服务器与其存储器之间能够通过现有以太网数据中心网络进行通信,而无需专用FC交换机和 HBA。但 NVMe/TCP 存在一些缺点:...
3. iWARP(互联网广域 RDMA 协议):按 IETF 标准拥塞感知协议(如 TCP 和 SCTP)分层。具有卸载 TCP/IP 流量控制和管理功能。即使 iWARP 和 RoCE 都使用相同的 RDMA 软件谓词和同类以太网 RDMA-NIC (rNIC),由于第 3 层/第 4 层网络之间存在的差异,两者之间仍无法以 RDMA 来通信。现如今,RoCEv2 是供应...
3. iWARP(互联网广域 RDMA 协议):按 IETF 标准拥塞感知协议(如 TCP 和 SCTP)分层。具有卸载 TCP/IP 流量控制和管理功能。 即使iWARP 和 RoCE 都使用相同的 RDMA 软件谓词和同类以太网 RDMA-NIC (rNIC),由于第 3 层/第 4 层网络之间存在的差异,两者之间仍无法以 RDMA 来通信。现如今,RoCEv2 是供应商最...
NVMe/TCP PDU 可用于传输 NVMe 的“控制平面”封装体(命令和响应)和“数据平面”数据。对于 NVMe/FC,这种数据传输“仅含消息”。 远程直接内存访问(InfiniBand 或以太网网络上支持的 NVMe/RDMA):RDMA 是主机卸载、主机旁路技术,支持包括存储器在内的应用程序与另一个应用程序的存储空间之间直接执行双向往来数据传输...
应用和扩展性:RDMA还是TCP看场景 上图所指的“Scale Out后端”,就是RoCE或IB网络连接的JBOF(EBOF),右边机框里面的CPU应该只是管理用途而不在数据路径上。 左边可以是服务器(软件定义存储)或者阵列控制器,这个架构类似我在前面提到过的PureStorage。其实25GbE的带宽并不比12Gb SAS(Multilane x4)更快,只是以太网有...
NVMe/TCP PDU 可用于传输 NVMe 的“控制平面”封装体(命令和响应)和“数据平面”数据。对于 NVMe/FC,这种数据传输“仅含消息”。远程直接内存访问(InfiniBand 或以太网网络上支持的 NVMe/RDMA):RDMA 是主机卸载、主机旁路技术,支持包括存储器在内的应用程序与另一个应用程序的存储空间之间直接执行双向往来数据传输...
该规范采用远程直接内存访问(RDMA),使数据和内存能够在计算机和存储设备之间跨网络传输。RDMA是一种在网络中两台计算机的主存储器之间交换信息的方式,不涉及任何一台计算机的处理器、缓存或操作系统。由于RDMA避开了操作系统,因此它通常是网络传输数据的最快、开销最低的机制。RDMA上的NVMe-oF使用TCP传输协议在IP网络...
NVMe/RoCEv2:使用共享以太网网络和基于 UDP 的 RDMA。 传输要求:有损传输 vs 无损传输 在以太网架构中存在有损传输与无损传输两种,RDMA 是两个设备之间的内存到内存传输机制,因此理论上它不能容许任何丢包。但由于 iWARP 基于 TCP 协议(以及 NVMe/TCP),它可以容许在传输...
在这里承认 TCP 和 RoCEv2 堆栈的复杂性并不一定会增加微不足道的延迟;许多堆栈复杂性由启用 RDMA 的专用 NIC 或 TCP offload 在“硬件"中处理(尽管通常涉及基于 ASIC 的处理器内核)引擎。但复杂的堆栈在实际部署中会转化为配置管理、互操作性、故障排除与分析等多方面的挑战。IP/以太网复杂性的遗留问题代表...