1.InfiniBand 网卡:NVIDIA® ConnectX® InfiniBand 主机网卡 (HCA) 凭借超低延迟与超高吞吐量的特性...
InfiniBand 和以太网卡单端口 OSFP NDR 400Gb/s 和 400GbE NDR200 200Gb/s 和 200GbE Socket Direct 就绪卡 Socket Direct 技术允许双插槽服务器中的每个 CPU 通过其专用 PCIe 接口直接访问网络,从而提高双插槽服务器的性能。 NVIDIA...
NDR InfiniBand交换机在1U空间内可以支持64个400Gb/s的端口或128个200Gb/s的端口,是上一代交换机...
超擎数智提供灵活的400Gb/s InfiniBand光连接方案,包括使用单模和多模收发器、MPO光纤跳线、有源铜缆(ACC)和无源铜缆(DAC),用以满足搭建各种网络拓扑的需要。>配有带鳍设计的 OSFP 连接器的双端口收发器适用于风冷固定配置交换机,而配有扁平式OSFP 连接器的双端口收发器则适用于液冷模块化交换机和 HCA 中。
400Gb/s lnfiniBand采用先进的每通道100Gb/s的SerDes,通过交换机和HCA端口上的OSFP连接器实现物理连接。每个交换机OSFP连接器支持两个400Gb/s InfiniBand端口或200Gb/s InfiniBand端口。网卡HCA的OSFP连接器支持一个400Gb/s InfiniBand端口。400Gb/s线缆产品包括有源及无源铜缆、收发器以及MPO光缆。需要注意的是,...
800G DR8 —— 2x400G DR4连接示意图 2、NDR Copper(DAC/ACC) 800Gb/s 双端口 OSFP至 2x400Gb/s OSFP/QSFP112 分支铜缆适用于 400Gb/s NVIDIA 端到端 Infiniband和以太网解决方案。主要用途是将 800Gb/s Quantum-2 交换机或 Spectrum-4 交换机连接到基于 OSFP/QSFP112 的 400Gb/s ConnectX-7 PCIe...
Mellanox Quantum-2 MQM9790 64-port Non-blocking Unmanaged NDR 400Gb/s InfiniBand Switch - Part ID: MQM9790-NS2R,NVIDIA Quantum-2 NDR InfiniBand Switch, 64 NDR 400Gb/s ports, 32 OSFP ports, 2 Power Supplies (AC), Standard depth, Unmanaged, C2P airflow, Ra
800G DR8 —— 2x400G DR4连接示意图 2、NDR Copper(DAC/ACC) 800Gb/s 双端口 OSFP至 2x400Gb/s OSFP/QSFP112 分支铜缆适用于 400Gb/s NVIDIA 端到端 Infiniband和以太网解决方案。主要用途是将 800Gb/s Quantum-2 交换机或 Spectrum-4 交换机连接到基于 OSFP/QSFP112 的 400Gb/s ConnectX-7 PCIe...
Quantum-2 InfiniBand 交换机 超擎数智提供的QM9700和QM9790交换机,采用1U标准机箱设计,具有以下特点: 32个800G物理接口,支持64个NDR 400Gb/s InfiniBand端口 第三代NVIDIA SHARP技术,高级拥塞控制,自适应路由和自我修复网络技术 与上一代HDR产品相比,实现两倍端口速度,三倍端口密度,五倍系统容量,32倍AI加速能力 ...