NVIDIA Mellanox 网络产品线
涵盖网卡、DPU、交换机三大核心产品线,构建端到端高性能网络互联
ConnectX 网卡系列
ConnectX-7 / ConnectX-8业界领先的高速智能网卡,支持 200G/400G/800G 以太网与 InfiniBand,集成硬件加速引擎,实现 RoCE/RDMA 零拷贝传输,GPU Direct RDMA 让数据直达 GPU 显存,消除 CPU 瓶颈
BlueField DPU
BlueField-3 / BlueField-4新一代数据处理器(DPU),将网络、存储、安全任务从 CPU 卸载到专用硬件。内置 ARM 核心与硬件加速引擎,实现零信任安全、虚拟化加速、存储卸载,释放 CPU 算力给业务应用
Quantum / Spectrum 交换机
Quantum-2 / Spectrum-4Quantum 系列 InfiniBand 交换机提供 NDR 400G 无损互联,Spectrum 系列以太网交换机支持 400G/800G,均搭载 SHARP 网内计算引擎,在交换层完成归约运算,加速 AI 集体通信
为什么选择 NVIDIA Mellanox?
AI 时代的网络基础设施,用极致性能释放算力
超低延迟
<130nsInfiniBand 原生无损传输,延迟低于 130 纳秒,确保 AI 训练中梯度同步零等待
超高吞吐
800G单端口 800G 带宽,支持万卡 GPU 集群全互联,满足大模型训练的海量数据流动
GPU 直连
0 拷贝GPU Direct RDMA 技术让数据绕过 CPU 和系统内存,直接在 GPU 间传输,消除瓶颈
RDMA 支持
RoCE v2同时支持 InfiniBand 原生 RDMA 与以太网 RoCE v2,灵活适配不同网络环境
典型业务场景
AI 训练集群
大模型分布式训练,GPU 全互联无阻塞,梯度同步低延迟,线性扩展万卡规模
HPC 高性能计算
气象模拟、分子动力学、基因测序等高性能计算场景,InfiniBand 低延迟消息传递加速科学发现
数据中心互联
多数据中心高速互联,400G/800G 以太网骨干,支持存储复制、容灾备份、负载均衡
存储网络
NVMe-oF 高速存储网络,DPU 存储卸载,NVMe over Fabric 低延迟访问分布式存储
产品技术规格一览
| 产品系列 | 型号 | 端口速率 | 接口类型 | 关键特性 | 典型场景 |
|---|---|---|---|---|---|
| ConnectX 网卡 | ConnectX-7 | 200G / 400G | Ethernet / InfiniBand | RoCE v2 GPU Direct RDMA | AI 训练 / HPC |
| ConnectX-8 | 400G / 800G | Ethernet / InfiniBand | Ultra GPU Direct 加密加速 | 大规模 AI 集群 | |
| BlueField DPU | BlueField-3 | 200G / 400G | Ethernet / InfiniBand | ARM 核心 安全卸载 | 云 / 安全 / 存储 |
| BlueField-4 | 400G / 800G | Ethernet / InfiniBand | AI 加速 零信任 | AI 云基础设施 | |
| 交换机 | Quantum-2 (IB) | NDR 400G × 64 | InfiniBand | SHARP 自适应路由 | AI / HPC 集群 |
| Spectrum-4 (Eth) | 800G × 64 | Ethernet | RoCE SHARP 可视化 | 数据中心 / AI |