微芯片与周围代表存储器的立方体的图形

NVMe 的许诺:从现有 CPU 榨取更多性能

提高 SATA 接口性能的能力会减缓多数数据中心采用 NVMe 技术的进展。当您使用 SATA 等速度较慢的技术时,提高容量、提升性能、提高 IOPS 或降低延迟会更加容易。纵观当今的数据中心,多数数据中心架构师专注于提高 CPU 利用率。即便满机配置安装昂贵的 CPU(不计内核数量或支付的许可成本),数据中心也很少能将 CPU 利用率提高接近 CPU 最大容量 30% 的水平。

就像您购买了满屋子的法拉利,但只能以 20 英里/小时的速度行驶。这不是福特与法拉利的对决,而是无铅与高辛烷的对比。

NVMe 正在推动传输速度和内存预留的新变化,让您可以将利用率从 30% 提高到近 60%,增加近一倍。利用现有的基础设施,NVMe 可以让 CPU 更高效地运行,同时降低延迟并提高吞吐能力。不过,您必须能够采用 NVMe。限制因素可能包含您的现有背板,或无法按现有外形尺寸插入和更换。这变成了更大规模的整改。

金士顿 DC1500M 和 DC1000B 服务器固态硬盘

要迁出基于 SAS 的系统,除非使用适配器将 NVMe 固态硬盘安装到 PCIe 总线上,否则服务器的架构必须改变。对于客户而言,这将是全面的平台调整。与使用 SATA 和 SAS 基于硬件的主机控制器不同,PCIe 接口基于软件,可为专用处理器提供更高效率。NVMe 在低延迟和 CPU 多线程能力方面表现惊人。

现在,您要问的下个问题可能是“现在什么更重要?升级整台车,还是对发动机涡轮增压?”

对于多数数据中心而言,改变将是渐进的过程 – 从 DC1500M DC1000B 等微不足道的升级开始。

一道光穿过速度计的插图

NVMe Over Fabrics

NVMe-oF 实现对专用网络 (FC/RDMA/TCP) 中的 NVMe 设备进行集中、共享访问,从而支持访问通过网络连接的硬盘,就像硬盘在客户服务器本地一样。NVMe 集中存储管理的优势包括简化管理、提高容量利用率,以及更轻松地消除单点故障。NVMe-oF 规范需要光纤通道、RDMA 或 TCP fabrics。自 20 世纪 90 年代中期以来,光纤通道协议 (FCP) 一直是领先的企业存储传输技术,用于通过光纤通道网络传输 SCSI 数据包,因此,让 NVMe 定义全新的“FC-NVMe”协议并实现通过光纤通道传输 SCSI 和 NVMe 流量将变成关键,这可以让现有 SAN 环境中的 FCP 用户升级为 FC-NVMe。RDMA(远程直接内存访问)也是在 Infiniband、RoCE(基于聚合以太网的 RDMA)和 iWARP fabrics 上存在数年的另一个主流协议,因此,以 RDMA 为基础进行构建是让 NVMe 利用这些现有传输技术的方法。自 20 世纪 70 年代末期以来,TCP/IP 一直是最主流的网络传输协议,具备可靠的设计原则。让 NVMe 开发通过现有 TCP 网络传输 NVMe 命令的方法是自然而言的事情,这可以降低部署成本并缩短设置时间。

由于伴随 SCSI 设备存在的瓶颈将此堆栈向上移动至网络控制器和接口,NVMe-oF 还会给 IT 基础设施带来更多挑战,但许多公司在交换机和 NIC 领域实现了创新,从而能支持高度可调优 QoS和更高的网络速度。所有闪存制造商都在提供端到端 NVMe-oF 实施方面取得了创新,以提供一系列优化工具来改善 QoS 并消除噪音。

#KingstonIsWithYou

相关产品