Ethernet SSD测试白皮书摘要
引言
随着数字时代的到来,数据已成为获取信息的重要资源。在大数据与AI训练的推动下,数据处理技术从管理转向操作,驱动着每日的技术更新。随着5G与“新基建”的推广,数据量呈爆炸式增长,传统的存储与计算架构面临资源利用不均、存储成本高、资源共享难度大等问题。提高存储与计算资源利用率、灵活调整存储与计算比例以及按需调度计算资源成为首要需求,“存算分离”概念再度引起关注。
存算分离概述
存算分离并非新概念,早在二十年前即有Network Attached Storage(NAS)的应用,本质上是一种使用TCP/IP协议的以太网文件服务器。当时,如需大量存储空间,服务器会将数据保存至NAS。针对面向存储的专用网络,基于SCSI存储协议衍生出iSCSI等协议,显著提高了CPU使用率与性能。然而,iSCSI协议依赖传统IP网络,受限于TCP协议的性能和开销。iSER作为iSCSI的优化版本,基于RDMA传输层协议,继承了RDMA的高效性,拥有更好的性能、更高的CPU利用率和更低的延迟。但其本质仍基于SCSI存储协议,受限于队列数量和深度等SCSI协议的缺点。这些不足在硬盘时代尚不显著,但在闪存技术与SSD普及后,SCSI协议本身的缺陷日益凸显。特别是在网络封装协议之后,网络延迟和协议处理带来的读写操作延时变得更为明显。在硬盘时代,与毫秒级延迟和低IOPS相比,网络开销不是主要问题;但针对SSD,网络与协议处理的延迟开销更为突出。多代“存网融合”后,NVMe over Fabrics(NVMe-oF)协议应运而生,以满足未来NVMe存储需求。支持NVMe-oF的SSD开始受到关注。
网络延迟对存储系统延迟的影响
在高性能应用场景中,JBOF(Just a Bunch of Disks)能有效发挥其作用。为将Nvme SSD通过以太网连接在一起,可采用PCIe交换机及外部PCIe数据线连接至附近服务器,或使用一个或两个x86服务器处理器、一些PCIe交换机和一些RDMA以太网卡支持NVMe-oF,此过程繁琐,增加了性能瓶颈和用户TCO(总拥有成本)。自2018年起,Marvell等供应商推出NVMe-Ethernet转换器,允许NVMe SSD直接连接至以太网网络并通过NVMe-oF访问,Samsung等厂商也展示了集成以太网接口的SSD。通过集成以太网接口的SSD,用户可有效降低存储服务器的TCO达65%,同时减少存储服务器CPU及以太网端口的整体瓶颈。
应用场景与性能特征
本白皮书描述了Samsung的25GbE以太网SSD及其NVMe-oF、NVMe技术与SFF-8639/9639连接器的特性,并介绍了应用场景和网络功能的性能信息与功能性验证。详细说明了用于测试性能的系统配置。性能特性的实现取决于多种因素,文中所有性能指标均基于全预条件的SSD进行测试。
关键术语
- IP: Internet Protocol(互联网协议)
- MAC: Media Access Control(媒体访问控制)
- NIC: Network Interface Card(网络接口卡)
- NVMe-oF: NVMe over Fabric(基于Fabric的NVMe)
- QD: Queue Depth(队列深度)
- QP: Queue Pairs(队列对)
- RDMA: Remote Direct Memory Access(远程直接内存访问)
- RNIC: RDMA-capable NIC(具备RDMA能力的网络接口卡)
- SQ: Submission Queue(提交队列)
通过以上摘要,您可以了解以太网SSD的发展背景、关键特性、应用场景及性能优势,以及如何通过集成以太网接口来提升存储系统的整体性能和降低TCO。