您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[埃维诺]:NetApp 存储阵列 : Exchange Server 部署的可行选项 ? - 发现报告
当前位置:首页/行业研究/报告详情/

NetApp 存储阵列 : Exchange Server 部署的可行选项 ?

信息技术2023-11-24-埃维诺静***
AI智能总结
查看更多
NetApp 存储阵列 : Exchange Server 部署的可行选项 ?

西雅图办事处:艾略特大道2211号 套房200 华盛顿州西雅图98121seattle@avanade.comwww.avanade.com 致力于使用Microsoft平台帮助企业实现盈利增长的全球IT咨询公司。其他信息可在www.avanade.com上找到。 NetApp存储阵列: ExchangeServer部署的可行选项? PatrickCimprich,首席解决方案架构师 其他贡献:JeffreyChen,解决方案工程师 作为专注于Microsoft®的系统集成商,Avanade设计并实现了从文件服务器到ExchangeServer再到SQLServer的各种存储解决方案。我们的实施范围从简单到极其复杂,可实现高事务率,并依赖于存储平台中提供的高级特性和功能。 Avanade的大多数大型消息传递安装都涉及来自领先存储供应商的MicrosoftExchangeServer和企业级硬件。我们的客户和顾问对在这些配置中使用NetworkAppliance®(NetApp)存储解决方案的潜在用途表示了日益增长的兴趣。 为了向客户提供最佳指导,Avaade的基础架构专家对NetApp的产品进行了深入的实验室研究 ,以验证其作为ExchageServer部署存储平台的适用性。我们根据我们看到的典型存储方案设计了一系列基准测试,主要关注MicrosoftExchageServer配置,但也涉及一般文件服务器方案。 本白皮书介绍了我们在NetApp的中端存储阵列上执行的测试,以及结果和结论。作为此ExchangeServer测试套件的一部分,我们还评估了用于存储传输的iSCSI连接选项,并将刀片式服务器与传统服务器进行了比较。 本白皮书包含可能与AvaadeIc.的未来发展和方向有关的陈述。这些声明可能仅代表Avaade截至发布之日的当前计划或目标,并且根据我们的技术和业务判断,如有更改,恕不另行通知。对第三方公司的任何提及并不意味着埃维诺公司的任何参与或认可。本文档中提到的其他公司 、产品和服务名称是其各自所有者的注册商标或商标。 作为集成基础架构一部分的存储 任何精心设计的MicrosoftExchangeServer环境的关键组件都是其存储体系结构。Exchange对存储子系统的要求极高,因此产生了与大多数其他应用程序系统不典型的I/O要求。 Exchage体系结构的净性能与您的存储基础架构直接相关,因此存储解决方案应该是IT计划的核心组成部分,而不是随着您的运营需求的增长而“附加”。通过将当前和未来的存储需求视为平台战略的一部分,您可以构建一个全面的长期路线图,使您能够简化管理、构建所需的功能、最大限度地提高连接性和工作效率,以及迁移和保护不断增长的企业数据集—所有这些都具有理想的TCO(总拥有成本)。 测试环境 为了评估NetApp产品在ExchangeServer2003部署中的适用性 ,我们研究了它的中端存储阵列FAS3050c(当时的高端产品 )。在测试期间,我们评估了性能、配置简易性以及数据备份和恢复的各个方面。我们主要关注Exchange配置,但也谈到了一般文件服务方案。 由于我们有适当的测试方案,因此我们还研究了用于存储传输的iSCSI连接选项,并评估了刀片式服务器与传统服务器的关系。 该存储测试套件在华盛顿州西雅图的Avanade全球市场开发 (GMD)实验室进行了九个月(2005年10月至2006年 6月)。 测试协议。我们制定了严格的计划,以彻底,一致地测试相关方案和配置。这包括存储阵列本身,以及相关的测试工具,服务器平台和传输。我们的目标是获得可防御的,可重复的结果,以准 确反映产品的性能。我们的指导原则包括: 遵循NetApp推荐的系统配置。我们采用了这种方法,因为这是我们的顾问在引入新技术时所做的。我们想看看事情 在遵循“香草”建议时执行。 仅使用Windows®Server目录中的组件和配置,该目录列出了已成功测试WindowsServer兼容性的产品。 将所有组件和系统配置为现实的,并得到NetApp和 Microsoft产品支持服务(PSS)的100%支持。 对于所有元素仅使用已发布的产品,没有实验或测试版代码 。同样,我们的目标是建立和测试客户可能会实现的受支持环境。 存储阵列。为测试提供的网络设备FAS3050c包括:两个控制器 每个控制器3GBRAM 168个144GB15,000rpm光纤通道驱动器8个2Gbs 光纤通道SAN连接 8x1Gbs以太网连接DataONTAP 7.0.2软件 Exchange环境。我们的Exchange设置模拟了一个现实的企业环境: 单服务器配置6,000个 Exchange用户 4个Exchange存储组,每组5个数据库(总共20个数据库) 每个用户每秒1个传输请求(I/O)邮箱限制为每个用户150MB 我们使用了相当简单的Exchange实现,其中包括域控制器、用于公用文件夹的单独Exchange服务器、Exchange邮箱服务器和各种负载模拟客户端。所有计算机都连接到实验室的千兆以太网 。 Loadsim客户端 AD Exchange 公用文件夹 SG1 SG3 1Gbs以太网 配置,Iometer就像数据库一样运行:它在磁盘上创建一个大文件,然后在此文件中执行所有读取和写入操作。我们的总体参数是: 100GB数据库文件,充分利用 传输大小为0.5到64KB的请求,类似于典型的文件服务器 I/O队列深度从1个请求稳步增加到512个请求,以识别每种配置的峰值吞吐量,并查看饱和时的反应 我们对所有测试进行了三次,并对结果进行了平均,然后分析了Iometer日志文件以确定模式或趋势。 DB1DB2DB3DB4DB5日志SG2DB1DB2DB3DB4DB5日志SG4 DB1DB2DB3DB4DB5日志DB1DB2DB3DB4DB5日志 服务器。我们在两台Widows®服务器上进行了测试:IBM®BladeCeterHS40(配备四个单核英特尔至强®MP处理器的刀片式服务器)和SFire®V40z(配备四个双核AMDOptero® 处理器的经典机架式服务器)。这些服务器是根据它们在我们的客户和顾问中的受欢迎程度以及我们测试刀片式服务器与传统服务器,并比较不同的外形和I/O架构。 存储传输:由于NetApp支持iSCSI和光纤通道,因此大多数测试都使用多个连接配置来执行,以评估最佳传输选项。在IBMHS40上,光纤通道与iSCSI进行了比较。在SunV40z上,光纤通道与三个不同的iSCSI选项进行了比较。(有关详细信息,请参阅“传输替代方案”部分。) 一般性能 第一次测试有两个目标:验证我们的环境配置是否正确,以及评估NetAppFAS3050c的整体性能。 测试设置。根据NetApp的最佳实践,我们配置了20个驱动器,以实现最佳性能和最大可用容量。该设置包括一个20个驱动器的RAID-DP聚合,配置了144GB,15,000rpm光纤通道驱动器, 从而产生了18个可用空间(2,370GB)的驱动器。在此聚合中创建了一个1TB的LUN(逻辑单元号或磁盘卷),并将其呈现给Widows主机。 为了执行测试,我们使用了Iometer,这是一种I/O应力工具,可创建合成负载来测试磁盘和网络配置。测试磁盘时 结果。这些测试显示了 文件服务器负载给定固定数量的磁盘驱动器,并且还提供了不同传输机制的相对比较。关键指标是吞吐量(兆字节)和延迟或磁盘响应时间(毫秒)。 FAS3050c在整个过程中表现出色。它在IBMHS40服务器上实现了最大吞吐量,达到48.1MBps,响应时间为29.1ms ,队列深度为128个请求。 在SunV40z服务器上,队列深度为128时的峰值性能为 47.4MBps,响应时间为29.6ms。鉴于Sun服务器的处理能力更大,IBMHS40上稍好的结果告诉我们CPU性能不是瓶颈。 在饱和条件下(队列为128个请求),吞吐量变平,响应时间增加。队列深度为256个请求时,总峰值吞吐量为 48.7MBps,此后下降。响应时间急剧上升, 从128个请求的29.1ms到512个请求的126.8ms。 负载压力测试(存储子系统) 如前所述,Exchange对存储子系统的要求极高,I/O要求很高 ,需要非常灵敏的配置。为了发现存储系统是否为Exchange正确配置,Microsoft提供了Jetstress加载模拟工具,该工具可以模拟指定Exchange配置的I/O配置文件和加载。 我们使用Jetstress来查看NetAppFAS3050c阵列是否可以在我们的Exchange测试环境(单个服务器、6,000个用户等)中提供足够的磁盘响应时间。我们的参数包括3,000MB的硬件存储缓存大小,以确保阵列会淹没其缓存并提供负载下性能的真实指示 。 测试设置。我们要求NetApp指定适合此方案的存储配置。最终的安装程序包含64个用于Exchange数据和日志的驱动器,每个文件管理器头上驻留有32个驱动器(整个过程中使用了144 GB、15,000rpm光纤通道驱动器)。 我们配置了四个Exchange存储组,每个组最多5个数据库(总共20个数据库)。为每个包含五个数据库的存储组创建了单独的384GB数据LUN,以及相应的115GB日志LUN。 52个驱动器被配置为容纳Exchage数据,每个文件服务器有一半 。每个文件管理器上的26个数据驱动器被配置为单个RAID-DP聚合。然后在此聚合中创建了两个FlexVol(虚拟化磁盘卷),每个都有一个LUN来容纳一个存储组。在每个文件服务器上专门为日志创建了一个6磁盘RAID-DP聚合,每个聚合包含与该文件服务器上的两个存储组相对应的2个日志LUN。 根据供应商规范配置NetApp阵列后,我们将执行默认的Jetstress性能测试两小时。我们将每个测试运行三次并对结果取平均值,然后分析Jetstress报告以确定模式或趋势。 结果。这里的关键因素是磁盘响应时间、每秒I/O和CPU利用率。 磁盘响应时间(秒/读取):Exchange的最大读取延迟为20ms,之后开始出错。所有FAS3050c配置 返回的通过分数-六种配置的平均磁盘响应时间为15.5ms,没有测试运行超过17ms。光纤通道和iSCSI提供了可比的结果。特别是,在考虑到读取/秒的差异后,iSCSI等于或优于IBMHS40服务器上的光纤通道。 每秒I/O(IOPs):目标是实现接近6,000IOPs而不会失败。(此图表示以1IOP运行的6,000个用户的预期存储负载。)所有FAS3050c配置均成功超过6,000IOPs 。 CPU利用率:传输机制显著影响了这些结果,尤其是在IBMHS40服务器上,后者的CPU容量较小。光纤通道产生相当低的CPU利用率(5.5%)。但是,当IBMHS40在其嵌入式网络接口卡(NIC)上运行iSCSI时,CPU利用率上升到9.6 %,超过了产生的更大IOP(7,155,比其他配置高出约10 %)。 因此,此配置在CPU资源受限的情况下可能不适合。但是 ,在SunV40z上,无论传输类型如何,CPU利用率仍然很低,范围从3.5%到5.7%,这要归功于其更大的处理器容量。 负载应力测试(端到端) 为了更全面地了解ExchangeServer与NetAppFAS3050c阵列的性能,我们使用Loadsim进行了一系列测试,Loadsim是一种Microsoft工具,旨在通过关注与电子邮件加载相关的活动来强调Exchange配置的端到端。 测试设置。我们使用了标准Exchange环境和为Jetstress测试创建的供应商指定的存储配置(用于 数据库写入:同样,所有配置的响应都非常出色,远远低于20ms的延迟限制,光纤通道和iSCSI设置之间几乎没有区别,尤其是在SunV40z服务器上。