相比采用大量的服务器及增加一些虚拟化软件如VMware来说,有些人会更加关注数据中心整合。如果以1Gbit的光纤通道为例,假设每台服务器的存储带宽和IOPS(每秒的I/O操作数)的利用率为20%。即使你正在使用1.5万转的2.5英寸SAS驱动器,IOPS性能也仅仅提高了2.5倍,从100次IOPS提高到250次IOPS。IOPS随着CPU性能的提升而增加。

我曾经听说过,人们的服务器数量从1000台降到了100台,同时他们还没有必要改变底层的存储基础设施。我还听说,有一个网站正在使用LTO-4来备份其整合的数据中心,而且他们仍然计划使用1Gbit的光纤通道HBA和旧服务器上的1Gbit的基础设施。鉴于1Gbit的HBA已经停产,无法对LTO-4进行检测,因而你无法那样的速度来运行磁带驱动器。这些问题给人们带来了一些麻烦。

下面让我们降低几个级别来关注一些围绕数据中心整合的问题及其将会对存储体系架构产生的影响。每当我听到有人说,他们计划要整合服务器,并且降低成本的时候,我就会反问自己,他们是否真的知道要借助什么来实现这个计划?

假设你有1000台服务器,2000个可靠的SAN连接(保证不会出现HBA故障)。如果以1Gbit的光纤通道为例,假设每台服务器的存储带宽和IOPS(每秒的I/O操作数)的利用率为20%。因为这1000台服务器中,有很多可能都已经用了10几年了,他们能够运行72GB 10K RPM驱动器,(大约每秒100次IOPS操作数和67 MB/s的持续性能)。在这期间,RAID控制器可能同时支持128个重要的I/O请求,对于很多控制器来说还能具备光纤通道的处理速率。应该指出的一点是,对于大多数这种类型的Windows应用来说,IOPS要比流式处理重要的多,因为NTFS分配数据的方式是不同的。

让我们来看一看这些问题的具体例子:


这个表格有什么问题吗?我认为存在很多问题。从服务器和存储器的带宽方面来看,总带宽大幅下滑。因为来自服务器的带宽是有限的,所以RAID带宽就不可能提高。即使以前的利用率很低(大约是存储性能的20%),而现在你能以50%的理论带宽运行,这也是无法承受的。

我认为最大的问题就在于IOPS性能。IOPS性能提高了3.6倍,这只是杯水车薪。从1000台服务器精简到100台意味着每台服务器的IOPS会增长10倍。让我们再回到那个假设,虽然利用率为20%,但是你的CPU能力提高了10倍,因此2000个CPU可以处理更多的IOPS。显然,CPU性能的10倍提升和存储空间的10倍提升并不等于IOPS的3.6倍提升。

我还发现一个问题,一台服务器向存储器同时发出的不同应用请求越多,存储系统中的随机I/O请求就越多。如果多应用同时发出多请求的话,NFTS可以很好地持续分配数据。对于所有免费的Linux文件系统也一样,因为许多服务器虚拟化产品都是在Linux操作系统下运行的,所以在制订架构策略的时候一定要记住这一点。多I/O数据流的连续分配问题一直是文件系统开发者尝试着解决却没有成功的一大难题。至少就我所知,整合的程度越高,就越需要关注存储性能,这意味着要提高IOPS的可用性。



来源:
全国咨询热线:0769-22321006 零风险购买软件 零风险购买软件 网上在线咨询 关闭
0769-22321006