澳门新萄京官方网站-www.8455.com-澳门新萄京赌场网址

数据中心要更加关注运营可靠性,通过提高冷却

2019-09-11 作者:服务器运维   |   浏览(157)

过去的通常做法是当数据中心的冷却需求增加时,安装更多的空调就可以了,一般企业都适应了这种做法。但是,随着服务器的体积变得越来越小、越来越紧凑,添加更多空调的办法很多时候已经无法解决热量和电力问题。

图片 1

图片 2

原标题:数据中心要更加关注运营可靠性

浪潮NF600 Center刀片服务器省空间、便于集中管理、功耗也更低的特性是最适合学校信息化应用整合的解决方案的。 浪潮NF600 Center通过对嵌入式软件、专用管理硬件、远程管理软件和软件部署工具的整合应用,在可管理性方面已达到了服务器产品的较高水准。浪潮NF600 Center简单、便利的管理功能可以为学校 的IDC节约大量的维护、设置时间,避免学校将宝贵的时间和精力浪费在基础计算平台的管理维护上。 

200万美元该不该花?

伴随着电价和IT能耗的持续上升,IT相关的能源成本正受到越来越严格的审查。在一处精心设计的数据中心,冷却耗电成本大约占到总的耗电量的37%。换言之,其实这在许多情况下,意味着通过提高冷却效率来降低IT能源成本带来了机会。

环境问题给IT部门开发“绿色”数据中心带来了巨大的压力。降低大型数据中心的二氧化碳排放量是推动绿色技术向前发展的主要动力。最近美国环保总署(EPA)发布的一份报告强调了目前对数据中心效率的需求以及IT部门所面临越来越大的压力。

数据中心要更加关注运营可靠性,通过提高冷却效率削减数据中心能源成本的五大战略。**企业对可靠的数字基础设施的需求日益增长,因为数字经济如此依赖它,并且每天都变得越来越多,停电对企业造成了更大的影响,并付出了更多的代价。因此数据中心行业需要改进,可以采用全球通用标准设计、建造和运营数据中心来做到这一点。**

图片 3

美国Blacksburg市维吉尼亚综合州立大学最近部署了大约1100台基于Apple G5的系统组成的超级计算集群,为了保证该集群工作在适合的温度,这所大学的工程部提出了一个冷却方案-使用传统的空调设备并且将服务器分散安装在10000平方英尺的区域,实际上这所大学的主数据中心也就这么大。

数据中心要更加关注运营可靠性,通过提高冷却效率削减数据中心能源成本的五大战略。本文中,我们将为广大读者诸君介绍关于提高数据中心冷却效率的五大战略:

绿色数据中心是指一座设备、照明、电力和计算机系统都是按照最大能源效率和最低环境影响进行设计的数据中心。建造和运转一座绿色数据中心会涉及到许多高级技术和策略,一些例子包括:降低数据中心的能源消耗;最大程度上减少建筑面积;最大程度上提高冷却效率;使用低排量建筑材料、地毯以及涂料;在备份发生器中安装催化式排气净化器;使用例如光电热量泵以及蒸汽冷却等多重能源技术。

日前,全球知名的数据中心设施咨询机构Uptime Institute发布的全球数据中心调查报告提供了数据中心业务的内部视图。该调查于今年早些时候开展,收集了近900家数据中心运营商和与企业和服务提供商数据中心设施相关的IT从业者的反馈。

 

但是,这并不是一个切合实际的做法。该大学研究和管理集群的Virginia Tech Terascale计算中心副主任Kevin Shinpaugh说:"将集群分布在10000平方英尺区域的设计真的不是一种选择,因为我们还安装了其他系统,不可能将整个数据中心都拿出来给这个集群系统。"

1、适当密封的数据中心环境

能源消耗是界定一部设备是否是“绿色”设备的重要标准。据Gartner在2007年发布的一份题为《2006年数据中心调查报告:能源和冷却》中指出,过去五年中设备能源需求已经增长了5倍甚至更多。实际上,企业机构花在设备运行所需能源上的开支远远多于购买这些设备的开支。

图片 4

首先,浪潮NF600 Center最大限度地利用数据中心的空间。由于数据中心的地产价格十分昂贵,浪潮NF600 Center能够使服务器的密度比目前1U的机架优化的系统增加两倍以上。此外,因为每个浪潮NF600 Center是一个单独的服务器,因此可以用底盘将多个应用集成一个单一的机箱中。这种集成方式可以进一步使计算机资源集中在数据中心中。以本次使用的含8个刀片的浪潮NF600 Center为例,如果使用机架式产品,需要8台服务器,大概要在机柜上占16U甚至更多的空间;而使用刀片产品,只占用了7U大小。
其次,浪潮NF600 Center简化部署和维修。部署多个服务器是一个耗时和资源密集的过程。管理员需要将每个服务器安装在机架中,进行电源和网络布线,并为其安装软件。在高密度的环境下,布线是令人尤其头疼的难题之一。第三阶段的信息化建设如果使用机架式产品需要16个网络接口,布线上非常麻烦。而在浪潮NF600 Center上,管理员只需要对机架进行安装和布线,无需单独布线。增加新的计算机资源就像插入一个新刀片服务器一样简单,就像现在加入一个硬盘驱动器。由于多个刀片服务器可以共用冗余电源,因此最大限度地减少了机架布线。
维修故障的刀片服务器时,只需拆除故障的刀片服务器,并插入替换的刀片服务器。管理员还可以很容易地配置一台全局热备份服务器,通过远程配给,接管需要维修的刀片服务器的任务和功能。而且利用自动软件供应工具,管理员只需通过一个网络操作,就能够方便、快捷地将软件安装到一个或多个刀片服务器中。在完成刀片服务器的软件安装之后,管理员就能够利用远程管理工具进行全面的管理。
第三是降低硬件成本。与传统的服务器不同的是,每个刀片NF600 Center不需要单独的机架和基础设施,因此相对廉价。通过多个系统共用电源、冷却设备、管理硬件和布线系统,可以极大地降低TCO成本。
第四是减少功率消耗。浪潮NF600 Center的功耗部件的减少,极大地降低了功率消耗。例如电源由多个服务器共用,功率消耗减少,也就产生较少的热量,因而也就减少了冷却系统的耗电量。

所以,Shinpaugh开始寻找其他冷却服务器的方案,最后选择了Liebert公司的精确冷却系统。这种冷却系统的特点之一是能够从服务器机架吸出热空气,然后再与空调设备进行热量调节。他说:"我们当时有大约3000英尺的空间可用于该集群,Liebert的冷却系统使我们能够做到在3000英尺的空间布置所有集群系统,并保证有效的冷却系统。"

一款蒸汽密封在控制相对湿度,从而减少了不必要的加湿和除湿方面发挥了至关重要的作用。

因此,IT管理者应该考虑投资创建一座具有能源效率的数据中心。遵循以下六个简单步骤,IT管理者就离实现绿色数据中心更近了一步。

开展这个调查的Uptime Institute公司是一家总部位于西雅图的组织,专注于数据中心各方面设施的运营,也是全球众所周知的数据中心“Tier标准”及其相关认证的创建者。

而且,浪潮NF600 Center不但具备了机架式服务器的所有优势,更具备高性能服务器才有的易用性和可管理性,非常适合学校IDC的部署需求。  

Shinpaugh说,虽然他们为冷却设备和增加电源功率花费了大约200万美元,不过,现在数据中心具有了剩余的电源功率和冷却容量,因此在今后几年将能够满足更多系统的需要。

2、优化气流

步骤一:虚拟化和整合。虚拟化的基本概念很简单:封装计算资源,运行共享物理基础架构,这样每台设备就好像在自己独立的物理环境中运行一样。通过把存储和计算资源作为一个聚合存储池能够实现这个目的,用户可以基于需求来访问网络、系统和应用。

2018年的调查结果表明与以往的报告相同,主要是一些积极的指标,但有一些领域面临风险,可能需要改善。

下载:1.浪潮NF600服务器用户手册。2. 快速使用指南。

"这笔200万美元的投资使我们可以更好地利用已有的空间,并且以后向该集群添加服务器或建设新的集群将不会再遇到冷却和电源的问题",他说。

机架布置、机房空调布局和线缆管理都会影响到在关键设施内空气流通的能量消耗量。

除此之外,通过测量我们可以发现,通常一台服务器仅仅使用了总容量的5%~15%来提供应用服务。使用虚拟化技术,对利用率过低的服务器的整合对终端用户是无缝的,大大降低了能源消耗。

Uptime Institute公司执行董事Lee Kirby表示,“如果我进行一下总结,我认为企业对可靠的数字基础设施的需求日益增长,因为数字经济如此依赖它,并且每天都变得越来越多,停电对企业造成了更大的影响,并付出了更多的代价。因此数据中心行业需要改进,可以采用全球通用标准设计、建造和运营数据中心来做到这一点。”

浪潮NF600Center通过对嵌入...

还有一个类似的例子。德克萨斯州Austin市Applied Materials公司项目经理Mark Nelson说,他也将他们的数据中心设计为可适应密度越来越高的配置。目前,他们的数据中心在设计上可满足约每平方英尺75瓦功率需求,但实际上只使用大约39%的容量。他说:"我们预测安装更多的设备以及当利用新技术更换设备时,我们的每平方英尺功率将开始增加,接近75%的功率容量。"

3、在适当的地方使用节能器

步骤二:明确你的冷却需求。现在我们配置的大多数数据中心冷却系统都是限定在假定的范围内的。也就是说,任何区域内的负载都不对超出它在整个数据中心中所占的比例。

他指出,数据中心业务中断或停电可能是最令人担忧的风险。今年,31%的受访者表示他们在过去一年中遇到了停机事件或严重的服务质量下降,高于去年调查中的25%。数据中心内部电源故障、网络故障以及软件或IT系统错误是最常见的主要原因,近80%的受访者表示可能已经阻止了最近的中断。大多数中断的完全恢复时间为一到四个小时,超过三分之一的恢复时间为五小时或更长时间。

该数据中心现在运行一个冗余电源系统,因此一旦发生问题可以立即进行故障切换,另外还备有一台额外的空调,以防在发生最坏情况时热量输出激增。

在寒冷的季节,节能器允许使用外部空气以支持数据中心的冷却,从而创造了无需耗能实现冷却的机会。

但是,据ASHRAE机构称,一般才用那个了高密度小型服务器和存储设备的数据中心每平方英尺设备面积的功率是5000瓦。而2000面的时候,这个数据是2000瓦——能源使用和热量密度在五年之内竟然翻了一番。增长速度并没有放缓的迹象,而且不断增长的热量需求更多的冷却资源,而这些冷却资源则需要更多的能源消耗。

图片 5

14倍-刀片的热量挑战

4、提高冷却系统效率

步骤三:对你的设备进行优化淘汰。如果你已经拥有了对现有设备足够的冷却能力,那么你必须首先考虑淘汰设备。Uptime Institute对19座数据中心所做的调查报告指出,只有40%的冷空气被直接用于冷却机房内的服务器。采用冷热通道的做法是一个不错的主意,能够解决普通数据中心存在的很多问题。通风管道的适当安排以及紧密防止的冷却系统也是能够提高冷却效率的重要技巧。

考虑到与停机相关的巨大费用,以及数据中心采取的主动方法来保持“9个9”的可靠性,这是一个令人惊讶的结果。Kirby表示,这样的结果可能集中在数据中心日益复杂化,因为IT部门在边缘增加了资源。

据关注减少数据中心停机时间的企业协会Uptime Institute说,今天数据中心的平均热密度输出为每平方英尺28瓦左右。

诸如可变容量系统和改进的控制等新兴技术的使用,正推动室内空气调节系统效率的提升。

步骤四:采用水冷冷却法。相同容量的水能够携带的热量是相同容量空气的3500倍。然而,在数据中心内采用水冷方法是需要一些时间的,很多用户发现测量流经整个数据中心内的水管长度是非常困难的事。水冷方法还可以其他一些形式实现。在一些情况下,机架中安装了热交换器,冷水在机架内循环流过,热交换器通过传统的压入空气的计算机机房空调设备进行冷却。有时候,热交换器是安装在机架外部的。

他说,“我认为随着采用率的提高,以及物联网的使用和所有设备的部署,企业对数字基础设施的的投资将会加大,这将对经济产生影响。因为通信行业发生变化也会影响整个市场。不同的企业会受到影响。”

Uptime Institute执行总监Kenneth Brill说:"尽管过去几年里这一数字不断增加,但是如果你使用刀片服务器的话,它仍达不到你可以对付的热量。当你采用刀片服务器,而且数量比较庞大的话,也许每平方英尺的热密度输出将达到400瓦。"

5、使冷却更接近热源

另外一种水冷的方法采用了一套复杂的外置冷却系统,通过机架内一个闭合回路水冷系统对电子元件进行冷却,供水和排水管道布满整个数据中心。这种紧凑型的系统能够减少空气流过的路径,从而减少了风扇的能耗。这种紧凑型散热方法最大程度上降低甚至是完全消除了冷热空气的混合。

在很多方面,数据中心的安全运营似乎是问题的关键所在。68%的受访者采用了传统方法,试图保证从灾难性故障中快速恢复,定期备份到辅助站点,51%的受访者表示实时将数据复制到辅助数据中心(40%的受访者表示已复制到两个或更多数据中心)。其升级的方法也越来越受欢迎。42%的的受访者表示他们将某种灾难恢复作为一个服务计划,36%的人利用基于云计算的高可用性服务。

这个数字大约是数据中心平均热密度输出量的14倍。Brill说,一些刀片服务器用户所报告的数字,每机架的热量输出最多达到14千瓦,这与2台家用微波炉发出的热量相同。

补充冷却系统使得冷却更靠近热源,从而减少了空气流动所需的能量。总之,上述这些方法有助于将冷却系统的能源成本减少30%至45%,并带来显著的、经常性的成本节约。再加上新兴技术的采用,如效率更高的处理器和新的基于芯片的冷却技术,这些措施可以有助于保持能源成本与服务器密度和能源价格的持续上涨步调一致。

步骤五:从“绿色”厂商那里进行采购。寻找那些将能源和冷却作为他们研究和开发策略重点的厂商。基于生命周期成本来选择设备,考虑服务器能源使用问题是未来购买TI设备流程中的重要一环。

随着停机时间的增加,许多数据中心运营商都没有更多关注气候变化可能对其数据中心设施造成的影响。根据调查,45%的受访者表示他们的组织此时并未适应气候变化影响。

咨询与外包公司Capgemini基础设施总经理Cees de Kuijer说,他将等到刀片服务器技术进一步发展后,才会向数据中心引进这种紧凑型计算设备。

直到最近,仍然很少有人注意到IT系统所耗费的能量成本。但是,随着能耗和电价的持续上涨,能源成本日渐受到来自企业高层管理人员们更加严格的审查,以便进行成本的管理。事实上,能源成本现在已成为了企业数据中心的选址和设计的决定因素之一。

步骤六:实现绿色控制。实现服务器的绿色控制也对减少负载消耗的能源起到帮助作用。这些控制可以具体到服务器在低负载过程中降低频率,也就可以降低能源消耗。其他例如信息生命周期管理、重复数据删除以及归档这些减少存储容量的技术也可以带来经济效益。

Kirby说,“这对我来说很惊讶,气候变化对数据中心的运营产生的影响越来越大,我认为这意味着数据中心行业需要更加勤勉地规划灾难恢复。不仅要在基础设施层面进行研究,还要进行全面的业务恢复计划,并解决数据中心不能正常运行的情况。”

de Kuijer说:"刀片服务器带来一些问题:其中之一是发热,另一个问题是供电。我们目前在采购上基本上不考虑选择刀片服务器。"

最近,根据由Data Center Users' Group所进行的一项调查显示,数据中心的能源效率正在迅速成为业内最为关注的优先事项。42%的调查受访者表示,他们所在企业已经对能源效率进行了分析或目前正在进行分析。受访者们普遍认为,显著的能源效率提升机会存在于冷却设备(49%)、服务器(46%)、电力设备(39%)和和存储(21%)的领域。

【编辑推荐】

尽管存在这些负面影响,但大多数调查显示数据中心运营商在许多关键领域都处于领先地位。例如,冷却成本占数据中心总功率支出成本的比例继续提高。根据调查结果,2018年数据中心的的平均能源使用效率(PUE)值始终处于1.58的历史最低点(越低越好)。该调查报告指出,Uptime Institute在2007年进行的另一项调查中,能源使用效率(PUE)为2.5,到2013年已降至1.65。从那时起,PUE值的降幅逐渐增加。

Gartner去年底发表的研究报告中,警告企业用户谨慎考虑部署刀片服务器和密度不断增加的机架式系统。Gartner分析师认为:"不经过仔细的规划以及缺少数据中心设备人员与服务器采购人员之间的协调,数据中心将不能增加电功率或冷却能力来适应服务器部署的增加。我们认为,一直到2008年底,服务器的热量和冷却需要将阻碍90%的企业数据中心取得最大理论服务器密度。"

EYP Mission Critical Facilities Inc. 公司分析了数据中心的能源使用情况,并估计数据中心50%的能源消耗是由信息技术系统所消耗的。据了解,随着冷却和配电负载的降低,IT设备节省10%的能源消耗将带来一个额外的7%到10%的能耗减少。因此,在这方面的能源消耗减少对下游的节省影响或将达到两倍。

Uptime Institute在报告中指出,“近年前,最重要的是基础设施效率得到大幅提升。而进一步改进将需要大量投资和努力,其回报越来越低。组织将继续提高效率,以降低运营成本或最大化可用功率(或二者兼而有之),包括人工智能驱动的数据中心管理即服务(DMaaS),软件定义电源和其他方法。”

这并不是说企业不能在减少费用昂贵的数据中心空间面积的同时,享受他们所需要的处理能力的好处。Gartner说,大多数企业服务器厂商提供评估服务,帮助客户确定他们的电功率和冷却限制。

有一系列的策略可以用来评估IT系统能耗的降低,最值得注意的是服务器整合和虚拟化。使用虚拟化技术和数字控制技术,以提高数据中心的运行效率。

数据中心机架的功率密度也在上升。当被问及最高的现场服务器密度时,调查报告表明,一半的受访者表示,其每个机架功率为10 kW到29 kW之间,而19%的受访者表示其机架功率密度为30 kW或更高。

现在,有一些专业的公司,提供AC和DC电源产品以及定位于冷却高密度系统的精确冷却设备,如American Power Conversion等公司。另外,硬件厂商和芯片制造商也在关注这个问题,Intel和Advanced Micro Devices都提供低功率芯片。Intel计划明年左右向安腾和至强处理器添加电源管理技术,使用户可以设置功率限制,开发可以根据需要启动和关闭的CPU。

而在本文中,我们将把关注重点放在由必要的基本支持系统所消耗的剩余的50%能耗方面,如电源,制冷和照明(图1)的能耗。除技术系统本身之外,在数据中心消耗最多能源的就数冷却系统了,其能耗占到了数据中心用电量的37%。

图片 6

然而,监测数据中心电源和热量问题的需要将继续增加,尤其随着公司部署像集群和网格这样的分布式计算架构时。

最近几年,随着服务器密度上升到了前所未有的水平,数据中心对于冷却系统的需求大幅上升。这种变化不仅带来了制冷系统容量需求的增加,同时也暴露了数据中心现有冷却方法的效率低下。其结果是,冷却现在已然成为了许多数据中心(并也仅仅只是减少了IT设备负载)节省IT能源成本的第二大机会。

然而,最高的机架功率密度远远低于平均值。在去年的调查中,67%的受访者表示平均每个机架功率低于6千瓦,只有9%的受访者表示每机架为10千瓦或更高。报告中没有包括当前平均机架功率密度的数据。

关注DC电源

这方面的节省可以说是相当显著的。例如,假设支持系统所消耗的能源量与IT系统大约相同的话,那么一处3兆瓦的数据中心设施将需要6兆瓦的电力。而如果电力成本为每小时10美元,这一数据中心设施的年度总能源成本将达到525万美元(600美元/小时×8765小时)。而IT负载降低10%,就将会节省105万美元,而冷却系统效率提高30%会节省约58万美元的开支。

增加计算密度并提升速度就是采用冷却设施。虽然只有30%的受访者表示仍然依赖于传统机房空调,56%的受访者表示他们依赖精密空调进行冷却,但只有14%的受访者表示使用液体冷却,这可以实现最高的服务器功率密度。大多数受访者表示,他们使用精密空调解决方案冷却IT设备。

Toshiba America Electronic Components选择利用来自Rackable Systems公司的专用基于Intel的服务器以及公司自己的分布式DC电源技术,部署服务器集群,运行设在马萨诸塞州的数据中心的电子设计自动化应用。

图片 7

报告指出,在必要时需要进行改变,因为针对人工智能(AI)工作负载优化的服务器硬件具有比标准x86服务器高得多的电源和冷却要求。

该公司西雅图分公司ASIC与铸件业务部副总裁Richard Tobias说,由于这种DC电源比传统AC设备体积小,所以发热更少,因此不容易出现过热和发生故障。

图1:数据中心能耗比重

“虽然高功率密度的IT环境可能仅限于人工智能应用和高性能计算(包括具有高I/O的游戏和物联网应用)的运营商,但是为这些类型的客户提供服务的一些主机托管数据中心提供商也需要适应。”报告说,“配备精密空调或液体冷却的预制模块化数据中心组件越来越多地被视为实现混合数据中心环境的改进策略。”

Tobias说:"我们关注的主要因素是构建服务器的每机架费用以及可以得到什么样的计算密度。利用DC转换节省功率意味着你可以在机架中安装更多的服务器,并利用服务器机架完成更多的工作。"

1、适当密封的数据中心环境

调查中涉及的其他项目是数据中心信息管理(DCIM)软件(已成为市场主流),人员配备(寻找熟练工作人员将变得更加困难)。与后者相关的是多样性和男女性别平等的主题。根据这份报告,在大多数数据中心,女性员工占劳动力的比例不到6%,70%的受访者认为这并不是什么问题。

结论

冷却通过数据中心的地板、墙壁和天花板损失,或通过外部的关键设施所带来的湿度降低了冷却系统的效率。因此,数据中心应尽可能地与一般建筑和外部环境隔离开来。

Kirby 表示,“经过研究表明,缺乏多样性通常不仅代表缺乏招聘渠道,还存在技术停滞、负面宣传以及最终市场份额流失的威胁。”

IT经理必须与他们的设施团队密切合作,准确了解增加的功率和冷却需求将对服务器部署产生怎样的影响。Uptime Institute的Brill说,在许多情况下,数据中心拥有充足的气流和冷却能力,只是没有精确地加以控制。"只需进行一些较小的改变,人们就可以恢复足以满足几年需要的电源和冷却容量",他说。

在任何时候,保持门的关闭,并使用蒸气密封来隔离数据中心的空气。蒸汽密封是控制数据中心环境的最廉价且最重要的方法之一,同时对于保持适当的湿度水平是特别重要的。

报告指出,“数据中心行业领导者和其他企业越来越多地认为,未来数据中心业务的成功将取决于建立多元化的员工队伍。”

...

如果数据中心的湿度太高,就可能出现导电性阳极故障(CAF)、吸湿性粉尘失败(HDF)、磁带介质错误和过度磨损和腐蚀。而如若相对湿度的增加超过55%以上,这些风险将成倍增加。

Kirby对于今年的调查进行了总结。他说,“边缘计算正在改变数据中心运营和管理的动态,我们推出了一项名为TIER-Ready的计划,该计划正在帮助组织确保他们的基础设施在边缘更加可靠,因为边缘设备将用于多种用途。边缘数据中心将与核心数据中心不同,因此人们需要在边缘设备运行分布式数据中心的实践和程序。”返回搜狐,查看更多

而如果湿度太低,则将增加静电放电(ESD)的幅度和倾向,其可能会损坏设备或对操作运营带来不利影响。此外,当暴露于相对湿度较低的环境下,磁带产品和介质可能会发生过多的错误。

责任编辑:

ASHRAE已经将数据中心环境最佳的相对湿度定义为40%至55%。机房精密空调(CRAC)根据需求,通过加湿或除湿进行湿度控制,加湿或除湿两者均需要消耗能量。而采取有效的蒸汽密封可以在加湿或除湿过程中降低能量消耗的量。

蒸汽密封通常是通过结合使用塑料薄膜、汽阻涂料、乙烯基墙纸和乙烯基地板系统所打造的。所有门、窗和线缆的入口也应密封。

这是任何提高效率计划的第一步。如果操作房间没有被妥善密封,那么随后所采取的所有其他的提高效率的措施都将是事倍功半的。您企业可以通过各种工程咨询公司或您企业的冷却系统供应商来对数据中心进行评估,以帮助您查明和确定外部空气从何处进入您数据中心的控制环境,并就适当的密封策略提出建议。

2、优化气流

一旦操作环境的密封工作完成之后,下一步工作便是确保高效的空气流通。其目标是利用最小的能耗量将最大量的热量从设备移走。而优化空气流通需要评估和优化机架的配置、空调的布局和线缆的管理。

机架布局

目前所生产制造的大多数设备都是被设计为从正面吸入空气,并从后 面排出。这使得设备机架可以被安排为创造热通道和冷通道。这种机架安置方法,使一排排的机架面对面,每排机架的正面都能够从同一过道吸入冷空气(“冷”过道)。两排机架排出的热空气形成一个“热”通道,提高了返回CRAC的空气的温度,并使得CRAC得以更有效地运作(图2)。

图片 8

图2:热通道/冷通道配置

冷、热空气不混合,这种方法是最有效的。因此,穿孔地板应该从热通道中移除,并只在冷通道使用。冲裁板应该被用来填补机架的开放空间,以防止热空气通过机架被吸入。

某些类型的电缆管也可用于防止冷空气通过电缆开口进入操作空间,其通常在机架后部。

其他额外的步骤,包括诸如使用返回天花板通风室以吸取空气返回机房空调,在冷通道尽头的物理窗帘对于减少冷空气和热空气的混合也被证明是非常有效的。

CRAC布局

使用热通道/冷通道的方法的时候,CRAC单元应始终垂直于热通道,以减少空气流动,并防止热空气因返回空调被拉到冷通道(图2)。 一个返回天花板通风室,可有效地减少热空气和冷空气的混合。

线缆管理

数据中心所必须支持的服务器数量的爆炸似增长已经为许多数据中心设施带来了线缆管理方面的挑战。如果管理不当,线缆可通过堵住穿孔地砖而阻碍空气流通,并妨碍热空气从机架后部排出。故而检查地板下的通风状况,以确定电缆或管道是否被阻塞,而妨碍了空气的流通。架空电缆正变得越来越流行,从而消除了阻塞的可能性。更深层次的机架现在可以增加的空气流动。有时现有的机架可以配备扩展通道,以增加电缆和空气流的深度。使用电缆管理的时候要谨慎,因为它们并不兼容所有IT设备的空气流动模式。

最后,但也许是最重要的,调查将高电压三相电源尽量靠近IT设备,并且增加IT设备的电压。这些步骤将最大限度地减少地板下的电源电缆的数量和大小。有时这可以通过在机架内使用高电压三相管理电源插排来完成,但也可能需要使用多极配电盘或IT设备机架行内的PDU。

可以添加风扇到机架的后部,以便从机架吸走热空气,但要知道,这些风扇也同样需要消耗能源,并产生额外的热量,必须从操作空间移除。

3、使用节能器以实现无需耗能的冷却

在许多地方,外界的冷空气可被用来补充数据中心的冷却,并能够在寒冷的季节提供“免费的冷却”。这是通过使用节能器系统来实现的。根据巴特尔实验室(Battelle Laboratories)的一项楼宇控制系统调研发现,平均而言,那些采用了节能器的数据中心建筑的加热和冷却的能源使用强度(EUI)要比那些没有的低13%。

节能器系统有两种基本类型:空气节能器和流体节能器。而为一个特定的项目选择一款合适的节能器类型应该是由气候、代码、性能和功能偏好综合考虑的结果。

空气节能器

空气节能器使用一款由传感器、管道和阻尼器所组成的系统,以允许适量的外部空气进入,以满足设备的冷却要求。空气节能有两种类型,即“干燥空气”系统和“蒸发式空调”空气系统。前者是最常见的,但是其使用被严格限制到极少的地理位置,因为当环境空气的露点温度(Dew point temperature)低于35 ̊F时,添加湿气到操作空间所需的能量成本会相当高。而蒸发条件解决方案则是用于在外部空气进入数据中心之前,进行有效调节的一种经济的方法,但其可靠性和高维护方面的要求通常也使得这种方法对于大多数数据中心运营商而言没有多大的吸引力。

这两种解决方案的关键在于适当的控制。控制应基于热含量(enthalpy)的比较,而不仅仅只是干球温度计(dry bulb

)的温度。同样,相关的这些方法还必须实施对于花粉、灰尘或其他外来污染物的检测,并有效地在发生这些情况时锁定节能器。

流体节能器

流体节能器系统一般被划归为一款冷冻水或基于乙二醇的冷却系统,并与一款由冷却塔或蒸发冷却器又或干冷器组成的散热环路配合工作。CRAC单元采用了传统的乙二醇冷却单元和一款辅助冷却线圈,控制阀和温度监控器。在寒冷的季节,乙二醇溶液从室外干式冷却器或冷却塔返回到辅助冷却线圈,成为操作空间主要的冷却来源。只要“免费的冷却流体”是8 ̊F ,低于CRAC返回的温度,运行“免费的冷却”就能够带来益处,因为其最大限度地减少了对于主要冷却方式的负载。

流体节能是大多数数据中心环境系统的首选,因为它们不会受到室外湿度水平的影响,故而对于较宽的温度/湿度范围都是有效的。他们也不会给数据中心增加任何额外的空气过滤要求。

4、提高操作空间空调的效率

对于优化CRAC单元的效率而言,有三大至关重要的因素:

• 部分负载的情况下运转效率如何。

• 当CRAC单元在移除显热(sensible heat)时,较之潜热(latent heat)的运转效率如何。

• 多单元一起工作的效率如何。

在部分负荷提高效率

数据中心均设计了某种程度的冷却系统冗余。此外,随着室外环境温度下降到低于设计的峰值条件(通常为 95 ̊ F),一个直接扩展的实际容量或空气冷却的CRAC单元将增加。

这意味着设备始终在低于100%的负载水平操作,由此带来了在正常操作条件下设计系统以更有效地操作运营的机会。因为操作条件是不稳定的,这需要能够根据操作条件变化而进行相应的容量变化的一些方法。

有几种方法可以在一款直接扩展的CRAC单元提供可变容量。而最常见的两种是四步压缩机卸载(four-step compressor unloading)和数字化涡旋压缩机技术(Digital Scroll compressor technology)。

四步压缩机卸载的概念适用于通过在系统内关闭一些气缸制冷剂;从而最小化循环压缩机开启和关闭的需要,以控制容量能力。因为卸载本质上改变了压缩机的操作点,使得冷却系统以更低的容量能力更有效地运作。例如,一款有着两个压缩机“卸载”的系统所消耗的能量大约为满载系统的50%,但将提供76%的容量,因为在冷凝器和蒸发器的规模为满负荷。下图3显示出了通过压缩机卸载所能够实现的效率改进。

数字涡旋式压缩机技术提供了一种新的方法,以便为所需的负荷精确地匹配容量和功率消耗,并且可以比标准的“固定容量”压缩机提供显著较低的能量消耗。

传统的调制技术(循环单位和关闭匹配的负载条件)往往消耗了接近满负荷的能量,而不是实际所需的容量。在一款高可靠性设计的系统中,压缩机不只是打开和关闭。在压缩机实际运行时,会有一个开启延迟期和关闭泵的停机时间,确保在断电之前适当的润滑油进入压缩机轴承。

数码涡旋技术让压缩机不会循环。其可以线性地降低功耗,因为其容量调节能力,从而带来了最佳的系统性能和控制。

图片 9

图3:压缩机卸载启用的四个阶段的容量能力与能源消耗

这种技术是通过与艾默生环境优化技术公司的一项独家协议应用到数据中心的,后者研发了谷轮数码涡旋压缩机,而艾默生网络能源公司则开发了Liebert DS精密冷却系统。整合谷轮数码涡旋压缩机到Liebert DS系统使得Liebert DS系统的容量调制从10%达到100%。如图4所示,以一个简单、可靠的方式实现了精确的温度控制。

图片 10

图4:数码涡旋压缩机消除了压缩机调制方式随着容量的变化,提高了效率

改善显热/潜热移除功能

IT设备产生显(干)热。潜热来自于人员及渗透室外湿度(可通过上文所讨论的蒸汽密封实现最小化)。

随着服务器的密度或容量的增加,带来了一个相应的显热负荷的增加。潜在热负荷不受影响。因此,使用冷却解决方案,可以在一个100%的显容量能力运行,除了当要求除湿时,将导致能源消耗的减少。在较低的容量下操作可变容量的压缩机,提高蒸发器盘管的温度。这意味着更少的潜在冷却发生。在绝大多数负载条件下,蒸发器盘管温度足够高,达到100%的显冷。因此,添加被意外去除的湿度无需消耗能源。

跨多个单位改善协调

随着较新的高密度服务器被部署在旧系统旁边,数据中心环境变得更加多样化了。由此所导致的一个结果便是,如果操作空间冷却单元之间没有进行适当的协调,空调可能会在不同的温度和湿度控制模式下运行。例如,在房间北侧的一台空调可能会感测到相对较低的湿度条件故而会增加湿度,而在房间南侧的一台空调则检测相对较高的湿度,因而会去除空气中的水分。 空气中的实际湿度是相等的,但由于这些测量都是一个相对的测量,温度越高,相对湿度越低。先进的控制系统可以在一个操作空间内跨所有的CRAC单元进行部署,使得各台空调设备能够进行沟通和协调,防止“战斗模式”。

5、部署补充冷却

补充冷却是一种相对较新的数据中心冷却方法,是由艾默生网络能源凭借其Liebert XD系统率先开发的方法(如图5)。其在2002年首次推出,而随着数据中心管理人员寻求解决方案,以帮助他们实现以下需求,使得这种方法获得了快速的普及。

• 克服高架地板系统在高密度应用中的冷却容量能力限制。

• 提高冷却系统的效率和灵活性。

高架地板冷却被证明是管理数据中心环境的一种有效的方式;然而,随着机架密度超过5千瓦,以及跨操作空间的多样性负载的增加,应当对补充冷却对冷却系统的性能和效率所造成的影响进行评估。

在更高的密度情况下,在机架底部的设备可能消耗了太多的冷空气,进而造成剩余的冷空气量不足以供给机架顶部的设备。活动地板的高度造成了被分配到整个操作房间的空气量的物理限制,所以,添加额外的空调可能无法解决上述问题。

国际正常运行时间协会(The Uptime Institute)的研究报告称,位于数据中心机架顶部的三分之一的设备发生故障失败的频率往往是同一机架底部的三分之二的设备的两倍。该组织还估计,当操作温度超过70 ̊ F时,每提升18 ̊ F,设备长期的可靠性将下降50%。

提升机架密度和高空间多样性的解决方案被证明是一种泵制冷的冷却基础设施,支持冷却模块直接放置在高密度机架的上面或旁边,以补充通过地板的空气。该解决方案具有许多优点,包括增加冷却系统的可扩展性,带来更大的灵活性和能源效率的改进。

有两个因素有助于提高能源效率:冷却模块的位置和所使用制冷剂。

高密度应用需要基于流体的冷却,以便能够有效地移除所产生的高热量。从效率的角度来看,对于高密度而言,制冷剂的冷却效果要比水更好。在Liebert XD 系统中所使用的R134制冷剂被泵以液体形式输送,但当它到达空气时转换为气体。这种改变有助于提高系统效率。 在传输热量的效率方面,R134比水大约高700%。巧合的是,700%比空气更有效。这也确保了昂贵的IT设备不会在制冷剂泄漏的情况下受损。

图片 11

图5 :Liebert XD 系统

在Liebert XD系统中,制冷剂被输送到冷却模块尽可能地靠近热源。这减少了空气流通所需的能量,带来了额外的能源节约。

同时,较之仅仅靠高架地板冷却,制冷剂的效率和冷却模块的位置可以降低27%的冷却系统能源成本(如图6)。

图片 12

图6:补充冷却优化效率

此外,制冷剂的使用减少了20%的制冷机的容量要求。进一步节约了能源,也带来了额外的冷却能力,无需添加额外的冷却器。

传统的地板安装的冷却系统在地板下的进行空气输送将继续在数据中心环境管理中发挥重要作用。我们建议,传统的系统被配置为提供第一个100瓦每平方英尺的热负荷所需的冷却,并解决操作空间的充分加湿和过滤的要求。补充冷却可以为超过150瓦每平方英尺的密度进行部署。

新兴技术

伴随着今天大多数企业组织的计算需求,能源成本在未来也将有可能继续上涨。而企业在采取措施以增加冷却系统的效率的同时还可以采用更新的、更高效率的技术,以抵消能源成本上升的影响。如下三种技术在提高数据中心能效方面特别有潜力:

• 多核处理器

• 嵌入式冷却

• 芯片级冷却

现在,新的服务器基于多核处理器,使一款单一的处理器能够同时执行多个单独的任务,在单个处理器上运行多个应用程序,或在较短的时间内完成更多的任务。芯片制造商声称多核处理器可以减少功率和散热高达40%。

嵌入式冷却使用 Liebert XD 冷却基础设施提供高效率的冷却直接进入机柜中。这种方法带来的冷却更接近热源,并允许冷却系统针对特定机架环境进行优化。使用此方法如何高效的一个例子来自Egenera公司和艾默生网络能源公司的CoolFrame系统。该系统能够通过热量离开机架前将其移除,从而防止20千瓦的热量从Egenera公司的BladeFrame系统进入操作空间。

芯片级的冷却通过将热量从芯片移除进一步将这种方法发展到下一个新的水平。随着嵌入式和芯片级的冷却解决方案的部署,一个高效的三层的方法来实现数据中心冷却将出现。在这种方法中,热量能够有效地远离芯片,然后在机架上冷却,使得空调能够保持操作空间稳定的温度和湿度。

这些发展预计将不会降低数据中心冷却要求。相反,它们将导致计算能耗的增加,而计算则需要由一个特定的设施来支持。其结果是,今天所取得的效率的提升将继续在未来产生效益,而未来更新的技术的发展又将达到今天现有设施所不可能支持的密度。

结论

冷却系统是数据中心提高效率的一个显著的机会。在许多情况下,进行相对简单和成本便宜的变化,如提高操作空间的密封,移动电缆或阻碍空气流动的其他对象或安装冲板,可以立即产生效益。此外,采用新的技术,诸如可变容量操作空间空调和复杂的控制系统时,应考虑其对效率的影响。最后,补充冷却系统能够增加设备密度的一个响应,可以提高现有的冷却系统的可扩展性和效率。

【编辑推荐】

本文由澳门新萄京官方网站发布于服务器运维,转载请注明出处:数据中心要更加关注运营可靠性,通过提高冷却

关键词: