澳门新萄京官方网站-www.8455.com-澳门新萄京赌场网址

数据基本节约能源的二种政策,刀片式服务器各

2019-07-07 作者:服务器运维   |   浏览(156)

ILM公司Industrial Light & Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度反而更好高了:现在每个机柜用电28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能会透过机柜散发到数据中心,最后由数据中心的空调系统带走。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。表1对此进行了概述。  

图片 1

  要应用刀片服务器,必须选择其中一种方法。这种选择要基于目前设施的制约因素以及用户的需要和喜好。

  应用方法的选择

  了解了现有设施的制约因素并且在用户的各种需求和偏好间进行了适当取舍之后,就可以从前面所述的5种基本方法中做出选择了。刀片服务器的应用方法的选择是基于散热问题的,因为这些问题是实际系统中最主要的制 约因素。确定应用方式后,电力供应问题也就随之确定了。

  影响应用方式的最主要的不确定因素就是刀片服务器的密度问题。许多用户更愿意将刀片服务器以最大密度安装。在现有的数据中心环境中这往往不是一个恰当的选择。实际上大部分刀片服务器都采用模块化的机架结构,可以以较低的密度在机柜中安装。例如,IBM BladeCenter采用独立的机架,一个机柜中可以安装1到6个刀片不等。虽然降低安装密度看上去没有充分发挥刀片服务器的优势,但实际上系统的成本、可用性和安装速度都有所提升,特别是在现有的数据中心环境中安装刀片服务器的情况。

  目前的许多数据中心设计的功率密度为每个机柜2kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。正因为这个原因,在现有数据中心中安装刀片服务器时节省空间通常是没有实际好处的。因此,在现有数据中心分散放置刀片服务器是既实用又划算的。以饱和密度安装刀片服务器通常只是在专为支持高密度方案新建的机房设施中比较划算——安装规模极大或者空间极其狭小。

  因此,刀片服务器安装的核心选择就是刀片服务器安装的分散程度――即每个机柜中安装多少个刀片。用户选择的刀片服务器的品牌和型号可能会制约刀片的分散程度,例如,一些刀片服务器采用独立的机架,这种设备就易于分散安装。而另外一些刀片服务器采用一种底板系统,这种系统使得分散安装不切实际。要了解有关这 个问题的更全面更详细的讨论,参见与具体刀片服务器品牌相关的“APC应用说明”。按照前面所述的五种主要刀片服务器应用方法规划好刀片服务器的应用密度后,其结果如表2。  

图片 2

  

图片 3

  表2表明,在30种不同的功率密度和应用方法组合中,有大约11种首选组合和7种临界的组合――共18种比较切合实际的应用方式组合。要选择最佳方案,必须把数千种用户的偏好、制约因素和现有的条件等数据与这18种应用方式组合进行比对。这种比对需要进行广泛的分析,遵循许多规则,这一过程可以象软件运算一样进行。但本白皮书中不做详细叙述。

  在开发工具进行这种分析的过程中,我们得出了在实际工作中经过长期观察得出的一些关键的经验:

  如果在房间中需要安装的刀片服务器机柜超过总机柜数量的25%,那么现有的数据中心的电力和散热 系统可能需要进行全面改造。这说明如果安装数量达到这个限度,用户就需要重建一个机房,否则就得把数据中心关闭一段时间进行系统改造。

  如果现有的数据中心计划安装1到5个刀片服务器机柜,那么为了将对数据中心正常运转的影响降到最低,同时降低安装成本,以饱和密度的25%或50%的数量(如每个机柜中最多放置3个机架)进行安装最合适。对大多数数据中心来说,实现非常高的功率密度所需的成本比增加几个机柜位置所需的空 间成本要高得多。

  现在的数据中心一般都是为系统设备整体提供散热和电力供应,辅助散热方案能够以较低的成本提高应用密度,同时达到可预测的散热效果。

  不当做法

  下面列举了数据中心管理人员平时经常会采用的一些方法和做法,但这些方法是有缺陷的,对解决问题帮助不大,而且往往会使情况更糟。

  降低空气温度。用户通常会通过调低机房空调的温度设定来降低机房的空气温度,以解决数据中心中出现的一些热点。这是用户操作最容易也是最差的做法。采取这种做法会降低空调系统的能力,大大增加增湿器的水消耗量,大大降低数据中心的运行效率(结果还会让你帐单上的电费增加)。所有这些都会发生,而问题根本 得不到解决,因为这是气流的问题,而不是空气温度的问题。

  地板格栅。另外一个看似合理的措施就是把垫高地板的通风地砖换成气孔更大的格栅。这种格栅的样子不是我们所熟悉的带孔的地砖,而是有点象火炉篦子。这种方法对于孤立的机柜会有帮助,但会有严重的副作用――特别是大量使用这种地砖的情况下。在数据中心使用这种地砖通常会导致其它区域的气流减少,但更重要的是这些格栅会引起地砖间的气流发生重大的不可预测的变化。这一问题在APC白皮书46“超高密度机柜和刀片服务器的散热策略”中有详细说明。

  机柜顶部风扇。在机柜顶部安装风扇的情况非常普遍――尽管这些风扇对于一个设计完好的IT机柜中一点好处也没有。服务器过热的原因并不在于机柜内部,而是在于服务器前部进入口处的热空气。这些风扇只能是产生 更多的热量,甚至会降低一个设计优良的数据中心的散热能力。许多用户在目的不明确的情况下按照传统的规格确定风扇的规格。也有一些与机柜配套的有效的风扇辅助设备,这些设备在APC白皮书42“解决应用高密度服务器引起的散热问题的十个步骤”中有更详细的说明。

  孤立机柜。有时候用户会把机柜从整排机柜中单列出来,试图在一定范围内降低机柜密度,让通风地砖的气 流能够更多地接触到机柜。但是这种方法使得设备排出的热气在机柜周围回流到服务器的进气口。整体效果并不是很好。更好的方法是让机柜处于热通道和冷通道的安排中,在刀片服务器机柜之间用带隔板的不加负载的机柜隔开,加宽冷通道,使用辅助散热设备和/或热通道密封系统来增强散热性能。

  结论

数据基本节约能源的二种政策,刀片式服务器各样散热格局。  在现有数据中心中应用刀片服务器会给数据中心的电力和散热系统带来压力,这种压力不容忽视。有多种方法可以用来给刀片服务器提供电力或散热功能。针对某一具体安装的最好的方法要根据现有设计的制约条件和数据中心管理人员的需求和喜好而定。

  本文概要阐述了涉及刀片服务器应用的相关事宜和选择。还描述了根据现有数据中心的制约因素和用户需求来选择应用方法的流程。

參考:

在数据中心里面,企业用户往往会把目光集中在服务器、存储、网络等IT设备上,而忽视了其他设备在数据中心节能、减震等方面的作用。特别是机柜的好坏,往往在采购人员和运维人员不以为然。实际上,机柜在数据中心也有着其非常重要的作用,不同的机柜常常会带来差别很大的效果。

原文地址

占据中国经济最大比重和命脉的中央大企业集团,同时也是能耗的大户,他们受到了来自政府的节能减排业绩考核,所以这些中央大企业集团迅速将节能减排的指标层层分解下达各级下属企业,并作为重点考核项目。同时,各企业也希望通过节能减排,通过“绿色行动计划”推进成本的长期降低,达到公司快速、健康、持续发展的目标。

新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。

数据中心现在关心的重点是节能。在目前的经济不景气,全球经济复苏遥遥无期的现实下,企业想尽办法来开源节流。数据中心的电能消费也成为很多企业的心病。数据中心耗能是非常巨大的,美国有关机构就此做的调查表明,数据中心耗电量占美国总体耗电量的比例已接近2%.而在数据中心里耗电最多的是空调制冷设备,并不是人们心目中认为的IT设备。空调耗电量在数据中心总耗电量中超过40%.在企业的数据中心,近50%左右的电能是被耗损的,如果采取散热降耗和提高设备工作效率等相关的节能措施,可有效地降低数据中心的电能损耗和运营成本。

"互联网 "正如火如荼,其背后支撑的基础设施云计算也迎来高速发展期。提起云计算,很多人会想到绿色、经济、环保、高效这样的词汇,而将注意力都集中在如何解决其安全、可靠的问题上。但是,云计算真如概念普及的那样,属于绿色产业吗?

IDC能耗特点

惠普副总裁兼关键基础设施服务部门总经理Peter Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100-200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统有可能保证用电量达25千瓦的机柜。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统最高极限了,从事数据中心能效研究的IBM 研究员兼首席工程师Roger Schmidt说,“ILM是在挑战30千瓦的极限,这将注定是一个相当艰苦的工作。”

机柜节能

正视云计算的能耗问题

业务和管理的电子化和网络化发展,导致企业关键业务的支撑、运行和重要数据的存储,离不开数据中心(IDC),因此IDC现在得以快速发展和大量建设。但IDC由于设备集中,大型主机数量众多,成为了企业的用电大户。据初步统计,电信运营商的电力消耗约占公司总体消耗的87%,87%的电力消耗中有73%左右消耗在基站和机房上。根据我们对西安某电信大楼的测量,IDC机房中UPS和空调的用电量超过了整个大楼用电量的80%,而IDC机房面积不足大楼的5%。

这是可持续发展?

图片 4
无奈:某机房为了节能,提高空调温度,用烟筒为机柜排热

其实不然。服务器(电脑等硬件设备)是一个云数据中心的重点构成部分,承载超大虚拟机密度的服务器,特别是强大的刀片服务器,虽然更有效的实现了服务器整合,但较之前一代相比,却可以多消耗四倍乃至五倍的能量。并且,很多疏于管理的数据中心并没有选择行之有效的办法来解决这个问题,以至于需要重新设计电力和冷却系统,付出更大的成本。

但IDC机房又是节能的难点,越来越强处理能力的服务器,越来越大容量的数据存储设备和网络设备,需要消耗更多的电能。而集成度越来越高的设备,发热量越加集中,导致机房温度控制是个很大的问题。如果将IDC机房空调和机房散热的问题解决好,IDC机房用电问题就可以有效缓解。只有对降低机房能耗的新技术与新方法进行研究,力求通过合理选用服务器机架、合理进行散热规划、优化机房设计、布局、使用等方面,提高机房散热效率,降低IDC机房的整体能耗,才能达到节能减排的目标。

现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

数据基本节约能源的二种政策,刀片式服务器各样散热格局。中国某政府部门的一个数据中心调查显示,该数据中心,IT设备的耗电量之占总机房耗电量的三分之一。 而随着刀片服务器的应用,一个机柜内IT设备的密度大大增加,造成了机柜内的耗电量急剧增加。

除此之外,围绕着服务器,还需配置照明系统、后备电源、制冷设备等配套设施,不少服务商为了确保数据中心不间断运作,使整个系统24小时都处于开启状态。其中用户浏览文章、下载视频、发邮件、在线阅读、购物等属于可见的直接耗电行为,而为了支持这些行为在互联网上流畅运行,服务商实际背负着高额电费。曾经有数据表明:“在Google的数据中心,每处理100次搜索,相当于消耗28分钟的60瓦照明的用电量。”

...

Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

图片 5

再举一个例子,造纸工业属于重点耗能行业之一,在生产过程中大量消耗热能、电能和水,在我国,造纸业耗能占整个工业能耗的2%左右,居轻工业耗能之首。然而经过对比发现,云数据中心比传统造纸业还要耗电。据绿色和平组织估计,如果把全球云计算产业比做一个国家,其能耗排在第六位,介于德国和俄罗斯之间。因此,无论是出于环保考虑抑或是运营成本考虑,绿色节能都应成为云计算的重要运行方式。

ILM信息技术总监凯文-克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这也符合当今节能环保的大趋势。根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克无法知道,这种计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的角度来说,就是难以满足需求的。”他说。

图片 6

智能电源管理,鱼和熊掌可以兼得

他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发展,每两年计算密度增加一倍。然而,现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更密集晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。

...

其实,对能耗的优化是可以依靠建设智能数据中心来实现的,通过电力消耗监控,提升数据中心的灵活性,提升数据中心设备和资源的智能化管理,进而实现TCO的精确控制。而实际情况是,数据中心运维人员都知道最直接的节电方式就是关闭那些闲置的设备,或者重新分配工作任务、调整他们的位置,但却不知道从何入手。

现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这值得数据中心经理们注意。

根据The Green Grid的研究报告,测量数据中心IT设备能耗的最有效的方法是测量机房PDU的输出电量,它表示出数据中心向服务器机柜输送的总电力。因此,选择有效的能源管理解决方案,能帮助企业查找所有闲置或者未经使用的服务器,并利用资产成本分析来进行判断。以力登公司的Power智能电源管理解决方案为例,它利用智能PDU和Power IQ管理软件,通过一个单一的Web界面,可以清楚了解IT设备、PDU出口组、机架、分支电路的电源、电流、电压、温度、湿度等基础数据,这些数据不仅可以帮助管理人员改善数据中心供电的有效性,还能清楚得看到每台服务器的工作效率,然后根据数据的追踪关闭那些闲置或者处于休眠状态的服务器,这些服务器的数量通常占到了数据中心服务器总量的10%到30%左右。

IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21%的人将电力和制冷列为数据中心当前面临的最大挑战。将近一半43%)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。

同时,智能电源管理能有效的解决服务商对于系统安全的担忧。在各种系统运行过程中会发生一些未知的故障,尤其当物理服务器承载了多个虚机之后,一旦负载过大,重新启动可能是最后的机会。这些主机大多不会在本地IDC机房,必然需要通过远程进行管理。而远程重启是智能PDU的一个最基本功能,管理员不必跑到现场即可解决主机锁死问题,轻松进行重启操作。此外,力登的智能化PDU更兼具插座级、相位级和PDU级电流计量功能以及阀值/警报功能。在发生过载问题前,它能够对濒临过载的情况发出告警通知,从而避免安全事故的发生,因此在安全性方面比普通型PDU有显著的提升。

Christian Belady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82%。

云计算、云安全、低碳环保、节能减排绝不是割裂的,而是犹如环环相扣的生物链般紧密结合。智能电源管理解决方案应当成为保障这一生物链可持续发展的必由之路。

“我们必须改变过去的那种错误观点,就是计算密度越高越好。”Belady说,“要知道,你的计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”

原文地址

格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本变化不大,但由于功率密度增加而带来的运营成本却大大增加了。

图片 7
 

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。

计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。 “很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特说。

Gartner公司的分析师拉克什库马尔说,从电力使用和成本的角度来说,功率密度不可能无休止地增长下去。幸运的是,大多数企业的数据中心机柜的电力消耗暂时还没有达到像ILM这样的水平。Gartner的客户中约有40%其数据中心每个机柜功率为8-9千瓦,当然有些则高达12至15千瓦,不过,功率呈明显上升趋势。

现在,一些企业数据中心和一些对外提供托管服务的IDC开始对用电情况进行监测,并把它作为数据中心的依据之一,而它们在以前只是按照租用空间收费的,根本就没有考虑到底用多少电。有些IDC针对大客户采用根据用电多少决定收费多少,也就是用户先提出最高要用多少电,IDC再据此给其分配相应的空间。

Light Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平...

本文由澳门新萄京官方网站发布于服务器运维,转载请注明出处:数据基本节约能源的二种政策,刀片式服务器各

关键词: