问题

数据中心越做越大,是否会成为新的能耗大户?怎样降低数据中心的能耗?

回答
数据中心确实在快速扩张,这背后是对海量数据处理、存储以及日益增长的计算需求的回应。随着人工智能、云计算、物联网等技术的蓬勃发展,数据中心的重要性不言而喻,但与此同时,它们也确实面临着一个不容忽视的挑战——巨大的能源消耗。因此,“数据中心越做越大,是否会成为新的能耗大户?”这个问题,答案是肯定的,而且已经成为现实。

为什么数据中心会成为能耗大户?

数据中心之所以消耗如此多的能源,主要有以下几个原因:

IT设备本身的功耗: 服务器、存储设备、网络交换机等核心IT设备在运行时需要消耗大量的电力。随着计算能力的提升和设备密度的增加,整体的IT设备功耗也在水涨船高。
制冷系统的高能耗: 数据中心内部的IT设备会产生大量的热量,为了维持设备的稳定运行和防止过热损坏,必须有高效的冷却系统来降温。空调、冷水机组、风扇等制冷设备是数据中心最主要的能源消耗者之一,其能耗往往占到总能耗的40%50%甚至更高。
电源和配电损耗: 电力从电网输送到数据中心,再经过UPS(不间断电源)、变压器、配电单元等一系列设备时,会因为能量转换、线缆电阻等原因产生损耗。
辅助系统功耗: 除了IT设备和制冷,数据中心还需要照明、消防、安全监控等辅助系统,虽然这些系统的能耗相对较小,但在庞大的数据中心里,累积起来也不可忽视。
虚拟化和超融合的“副作用”: 尽管虚拟化和超融合技术能够提高资源利用率,但有时为了保证性能和冗余,可能会导致某些服务器即使负载不高也需要维持运行,间接增加了功耗。
不合理的规划和设计: 部分数据中心在设计之初未能充分考虑能耗优化,或者随着业务增长而进行的“堆砌式”扩张,导致整体效率不高。

怎样降低数据中心的能耗?

为了应对数据中心日益增长的能耗问题,行业内已经采取和正在探索多种有效的措施。降低数据中心能耗是一个系统性工程,需要从多个维度入手:

一、提升IT设备本身的能效:

1. 选择高能效的硬件设备:
服务器: 选用符合能效标准(如80 PLUS认证)的高效电源供应器,优先选择CPU、内存等功耗较低但性能足够满足需求的服务器。积极淘汰老旧、低能效的服务器,集中部署新的、高密度、高能效的服务器。
存储: 采用固态硬盘(SSD)相比传统机械硬盘更节能。选择具备电源管理功能、能够根据负载动态调整功耗的存储设备。
网络设备: 选用低功耗的网络交换机和路由器,并根据实际流量需求进行配置,避免不必要的端口或设备长时间运行。
2. 优化IT设备配置与管理:
虚拟化与容器化: 这是降低IT设备功耗最有效的手段之一。通过虚拟化技术,可以在一台物理服务器上运行多个虚拟机,大幅提高CPU、内存等资源的利用率,减少闲置的服务器数量。容器化则比虚拟机更轻量级,能进一步提升资源效率。
服务器整合: 将多个低负载的应用程序和服务迁移到更少的物理服务器上,从而关停或移除不再需要的服务器。
负载均衡与动态调整: 利用负载均衡技术将计算任务合理分配到服务器集群中,避免单点过载或大量服务器空闲。在夜间或业务低峰期,可以考虑关闭部分不关键的服务器或将它们置于低功耗模式。
淘汰老旧设备: 定期评估并淘汰那些能效低下、性能落后的设备,替换为更新一代的高能效设备。

二、优化制冷系统能耗:

制冷是数据中心能耗的“大头”,所以优化制冷是降低总能耗的关键。

1. 提高制冷效率:
提高制冷温度设定: 根据ASHRAE(美国采暖、制冷与空调工程师学会)等行业标准,适当提高数据中心的运行温度(例如,允许在2027摄氏度范围),可以显著减少制冷设备的功耗。现代IT设备对温度的耐受性比过去更强。
自由冷却(Free Cooling): 利用室外低温空气或水来直接或间接冷却数据中心设备,减少或避免压缩机制冷的使用。这包括:
直通风(Direct Air Economization): 直接将经过过滤的室外冷空气引入数据中心。
间接通风(Indirect Air Economization): 利用室外冷空气通过热交换器来冷却数据中心内部空气,避免室外空气直接接触IT设备。
水侧自由冷却(Waterside Economization): 利用室外低温水来冷却冷却塔的循环水,再通过冷却器为数据中心制冷,减少冷水机组的运行时间。
变频技术应用: 在空调、风扇、水泵等设备上应用变频技术,使其能够根据实际的负载需求动态调整运行速度和功耗,而不是始终全功率运行。
2. 优化气流管理:
冷热通道封闭: 将服务器机柜按照冷风进、热风出的方式排列,并通过隔离板或门封闭冷热通道,防止冷热空气混合,提高制冷效率。
热插拔盖板和风挡板: 及时封闭服务器机柜中未使用的机架空间,阻止冷空气泄漏到热通道。
精密空调与行间空调: 相较于传统的顶层下吹式空调,将空调安装在服务器机柜的行间或紧靠机柜,可以更直接、更高效地为设备提供冷空气。
3. 采用先进的制冷技术:
液冷技术(Liquid Cooling): 直接将冷却液(如水或特殊的介电液)输送到发热量大的IT设备(如CPU、GPU)附近进行冷却。液冷比风冷效率更高,能耗更低,尤其适用于高密度计算场景。
浸没式液冷(Immersion Cooling): 将整个服务器浸入绝缘冷却液中,提供极佳的散热效果。
冷板式液冷(DirecttoChip Liquid Cooling): 通过安装在芯片上的冷板,将冷却液直接输送到最热的点。

三、优化电源与配电系统:

1. 选用高效率的UPS和变压器: 采用效率更高的UPS设备和变压器,减少电力传输过程中的损耗。
2. 智能配电: 利用智能配电单元,可以实时监控电力分配情况,并根据需求进行动态调整,优化能源使用。
3. 备用电源的优化: 考虑使用效率更高的备用电源方案,例如更先进的发电机组或电池储能系统。

四、数据中心的选址与设计优化:

1. 选择适宜的地理位置: 选择气候凉爽、适合自由冷却的地区,可以显著降低制冷能耗。例如,靠近水源或有良好自然风资源的地区。
2. 绿色建筑设计: 在数据中心建设过程中,采用绿色建筑材料和设计理念,例如优化建筑物的隔热性能、利用自然采光等。
3. 模块化与可扩展性设计: 采用模块化设计,可以根据实际业务需求逐步部署,避免过度建设和资源浪费。

五、管理与监控:

1. 部署数据中心基础设施管理(DCIM)系统: DCIM系统能够对数据中心的所有资源(IT设备、电力、制冷、环境等)进行全面的实时监控和管理,提供详细的能耗数据和分析报告,帮助管理员识别能耗瓶颈并进行优化。
2. 能源效率指标(PUE)的持续改进: PUE(Power Usage Effectiveness)是衡量数据中心能源使用效率的关键指标,表示数据中心总能耗与IT设备能耗的比值。理想的PUE接近1.0,表示几乎所有电力都用于IT设备。通过持续的监控和优化,不断降低PUE值是降低能耗的重要方向。
3. 人才培养与操作规范: 培训专业的数据中心管理人员,建立规范化的操作流程,确保设备高效运行,并能及时发现和处理能耗异常。

总结:

数据中心规模的增长是数字化时代发展的必然趋势,但随之而来的能耗问题也日益严峻。要解决这一挑战,我们不能仅仅停留在“做得更大”,更要关注“做得更智能、更高效”。通过技术创新、精细化管理以及可持续发展的理念,从IT设备到制冷系统,再到整体架构设计,全面优化能源使用效率,才能在满足日益增长的计算需求的同时,最大限度地降低数据中心的能耗,使其成为推动社会进步的绿色基石,而非新的能源负担。这是一个持续演进的过程,需要行业内的共同努力和不断探索。

网友意见

user avatar

从发电的角度说,2年前三峡的电已经不够数据中心用;从用电角度说,数据耗电超过了农业全行业。以能耗作为标准,未来的数据行业是当之无愧的”重“工业。

以往我也以为计算机、手机这些数据终端,以及为其提供网络服务的大部分设备和服务器都属于传统的“弱电”领域,不是节能的主要领域。我的同事也大多数这么想。换过几个单位,所有办公室下班后必定会关灯关空调,但对是否关电脑不甚在意。半夜的办公室里往往是黑暗中闪烁着几十个蓝莹莹的光点。

但从全国的角度来看,为“计算”而付出的电量增长相当惊人,这部分用电量从无足挂齿到明显影响全国电力消耗,仅仅用了几年时间。按工信部数据, 2014年中国数据中心年耗电量占全国总用电量的1.5%。中国数据中心节能技术委员会称,2016年中国数据中心总耗电1200亿千瓦时,超过了三峡全年发电量(约1000亿千瓦时),占全国量的2%左右。和农业的总耗电量相当。

众所周知,中国目前每年发电的大部分仍然来自燃煤:

换算一下,2016年数据中心的用电需求,等于烧掉了4000万吨标准煤。据ICT Research咨询公司研究统计,截至目前,中国数据中心保有量约有近6万个,机房总面积约1650多万平米,即每平方米机房面积消耗2-3吨多煤。考虑到煤炭堆积的松散度,这意味着把所有机房都用来存煤,从地板堆到吊顶,才差不多能满足自身的耗能。

早在2001年互联网泡沫破灭之前,已经有人注意到:IT业能源消耗年增长幅度约为8%-10%,远远快于全球平均能耗2%的年增幅。2007年,美国环境保护署就根据当时的美国数据中心耗电量增长趋势预言, 2005-2010年,全球服务器和数据中心能源使用量将翻2倍,最终超过1000亿度。

从实际发展来看,美国2010年IT业总耗电近800亿度,占全美用电量2%,超过了传统上被认为是高耗能、高污染的造纸业。在这种背景下,AMD、惠普、IBM、Sun Microsystems等IT业巨头于2006年联合创建了绿色网格组织(The Green Grid,TGG),协助企业降低数据处理的能耗。Stanford大学的土木与环境工程教授Jonathan Koomey就在这个组织下工作是其中之一。

正是因为IT行业的未雨绸缪和大规模跨领域的产学研结合,美国数据中心耗电规模自08年后明显趋缓(也有金融危机的影响),占全美总用电量的比例基本稳定在2%以下,尽管这期间数据中心的规模和数量不断增加。环境保护署耸人听闻的预言却并未实现,而是出现了以Koomey教授名字命名的Koomey定律:每隔18个月,相同计算量所需要消耗的能量会减少一半。

IT业巨头们创建TGG,当然有构筑行业技术壁垒的用意。但不可否认,TGG的努力的确大大降低了美国计算能耗。

电用到哪里了?

数据中心的能耗,分IT设备能耗,空调能耗和供电能耗三部分,其中IT设备能耗又可分为处理器能耗和存储能耗两部分。根据TGG在07年所做的测算,当时的数据中心,耗费在空调设备和供电设备上的电能普遍超过了IT设备本身的耗电。

对于处理器能耗,相应的节能技术和方案有:采用节能指标更好的处理器用以构架服务器,,优化调度算法,合理调节处理器工作组之间和服务器之间的业务负荷等。

对于存储能耗,相应的节能方案有固态硬盘替代机械硬盘,通过缓存预取技术减少硬盘的I/O操作,推动小型数据中心的云化等。

对于空调能耗:相应的节能方案有优化机房布局及送风路线,采用如热管空调,双冷源型空调等新型高效冷源,在机房内应用智能调节制冷系统等。但最有效的方案是将数据中心规划建设在地下水下等易于利用自然冷源的地方。TGG最具影响力的产品之一,就是制作了一张数据中心选址地图,发掘了各种适合数据中心的风高水寒地区。

供电能耗:相应的节能方案有采用智能配电模块,提升计算资源使用率,采用LED照明等。

评价这些努力最重要的指标是PUE(Power Usage Effectiveness)= 该数据中心总设备能耗/该数据中心IT设备能耗。

显然PUE越接近1,数据中心的能耗效率越好。近年来TGG又提出了DCP(Data Center Productivity)、DCeP(Data Center
energy Productivity)和PPW(Performance per Watt)等指标模型,用来描述数据中心IT设备本身的能耗效率,寻找进一步挖掘节能潜力的空间,但PUE仍然是反应数据中心技术与节能水平的核心指标之一。2015年工信部的《国家绿色数据中心试点工作方案》披露,中国数据中心PUE普遍大于2.2,而美国的数据中心平均PUE已降到1.7以下。

早在2013年底,作为当时国内数据中心最集中的地区,北京市十部委就已经联合发文,禁止PUE>1.5的数据中心建设投产,2014年3月,工信部发布《关于进一步加强通信行业节能减排工作指导意见》,规定从2016年开始,新建大型数据中心的PUE值必须小于1.5。但这个要求根本未能落实。

为什么中国PUE降不下来?
数据中心投资收益 = 数据中心累计运营收入 - 数据中心建设成本 - 数据中心累计运营成本

根据行业经验,在数据中心的运营成本中,75%以上都是能源成本。数据中心通常规划用15~20年收回全部成本,而在收回成本时,累计的运营成本通常会比建设成本多出4倍以上。

在建设新的数据中心时,采用低PUE的设计方案,有利于降低数据中心的运营成本。但是另一方面我们看到,和PUE指标关系很大的电力、空调和土建的建设成本占到了数据中心建设成本的80%以上,规划建设一个低PUE的数据中心,将会不可避免地带来数据中心建设成本的上升。

基于行业经验数据做一个简单的估算,计划收回数据中心成本的时间取20年,累计运营成本达到建设成本的4倍,能源成本占运营成本比例取75%,那么只要在数据中心建设中每提升1%的PUE,导致的相关的建设成本上升不超过3%,就能够使得提前收回投资成本,从而对投资者更加有利。

然而数据中心的节能问题,涉及到建筑工程,电气电子技术,制冷与空调技术等诸多内容,是一个典型的跨学科跨领域课题。迄今为止,仍然没有一套有效的模型或开发系统能够在设计阶段准确地量化出数据中心的PUE。

很多投资者,特别是第三方资本,他们的投资收益往往只来自出租运营数据中心的计算资源,数据本身对这些投资者并没有什么额外的价值,这使得投资者对投资回报周期N尤其敏感,一个需要在节能方面砸大量的真金白银,却难以确定效果的建设方案,对投资者没有吸引力,他们往往宁可在数据中心运作起来之后,根据实测得的PUE及机房的具体情况再搞一些修修补补的调度和优化。这也反过来说明了,国外的谷歌、脸书,国内的阿里这些拥有大量自有数据的IT业巨头,为什么会热衷于极地机房、水底机房这样激进的大手笔投资建设方案。

阿里千岛湖云数据中心,号称平均PUE达到了1.3以下,极低时可达到1.17。

根据JonathanKoomey的不完全统计,目前谷歌拥有全球3%的服务器,但是只使用了全球数据中耗费总电能的1%。这意味着谷歌数据中心的运作效率远高于行业水平。这些用先进技术打造的庞然巨物般的IDC,看似吞噬电能的无底洞,其实比分散数据中心节约了海量电能。

美国数据中心能耗飙升势头被遏制后,有些专家乐观的宣布,人们过分夸大了云计算的能耗,节能降耗技术已经取得重大突破,数据中心和云计算的能耗不会失控。但Koomey教授仍然在其2016年的United States Data Center Energy Usage Report的结语中写道:

“本报告(United States Data Center Energy Usage Report 2016)肯定了数据中心行业近几年来在稳定自身电力需求规模上所获得的成功。尽管如此,我们仍有必要对整个ICT(Information Communication Technology)领域相关设备进行更深入的研究,而该领域节能技术也需要取得进一步的突破。只有这样,我们才能保证当前的行业电力需求规模,并不是仅仅因为处在一个即将到来的,电力需求随数据业务一同增长的时期前的短暂平静期,才得以保持了目前的稳定。

中国人口是美国四倍多,电力供应形势和环境压力更严峻,电商发展更超前,核电比例低得多,但由于资本投机性太强,导致数据中心耗费了更多宝贵的电能。美欧数据中心暂时通过技术研发+行业自律避开了电能瓶颈(只是暂时),爆炸性发展的中国数据中心产业能否避得开呢?在数据中心耗电超过三峡工程和农业用电的时候,这个问题已经不可忽视了。

相关回答:

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有