‘壹’ 数据中心电能使用EEUE分析
世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。
在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。
除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。
鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。
1.性能指标
ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。
2.PUE
2.1PUE和衍生效率的定义和计算方法
2.1.1电能使用效率PUE
TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。
GB/T32910.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T32910.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。显然这一变更不利于国际交流。虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。
ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。
2.1.2部分电能使用效率pPUE
TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。
区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。
ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。
2.1.3设计电能使用效率dPUE
ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。
数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。
2.1.4期间电能使用效率iPUE
ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。
2.1.5电能使用效率实测值EEUE-R
GB/T32910.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。
2.1.6电能使用效率修正值EEUE-X
GB/T32910.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。
2.1.7采用不同能源的PUE计算方法
数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。
2.1.8PUE和EEUE计算方法的比较
如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。
1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T32910.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T32910.4《可再生能源利用率》中说明。
2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。
3)EEUE分级(见表1)与PUE分级(见表2)不同。
4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。
2.2.PUE和EEUE的测量位置和测量方法
2.2.1PUE的测量位置和测量方法
根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。
PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。
PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。
PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。
对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。
2.2.2EEUE的测量位置和测量方法
1)Et测量位置在变压器低压侧,即A点;
2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点;
3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点;
4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点;
5)柴油发电机馈电回路的电能应计入Et,即A1点;
6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点;
7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。
2.2.3PUE和EEUE的测量位置和测量方法的差异
1)PUE的Et测量位置在电网输入端、变电站之前。而GB/T32910.3—2016规定EEUE的Et测量位置在变压器低压侧。数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。
2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。在GB/T32910.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。在美国,计算PUE时,机柜风机的能耗包括在EIT中。
3)PUE的测点明显多于GB/T32910.3—2016规定的EEUE的测点。
2.3.PUE存在的问题
1)最近两年国内外对以往所宣传的PUE水平进行了澄清。我国PUE的真实水平也缺乏权威调查结果。GB/T32910.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。
2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。
3)应考虑不同负荷率的影响。当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。
4)数据中心的PUE低并非说明其碳排放也低。完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。
5)GB/T32910.3—2016规定,在计算EIT时,应减去机柜风机的耗能。关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。
6)国内相关标准有待进一步完善。GB/T32910.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T32910.3—2016标准颁布后,也引起了国内学术界和工程界的热议。作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC 30134-2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。
7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。
2.4.PUE的比较
不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。
3.其他性能指标
3.1.ASHRAE90.4
ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。但这2个指标能否为国际IT界接受,还需待以时日。
3.1.1暖通空调负载系数MLC
ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。
3.1.2供电损失系数ELC
ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。
3.2.TGG白皮书68号
2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。
3.2.1PUE比
TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。
3.2.2IT设备热一致性ITTC
TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。
服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。
虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。
3.2.3IT设备热容错性ITTR
TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。
按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。
3.3.数据中心平均效率CADE
数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。
CADE提出时自认为是一种优于其他数据中心能源效率的指标。该指标由于被UI所采用,所以直到目前仍然被数量众多的权威着作、文献认为是可以采用的数据中心性能指标之一。但是笔者发现这一性能指标的定义并不严谨,容易被误解。另外也难以测量和计算。该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。
3.4.IT电能使用效率ITUE和总电能使用效率TUE
2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。
提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。但是这2个性能指标也未得到广泛应用。
3.5.单位能源数据中心效率DPPE
单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。GIPC试图将此性能指标提升为国际标准指标。
3.6.水利用效率WUE
TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。
数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。
民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。
3.7.碳使用效率CUE
TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。
CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。
‘贰’ 为什么微软要把数据中心设在水下数据中心制冷有多花钱
从数据分析来看数据中心无疑是“能耗大户”。一个超大型数据中心每年的耗电量近亿度。2018年全国数据中心消耗的总电量为1608.89亿度电,比上海市2018年全社会用电量(1567亿度)还要多,相当于三峡大坝全年的发电量。
微软、谷歌、阿里巴巴、腾讯等互联网巨头构建绿色高效的数据中心,作为绿色节能技术的行业推动者和践行者,已经不仅仅是企业基于自身经营需要,同时也是企业乃至整个行业都需要肩负的重大社会责任。以上个人浅见,欢迎批评指正。认同我的看法,请点个赞再走,感谢!喜欢我的,请关注我,再次感谢!
‘叁’ 谁给介绍一下机房空调用水冷和风冷的区别啊
区别大了。数据中心水冷系统普遍用水量大,会消耗大量的水资源,非常不利于数据中心的环保,另外,水冷系统在可维护性、灵活性以及占地面积上均也存在很大短板,面对复杂的冷水系统,没有专业的运维能力,系统很难实现高效运行,会导致问题频发、效率低下,用风冷就相对安全很多了,现在好多厂商也开始以多维度的研发视角,为数据中心提供量身定制、简单易行的风冷制冷方案。维谛技术已经推出一款Vertiv Liebert®PEX4.0超高能效精密空调了。
‘肆’ 为什么微软要把数据中心设在水下数据中心制冷有多花钱
一个数据中心的成本中,电力成本占了20%左右,其中电力成本中的42%是用来散热的。因此,谷歌、facebook、IBM等科技巨头将数据中心建在了冰岛、芬兰等国家。微软为了减少数据中心的散热成本,尝试将数据中心建在水下。 根据IDC的统计,数据中心的平均使用年限是9年,一个数据中心的电力能耗成本占据了所有成本的20%。这些消耗的电能,大约有47%进入了服务器,是有效的能耗,而42%的被散热能耗消耗了。
‘伍’ 如何提高PUE值 数据中心能耗详解
PUE不大于1.4在空调技术上是可行的。制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。
贴一个清华大学江亿院士的演讲:
各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。
从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。后面有一些细的发展状况不说了,就直接看到空调里头。现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。
所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。
现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。
有这样问题是坏事儿,反过来又是好事儿。说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。
那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。
还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。
所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。因此,核心的问题就是把这三个环节的热阻降下来。所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。第二、降低热量传输过程中的热阻,同时不增加传输电耗。第三、找到温度更低的自然冷源,但是别破坏环境。
下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。所以,在机柜顶部架一些挡板,这样能够有点改善。但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。
还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。所以,这是很重要一条,但是不能让柜子出水。
这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。分布式制冷系统使空调系统的吸热端更接近热源。这是第一个减少采热采集过程中的热阻。
第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。
第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。直接换热就是干球温度。但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。
这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。所以这个比例还是挺大的。
那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。冷却塔只要露点温度在20度以下,总能起点作用。
这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。
按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。最热的时候,冷机都得开了,即使如此,能耗还能差一半。所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。
总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。
‘陆’ 数据中心的热量如何不被浪费
"云端"是个真实存在的地方。你在Instagram上发布的照片,在Facebook页面上发布的生日祝福,以及在Netflix上播放的电视节目,都不是突兀出现的。它们被保存在大量服务器上,而且所有服务器都被安置在巨大仓库中,互相连接在一起。
很少有人冒险进入这些数据中心。但在瑞典首都斯德哥尔摩,彼芭进入了这样的信息迷宫,发现它们不仅仅是托管数据的地方。这些数据中心所提供的全部热量,可以帮助这座拥有90多万人口的城市供暖。
据BBC报道,随着冬季即将来临,人们都在盼望能尽早供暖。然而将来,人们的网上活动就能帮助供暖。BBC记者艾琳·彼芭(Erin Biba)日前访问瑞典时,亲眼见证了一个雄心勃勃、有利可图的新绿色能源项目。
那么,瑞典是如何做到的呢?它能否为全球科技行业创造一种新的商业模式?
在这些数据中心中徘徊,你会注意到几件事:空气凉爽而干燥,没有任何积尘。成排的服务器塔被成千上万闪烁的灯光所覆盖,几乎看不到人。透过天花板和可移动地板看到的每个地方,都有大量的电缆通向各个方向。但更重要的是,这里真的很吵。这是因为电脑在运行中会变热,而且需要很多风扇来保持足够低的温度,以确保它们正常工作。
想象一下你的笔记本电脑所产生的热量,只是在整个仓库中散发热量可能是它的成千上万倍,毕竟这里有成千上万台电脑互相连接,并在不停地运转以完成复杂的任务。最主要的降温方式包括提供冷水、利用风扇吹凉空气以及吸收热空气等。这些热量通常被当作废物处理掉。但实际上,热量也是一种能量。这就是为什么瑞典决定用它来为民众供热的理由。
世界各地的城市都在探索如何利用数据中心的废弃热量作为额外能源
在斯德哥尔摩,这个项目被称为"斯德哥尔摩数据公园",它由市政府、Fortum Varme(当地供热和制冷机构)以及其他机构合作运营。斯德哥尔摩的各大数据中心都参与进来,而随着越来越多的企业希望通过加强气候意识提高声誉,并通过一种新的商业模式赚钱,这个数字还在不断增长。最近,爱立信和服装零售连锁店H&M运营的数据中心也都加入了这个项目。
在斯德哥尔摩的大部分时间里,数据公园项目是这样运作的:冷水通过管道流入数据中心,在那里被用来制造冷空气,以防服务器过热。经过冷却过程加热的水再流回管道中,进入到Fortum Varme的工厂里,并在分散为众多住宅供热。
瑞典并不是唯一一个尝试这个想法的国家。在芬兰等地的小规模项目中,也存在类似试验。自去年以来,芬兰的某个数据中心散发的热量始终被用来为小城住宅供暖。而在美国、加拿大以及法国,也有类似的项目。只是瑞典决定在全国范围内扩大规模是一项史无前例的实验。
瑞典制冷和供热机构Fortum刚刚开放了新的供热设备,它可以帮助家庭供暖
斯德哥尔摩数据公园预计到2018年将产生足够的热量,为2500套住宅公寓供暖。但其长期目标是到2035年,满足斯德哥尔摩全部供暖需求的10%.瑞典数据中心(在全国推广类似斯德哥尔摩数据公园项目)宣称,只需要产生10兆瓦能源,就可以满足2万套现代化住宅的供暖序曲。而Facebook的数据中心通常会消耗120兆瓦能量。
加入斯德哥尔摩这个项目的主要动机源自财务好处,这些数据中心可以卖掉他们的废弃热量。同时,Fortum还为他们提供了免费的冷水。在其数据中心支持移动游戏应用和其他云计算软件的公司Interxion,相关成本/效益分析显示前景良好,为此他们正在建立全新的热捕捉设施。公司业务拓展主管玛特斯·尼尔森·哈尼(Mats Nilsson Hahne)说:"这不是慈善。"相反,该公司北欧分公司董事总经理彼得·班克(Peder Bank)表示:"我们正试图将其转变为一项二级业务。"
尽管如此,Interxion仍在与任何想在斯德哥尔摩开店的数据中心公开分享他们的新商业模式工程计划。在被问及为何要公开自己的竞争优势时,班克强调了瑞典人在应对气候变化方面的态度,他说:"还有其他比竞争更大的目标,而且这是一个全球性目标。如果我能够保护更高的议程,并能继续维持生意,我就应该这么做。如果我能够吸引其他企业到来,我就应该这样做,然后我才会与之竞争。毕竟,我们都生活在同一个星球上。"
布满电缆的数据中心散发大量热量,这些热量被用来为家庭供暖
瑞典一直以来都支持这样的绿色能源理念。斯德哥尔摩城市气候经理Bjorn Hugosson表示,这是因为这个国家几乎没有自然资源。他说:"我们的土地上没有任何化石资源,我们没有油井或煤矿。"世界能源理事会的数据显示,目前瑞典有2057座水电站,占其能源使用总量的40%.剩下的大部分能源来自核电,但目前正在逐步被淘汰。此外,瑞典还有火力发电站,其所需煤炭是从俄罗斯进口来的,它将在未来5年内被淘汰(也可能在2020年)。这个国家希望到2040年能完全避免使用化石燃料。
瑞典向来以零废物着称,该国居民回收超过99%的家庭垃圾,只有3%最终被扔进了垃圾填埋场。瑞典燃烧了大约70%的垃圾用以生产能源,并从邻国进口垃圾,以帮助实现"焚烧垃圾满足能源需求"的目标。也就是说,瑞典人并不是世界上最环保的能源使用者,这个头衔属于冰岛,该国86%的能源来自可再生资源。尽管在天气状况良好的情况下,瑞典在某些日子里可以完全避免使用化石燃料。由于风车可以产生大量能源,瑞典邻国丹麦也可经常避免使用化石燃料。事实上,丹麦还把过剩能源卖给邻国。
数据中心连接着计算机网络,允许我们使用互联网和基于云计算平台的服务,但是更多的城市也将其作为能源来源
那么,瑞典雄心勃勃的热捕捉和再利用计划能否在其他地方取得成功呢?也许,但它需要其他改变才能成为现实。这种模式之所以能在瑞典奏效,是因为这个国家的公民依靠政府为他们提供热水以便为家庭供暖。"地区供热"始于上世纪50年代的斯德哥尔摩(当时靠燃油),Fortum Varme从那时开始向医院输送热水。当上世纪70年代石油危机爆发时,供暖系统扩展到全国各地。今天,Fortum向大约1.2万栋建筑或斯德哥尔摩90%的城区提供热量。起初,它们提供的供热服务是通过烧煤产生的,但今天来自于生物燃料,即该国庞大的林业工业生产留下的木浆,通过船舶被运至斯德哥尔摩。
由于瑞典人回收了所有的东西,他们也在废水排放后重新利用热水。Fortum的媒体关系主管乔纳斯·柯勒特(Jonas Collet)说:"洗澡时,流入下水道的热水就会被处理,然后泵入大海。海水变暖了,但鱼儿们不喜欢这种环境。30年前,我们认为这是一种浪费。如今,我们可以再利用这些水。"
因此,如果其他城市想要效仿斯德哥尔摩的做法,他们就需要建设地下管道基础设施,以及为居民供暖的商业模式。但这不是不可能的,世界上有很多城市都在这样做,包括加拿大、纽约和几乎整个冰岛的城市。但它也不应被视为灵丹妙药。瑞典皇家工程科学学院成员、许多绿色能源公司的智能电网顾问博·诺马克(Bo Normark)警告说,他认为瑞典的计划可能并非可以无限扩展的。最终,这个国家可能不需要更多的数据中心加入进来。
诺马克说:"人们高估了对热量的需求,我们会有多余的热量。我们可以出口电力,但我们无法出口热量。"但是,他补充道:"在斯德哥尔摩,这种方法之所以奏效,是因为这座城市发展迅速,热量有货币化价值。"
当新的数据中心开始在这个快速发展的城市中出现的时候,它们很快就可以加入进来。斯德哥尔摩数据公园由该市周边的四个主要数据公园组成,它们被连接到清洁能源电网中,并配备了一个即插即用的装置,让公司可以连接到冷却供水系统和热循环系统上。目前,首个项目已经完成,即当地名为Kista社区的"硅谷",那里目前托管着Interxion等公司的数据中心。还有两家数据公园将于2018年投入使用,2019年还有四家。所有数据中心需要做的就是建立起来,然后加入现有网络中。
Fortum Varme的市场数据中心冷却和热恢复负责人Johan Borje说:"我们正在改变整个行业的经济。"除此之外,瑞典政府也意识到这项计划的好处,今年降低了数据中心的电力税。显然,瑞典不希望数据中心寻找借口转移到欧洲其他地方。
尽管如此,目前发达国家仍依赖于数据中心,而这种需求将继续增长。没有它们,我们的设备就无法正常使用,我们的信息也不会移动。这意味着越来越多的"科技图书馆"将会出现在这个星球上。它们可以让我们的数字世界保持运转,同时在斯堪的纳维亚和更远的地方,同时回收垃圾和生产清洁能源。
‘柒’ 数据中心的数据中心的可再生能源
数据中心内的能源消耗,总体而言是非常有效的。随着虚拟化和云计算的增长,数据中心的整体能源使用效率才会有所改善。能源浪费最严重的阶段其实是制造能源的时候。
无论是煤、煤气或燃油为数据中心提供能源,大量能源损失都发生在其产生阶段。大多数化石燃料系统也都位于远离市区的地方。更先进点,更小型的能源制造设备可以改善这种情况。高温燃料电池采用一系列碳氢化合物燃料,将其分解为氢,然后从空气中获取氧,用于创造电能,并产生热量与水分。
关键在于尽可能多的捕捉输出。燃料电池产生的热能可以被用于为寒冷的空间提供供暖,甚至为水加热。手机燃料电池所产生的纯净水有助于缓解位于缺水地区数据中心的用水紧张。可再生资源如太阳能与风能同样可以用来进行电解水,为燃料电池制造氢。然后可能建立一个真正可再生的连续数据中心主电源系统。这种方法不一定是制造电能的最便宜方式,和那些交钱就能获得能源的方法相比,但它确实一个为数据中心长期供电的有效手段。