数据中心节能改造与实践案例-国瑞沃德VIP专享VIP免费

数据中心节能改造与实践案例
Energy conservation retrofit and
practical case of data center
国瑞沃德(北京)低碳经济技术中
2021.11.9
Green World Low-carbon Economy & Technology Center
November 9, 2021
关于作者
课题组成员
王健夫 国瑞沃德(北京)低碳经济技术中心 主任
蒋习梅 国瑞沃德(北京)低碳经济技术中心 副主任
李淑祎 国瑞沃德(北京)低碳经济技术中心 技术总监
谭盛钰 国瑞沃德(北京)低碳经济技术中心 研究助理
国瑞沃德(北京)低碳经济技术中心 研究助理
中国电子学会
ABOUT THE AUTHORS
Wang Jianfu, Green World Low-carbon Economy & Technology
Center, Director
Jiang Ximei, Green World Low-carbon Economy & Technology
Center, Deputy Director
Li Shuyi, Green World Low-carbon Economy & Technology Center,
Technical Director
Tan Shengyu, Green World Low-carbon Economy & Technology
Center, Research assistant
Guo Miao, Green World Low-carbon Economy & Technology
Center, Research assistant
Guo Feng, China Institute of Electronic, Senior Engineer
致谢
本研究由国瑞沃德(北京)低碳经济技术中心统筹撰写由能源
基金会(美国)京办事处提供资金支持。
本研究是能源基金会工业项目/工作组下的课题,项目名称是《数
据中心制冷系统能效提升标准开发与地方实践》。
在本项目研究过程中,研究团队得到了中国电子学会、上海市能
效中心、中国标准化研究院、国家发展和改革委能源研究所、中国电
子节能技术协会、中国电子技术标准化研究院的大力支持,包括:
娟主任、唐戈老师秦宏波副主任、彭妍妍主任、熊华文主任、吕天
文秘书长、李舒平老师等,在此向他们表示诚挚感谢。
ACKNOWLEDGEMENT
This report is a product of Green world Low-carbon Economy &
Technology center and is funded by Energy Foundation China.
This report is part of the research project under Energy Foundation
China’s Industry Program, which is Development of Cooling Efficiency
Improvement Guideline for Data Centers and Implementation of Local
Pilots.
The team is grateful for the generous support it received
throughout this research from China Institute of Electronic, Shanghai
Energy Efficiency center, China National Institute of standardization,
Energy Research Institute National Development and Reform
Commission, China Electronic Energy Saving Technology Association,
China Electronics Standardization Institute including Wang juan, Tang
ge, Qin hongbo, Peng Yanyan, Xiong huawen, Lv Tianwen, Li shuping.
数据中心节能改造与实践案例Energyconservationretrofitandpracticalcaseofdatacenter国瑞沃德(北京)低碳经济技术中心2021.11.9GreenWorldLow-carbonEconomy&TechnologyCenterNovember9,2021关于作者课题组成员:王健夫国瑞沃德(北京)低碳经济技术中心主任蒋习梅国瑞沃德(北京)低碳经济技术中心副主任李淑祎国瑞沃德(北京)低碳经济技术中心技术总监谭盛钰国瑞沃德(北京)低碳经济技术中心研究助理郭淼国瑞沃德(北京)低碳经济技术中心研究助理郭丰中国电子学会ABOUTTHEAUTHORSWangJianfu,GreenWorldLow-carbonEconomy&TechnologyCenter,DirectorJiangXimei,GreenWorldLow-carbonEconomy&TechnologyCenter,DeputyDirectorLiShuyi,GreenWorldLow-carbonEconomy&TechnologyCenter,TechnicalDirectorTanShengyu,GreenWorldLow-carbonEconomy&TechnologyCenter,ResearchassistantGuoMiao,GreenWorldLow-carbonEconomy&TechnologyCenter,ResearchassistantGuoFeng,ChinaInstituteofElectronic,SeniorEngineer致谢本研究由国瑞沃德(北京)低碳经济技术中心统筹撰写,由能源基金会(美国)北京办事处提供资金支持。本研究是能源基金会工业项目/工作组下的课题,项目名称是《数据中心制冷系统能效提升标准开发与地方实践》。在本项目研究过程中,研究团队得到了中国电子学会、上海市能效中心、中国标准化研究院、国家发展和改革委能源研究所、中国电子节能技术协会、中国电子技术标准化研究院的大力支持,包括:王娟主任、唐戈老师、秦宏波副主任、彭妍妍主任、熊华文主任、吕天文秘书长、李舒平老师等,在此向他们表示诚挚感谢。ACKNOWLEDGEMENTThisreportisaproductofGreenworldLow-carbonEconomy&TechnologycenterandisfundedbyEnergyFoundationChina.ThisreportispartoftheresearchprojectunderEnergyFoundationChina’sIndustryProgram,whichisDevelopmentofCoolingEfficiencyImprovementGuidelineforDataCentersandImplementationofLocalPilots.TheteamisgratefulforthegeneroussupportitreceivedthroughoutthisresearchfromChinaInstituteofElectronic,ShanghaiEnergyEfficiencycenter,ChinaNationalInstituteofstandardization,EnergyResearchInstituteNationalDevelopmentandReformCommission,ChinaElectronicEnergySavingTechnologyAssociation,ChinaElectronicsStandardizationInstituteincludingWangjuan,Tangge,Qinhongbo,PengYanyan,Xionghuawen,LvTianwen,Lishuping.前言近年来,中国数据中心飞速发展。“十三五”期间,全国数据中心机架数量增长超两倍,机架数量达320万架,数据中心数量超过7.4万家,占全球的23%。数据中心业务市场规模突破1200亿元,阿里、腾讯、华为等行业巨头在全球排名领先。2020年以来,以5G、云计算、大数据、物联网、人工智能、区块链等为代表的“数字基建”,在推进疫情防控和疫后经济复苏上发挥了重要作用。数据中心作为新基建有序运行的基础保障,被视为“新基建的基础设施”、经济高质量发展的“数字底座”,已经被写入当前的政府工作报告,发展前景广阔。在飞速发展的同时,数据中心高能耗问题凸显。从能耗增长速度上看,中国数据中心耗电量增长率连续八年超过12%,大幅高于全社会用电增长水平,预计2020年数据中心的用电量有望突破1000亿千瓦时,占全社会用电量的比重高达1.5%。2020年9月22日,习近平总书记在第75届联大一般性辩论上宣布,中国将提高国家自主贡献力度,二氧化碳排放力争于2030年前达到峰值,努力争取2060年前实现“碳中和”。在全国上下积极探索减排和低碳发展路径,努力实现碳达峰碳中和目标的背景下,数据中心的高耗能问题亟待更好、更迫切的解决方案。数据中心节能工作不仅有利于国内“双碳”目标的实现,还有利于企业降低成本和提高竞争力。从全球范围看,微软、Google、IBM、英特尔等行业巨头不断加大节能降耗的研发力度,力图占据技术的制高点,在全球业务市场和碳市场上占领先机。从国内数据中心节能现状看,领头企业在数据中心绿色化方面成效显著,但总体来看,国内数据中心能效提升和节能管理工作任重而道远。1基于此,受能源基金会委托,由国瑞沃德(北京)低碳经济技术中心牵头,在中国标准化研究院、上海能效中心、中国电子学会的共同参与下,2020-2021年期间开展了“数据中心制冷系统能效提升标准开发与地方实践项目”研究。本报告《数据中心节能改造与实践案例》是项目成果之一。报告系统分析了国内数据中心发展和节能现状,梳理了数据中心节能政策环境和标准体系,提出了数据中心节能技术改造措施,同时对地方先进经验进行总结和案例分析。在此基础上,提出了数据中心节能政策建议。在报告编写过程中,课题组走访了多家行业协会、研究机构和最佳案例实践单位,开展了一系列专家座谈活动。报告得到了国家发改委能源研究所、中国节能协会、国家节能中心、上海市能效中心、北京科技通电子工程有限公司、世纪互联等机构专家的指导和支持。同时,特别感谢能源基金会的大力支持。希望通过项目研究,能够为国内数据中心节能工作提供一定的参考。“数据中心制冷系统能效提升标准开发与地方实践”课题组国瑞沃德(北京)低碳经济技术中心2021年10月15日目录前言.....................................................................................................01.数据中心发展现状和能效水平.................................................11.1数据中心发展现状............................................................11.2数据中心能源消费情况....................................................61.3数据中心能效现状与问题..............................................102.数据中心节能政策和标准体系...............................................132.1国家和地方相关节能政策措施......................................132.2国家及地方相关节能标准规范......................................183.数据中心节能改造技术措施...................................................283.1概述..................................................................................283.2建筑与建筑热工...............................................................303.3信息系统............................................................................313.4通风及空调系统................................................................333.5电气系统............................................................................453.6能耗管理..........................................................................514.数据中心节能改造实践案例...................................................534.1中国电建总部数据中心节能改造...................................534.2贵州省信息园数据中心智能新风系统...........................554.3黑龙江省某数据中心蒸发冷却改造...............................5724.4江苏省某互联网数据中心智能群控系统改造...............584.5上海某数据中心制冷系统智慧节能案例.......................614.6数据中心节能改造实践经验...........................................635.数据中心节能工作面临的形势与对策分析...........................645.1面临的形势.......................................................................655.2应对的策略......................................................................68附件一:数据中心节能政策..........................................................74附件二:数据中心节能标准规范..................................................75附件三:数据中心空调系统节能标准..........................................77附件四:国家绿色数据中心先进适用技术产品目录(2020)..8011.数据中心发展现状和能效水平数据中心是中国实现信息化进程的重要载体,在云计算、5G、人工智能等领域发挥着重要的作用。随着信息化和工业化的加快融合,数据中心不仅可以服务于互联网,而且可以服务于传统行业数字化转型,有效推动地方优势产业转型升级和创新发展。经济发展、社会需求和技术变革推动中国数据中心飞速发展。“十三五”期间,全国数据中心机架数量增长超两倍,机架数量有望突破300万架,数据中心数量超过7.4万家。受规模提升的影响,全国数据中心耗电量增长率连续八年超过12%,远高于其他用能行业。数据中心的节能降耗工作显得尤为必要。在国家部委的政策引领下,在领头企业的探索中,中国数据中心正在逐渐向规模化、低能耗、绿色可持续发展的方向迈进,数据中心节能工作亦不断取得新突破。本章主要介绍中国数据中心发展现状、能耗情况,以及数据中心节能成效和存在的主要问题。1.1数据中心发展现状1.1.1规模不断扩大数据中心是中国信息化基础设施建设的重要内容,近年来,中国数据中心迎来蓬勃发展的历史机遇。据互联网数据中心发布的《2020~2021年中国IDC产业发展研究报告》显示,2020年中国数据中心业务市场总规模为2238.7亿元,同比增长43.3%1。1http://www.idcquan.com/Special/2021baogao/。2图1-12015~2020中国数据中心市场规模(单位:亿元)2020年,以5G、大数据、物联网、人工智能等新技术、新应用为代表的新基建,在推进疫情防控和疫后经济复苏上发挥了重要作用,推动国内数据中心需求的激增。有机构预测,2021年中国数据中心市场规模将超过2700亿元,比2019年提高一倍。业务需求的持续扩大推动数据中心的迅速发展。“十三五”期间,中国数字中心的机架规模与占有面积实现双高速增长。其中,数据中心机架数量从124万架增长到288万架,保有面积从1503万平方米增加到超过3000万平方米。2019年,中国在建数据中心机架规模约185万架,同比增长30%。随着在建数据中心的陆续投产,预计“十三五”期末,中国数据中心机架保有量将突破300万架。518.6714.5946.112281562.52238.70.00%5.00%10.00%15.00%20.00%25.00%30.00%35.00%40.00%45.00%50.00%050010001500200025002015201620172018201920203图1-22016~2020全国数据中心机架规模及增速(单位:万架)21.1.2结构持续优化根据工信部对数据中心的分类,按照机架数量,国内数据中心可分为三类:中小型数据中心、大型数据中心以及超大型数据中心3。中小型数据中心曾在中国数据中心中占绝主力,其数量一直占70%以上。原因是中国数据中心早期多由企业或机构自建,服务于企业数据运算、存储和交换,为企业、客户及合作伙伴提供数据处理、数据访问等信息,比如银行、保险、政府、科研院所、医疗机构等。2工业和信息化部信息通信发展司《全国数据中心应用发展指引》(2019年版)32013年,工信部联合发展改革委等五部委联合出台的《关于数据中心建设布局的指导意见》。4图1-32014~2020年全国各类型数据中心占比的变化2018年以来,随着国内移动互联的兴起和云计算的快速发展,阿里、腾讯、百度等大型互联网企业对海量数据的存储、处理等业务需求增大,大型和超大型的互联网数据中心激增,数量逐渐超过中小型数据中心。从国内三类数据中心占比变化情况看,2019年前后,中小型数据中心占比呈现断崖式下降,由2018年的50%迅速下降到26%。而超大型数据中心占比则由2018年的17%,提高到37%4。无论从优化数据中心布局的宏观需求出发,还是从节能和提高能效的现实需要出发,大型化和集群化均是数据中心发展的大趋势。预计2020年,中国大型和超大型数据中心合计占比将超过80%,其中,超大型数据中心占比将达到43%,中小型数据中心占比将进一步压缩到17%左右。1.1.3布局发生调整早期国内数据中心的布局主要受经济发展水平的影响。从存量上看,国内数据中心主要分布在环渤海、长三角、珠三角等经济发达地4数据来源:全国数据中心应用发展指引,2020年为预测值。0%10%20%30%40%50%60%70%80%2014201520162017201820192020E超大型大型中小型5区。2019年,北京拥有数据中心机架14.1万架、上海拥有34.8万架,广东拥有34.3万架,北上广三大城市的在用机架数占全国的31.3%。从服务对象上看,环渤海的数据中心主要为支撑云计算、软件业以及天津的制造业、物流产业等需求;长三角地区数据中心主要用于支撑科研单位、金融机构、信息产业和现代服务业的计算需求;珠三角地区以支撑现代通信与互联网产业为主。图1-42019年北上广机架数量及占全国比例近年来,由于经济发达地区的土地、电力等资源逾加紧张,在国家政策引导下,中国的数据中心建设逐渐向中西部地区转移。一方面,中西部地区电力资源相对丰富,环境冷量充沛利于降低数据中心冷却能耗;另一方面中西部地区为承接数据中心转移开出了大量优惠条件,如内蒙古乌兰察布市的数据中心享受0.28元/千瓦时的超低电价,远低于北京市0.8~1.2元/千瓦时的电价水平。多种因素综合作用下,数据中心在中西部地区快速发展,建设规模不断扩大。如百度公司在山西阳泉市建设了6000台机架的超大型数据中心,中国移动公司在内蒙古呼和浩特市建设了10280台机架的超大型数据中心,中国联通在贵州省贵安新区建设了30800台机架的超大型数据中心。此外,在新疆、青海、陕西等地,也有新的数据中心布局。6图1-5中国数据中心新增规划项目分布热力图51.2数据中心能源消费情况对于国内数据中心能源消费总量,目前尚无官方统计。但被大家普遍接受的观点是:数据中心能耗高、能耗增长快,占全国能源消费比重逐年提高。同时,数据中心的能耗消费较为集中,除了IT设备外,制冷系统等辅助设施能耗比例高。1.2.1总用电量约占全国的1-2%由于在电力统计中,数据中心的实际耗电量常常被混合计入不同的行业范畴,因此,数据中心能耗统计困难,目前尚无得到权威认定的官方数据。中国电子学会在《中国绿色数据中心发展报告(2020)》中通过机柜样本调查的方法,测算中国数据中心2019年总用电量为600~700亿千瓦时,约占全社会用电总量的1.0%。2020年受疫情影响,中国5数据来源:DCMAP,各地方政府行业发展规划7数据中心总用电量规模持续扩大,据预测,数据中心电耗占全社会用电量比重将突破1.5%。LEED6数据中心顾问(中国)委员会在《中国数据中心能源使用报告(2019)》中通过统计中国各级别服务器数量、比例、PUE的方法,测算中国数据中心2018年总用电量为613亿千瓦时,约占全社会用电量的1%。据《绿色数据中心白皮书》称,2018年中国三峡发电量、上海市用电量、数据中心总用电量分别为1016亿、1567亿、1609亿千瓦时,数据中心总用电量已超过上海市,相当于1.6个三峡发电站。绿色和平与华北电力大学联合发布的《点亮绿色云端:中国数据中心能耗与可再生能源使用潜力研究》认为,2018年中国数据中心电力消费总量达到1608亿千瓦时,约占当年全社会用电量的2.3%。中国电子节能技术协会数据显示,目前中国数据中心的耗电量已连续八年以超过12%的速度增长,预计2020年总耗电量将达到2023亿千瓦时7,占2020年全社会用电量的2.7%。甚至有机构大胆预测,由于受到疫情影响,2020年中国数据中心耗电量将突破2200亿千瓦时,占全国用电量的比重将超过3%。6全称为:LeadershipinEnergyandEnvironmentalDesign能源与环境设计先锋7https://baijiahao.baidu.com/s?id=1644735440345814299&wfr=spider&for=pc。8图1-62010~2020中国数据中心耗电量及增速8虽然不同的行业协会和研究机构对于国内数据中心能耗总量存在一定争议,但不可否认的是,数据中心能耗高、能源密度大、增速快,是节能重点领域。1.2.2能源消费较为集中数据中心包括IT设备和软件以及配套的辅助基础设施,辅助设施包括制冷系统、供配电系统等。从能耗构成看,数据中心能耗集中在这三大领域,其中,IT设备和软件耗电量最大,其次是制冷系统,电气系统能耗占比较小。8数据来源:DCMAP,中国信息安全测评中心,中国电子节能技术协会数据中心节能技术委员会公开发言9图1-72019年中国数据中心分系统能耗占比9(1)IT设备和软件能耗IT设备承担数据计算、存储和交换等任务,运行时间长,耗电量最大,能耗占比约42%。IT系统主要包括CPU、存储器等,影响IT系统能耗的主要因素有电源输入模块与设备专业组件。大量的服务器、存储设备、交换机以及千亿级别的芯片在运行过程中消耗大量能源。目前,国内主流的机柜功率以4-6kW为主,6kW及以上的机柜占比为32%10。国内拥有超过3000个机架,总功率1.5万kW的大型数据中心超过300个,华为、阿里等通信和互联网巨头的超大型数据中心机架数甚至超过1万个,运行能耗惊人11。(2)制冷系统能耗由于IT系统运行电阻的存在,计算过程中能源消耗大部分以热的形式耗散到环境中,需要建设高效制冷系统对IT设备进行散热。同时,为保障IT设备稳定运行,数据中心对环境温度和湿度要求较9数据来源:中国建筑科学研究院有限公司、中国电子节能技术协会《数据中心节能技术及发展方向分析》(2020)10http://www.360doc.com/content/20/0419/00/29585900_906941633.shtml。11http://news.idcquan.com/news/171372.shtml。IT设备和软件42%制冷系统40%电气系统18%10高,往往依赖空调、冷水机等设备来降温,这是数据中心制冷系统大量存在和能耗高的原因。数据中心制冷系统包括空调压缩机、冷却水系统、冷冻水系统、冷却塔以及冷却工质等,能耗占比约40%。影响制冷系统能耗的因素有:各类设备的发热、建筑围护设备传热、新鲜空气系统传热、太阳辐射热、系统能效比、气流组织、空调运行时间等,可概括为设备因素与环境因素。由于制冷系统是数据中心能耗最大的辅助设备,数据中心节能改造通常以提高制冷系统效率和减低冷量损耗为主,制冷系统能效提升对于数据中心节能意义重大。(3)电气系统电气系统是主要是为了保障IT设备和软件运行所需的电源和电压。电气系统能耗占比约18%,影响供配电系统耗电量的主要因素有:照明设置、不间断电源系统、变压器等。其中,不间断电源(UPS)能耗最高。1.3数据中心能效现状与问题1.3.1能效提升显著但总体水平不高表征数据中心能效的主要指标为PUE,PUE是数据中心总能耗/IT设备能耗的比值。PUE值越低,表明数据中心能源利用效率越高。近年来,随着国内对数据中心节能工作的不断重视,节能改造和绿色数据中心建设,以及超大型数据中心带来的规模效应,共同促进了中国数据中心能效明显提升。从能效水平上看,从2016-2018年,大型数据中心PUE平均值从1.8下降到1.55左右,超大型数据中心PUE平均值从1.5下降到1.3左右。从结构上看,从2012年到2019年,PUE值大于2.0的数据中心占比从34.6%下降到2%,PUE小于1.5的数据中心占比从2.7%上升到了12.9%;11虽然近年来国内数据中心的PUE值下降明显,但与全球平均水平相比(目前全球数据中心PUE平均值为1.65),国内仍有大量的数据中心PUE值在1.6以上,能效水平仍然不高12。特别是中小型数据中心,PUE值很多在2.0以上,仍有较大的节能改造空间。图1-82016-2018年中国数据中心能效水平变化情况1.3.2不同类型数据中心的能效差别显著由于建设时间、功能等不同,国内数据中心发展水平和能效参差不齐。首先,2018年后筹建的超大型互联网数据中心PUE值普遍较低。部分数据中心能效水平已经达到国际领先。如阿里巴巴杭州仁和数据中心采用的液冷自然冷源设计年均PUE达到1.12,为全球规模最大的全浸没式液冷数据中心;通过采用间接蒸发自然冷却技术,字节跳动的传统数据中心PUE由2018年的1.17、2019年的1.16,降低至2020年的1.1413;腾讯、百度等企业亦通过应用先进制冷技术,数据中心能效能与国际互联网企业巨头谷歌、Facebook等看齐。12来源:IDC《2019中国企业绿色计算与可持续发展研究报告》13来源:字节跳动2020年企业社会责任报告12与此同时,早期建设的中小数据中心PUE普遍偏高,且数量众多。目前中国中小型数据中心数量占到全部数据中心的26%以上,如果按照占比面积分类,则中小型数据中心占比接近40%14。中小型数据中心PUE普遍偏高,有的甚至高达2.0以上。1.3.3中小数据中心节能管理难度大一直以来,国内的数据中心,特别是中小型数据中心节能管理遇到众多难题。首先,从数据中心的运营方看,数据中心多为各企业和机构的内设部门运营,不对外提供服务,导致外部政府无法掌握其规模和数量,内部管理范围交错,难以界定运行边际;其次,从数据中心作用看,大多数承载机构和企业的核心业务系统运行,出于商业和保密等原因,在运营成本和绿色化发展方面考虑较少,各项引导政策对其吸引力不足;再次,数据中心的节能改造面临停机的问题,而企业管理人员对于数据中心的稳定性、安全性、持续性工作的侧重明显高于对节能方面的关注。因而对数据中心进行停机节能改造的难度大,而非停机改造仅仅适用于轻度改造,适用范围明显减弱;最后,从管理主体的数量和布局看,其管理主体数量众多且分散,造成社会管理成本较高,政府无力对其全面严格管控。因此,数据中心节能工作要实现在中小型数据中心方面的突破,需要加强中小型数据中心的运维管理,落实节能责任,同时加大节能管理人员培训,提高其节能意识。14数据来源:《中国数据中心能源使用报告》(2019)(注:按面积划分首次出现在《中国数据中心能源使用报告》(2019)中,因此不同规模数据中心的PUE结果与按照机架划分略有差异,但整体趋势保持一致)132.数据中心节能政策和标准体系数据中心高速发展的同时,能耗问题突出。为此,国家部委、地方政府和相关机构相继制定了一系列促进数据中心节能提效的政策、法规与标准。本章将介绍近年来国家和地方出台的数据中心政策和标准,以更好地了解数据中心的节能工作重点和方向。2.1国家和地方相关节能政策措施国家和地方对于数据中心的节能政策主要围绕着优化数据中心建设布局、提高节能要求、开展绿色数据中心示范,发挥公共机构引领作用等展开。2.1.1优化数据中心建设布局从国家政策导向看,2017年,工信部相继发布了《关于数据中心建设布局的指导意见》及《全国数据中心应用发展指引(2017)》等,这是指导国内数据中心建设的纲领性文件。该系列政策文件通过划分数据中心建设地区类型、采用有区别的政策措施,推动数据中心建设向气候适宜、能源充足、土地租用价格低廉的西部地区转移。政策实施后,以内蒙古、贵州为代表的西部省份数据中心实现高速发展,建设数量规模快速提升。2019年7月工业和信息化部、发展改革委员会、国土资源部、国家能源局《关于数据中心建设布局的指导意见》提出市场需求导向原则:从市场需求出发,合理规划建设数据中心。对满足布局导向要求,在PUE1.5以下的新建数据中心,以及整合、改造和升级达到相关标准要求(暂定PUE降低到2.0以下)的已建数据中心,在电力设施建设、供应及服务等方面给予重点支持。从地方政策看,由于地方经济发展水平、产业结构布局、区域资源条件等不同,不同地区对于数据中心建设采取了不同的政策措施。总体而言,北京、上海等一线城市严控增量,优化存量;蒙贵宁等欠发达地区积极引进、扩大规模。14(1)北京禁止在中心城区新(扩)建数据中心2018年,北京市数据中心可用机架数约为18.6万,全市数据中心平均PUE值达到了1.5,单位机架能耗水平达到4kW,据此测算,数据中心耗电量占全市全社会耗电量比例高达9%。由于数据中心加剧了全市用电紧张局面,因此,北京市制定了一系列数据中心管控政策。如《北京市新增产业的禁止和限制目录》(2018年版)指出,禁止建设PUE值在1.4以上的数据中心;中心城区全面禁止新建和扩建数据中心。政策推动了新建的数据中心向天津、廊坊等周边转移。(2)上海严格控制新建数据中心目前上海市数据中心约有10~15万个机架,主要服务于金融、通信、互联网运营商。建成的数据中心一部分是企业自用,另一部分为互联网运营商为用户提供租赁等服务。当前数据中心运行PUE为1.50~2.00,机架能耗分布较散15。针对这一情况,上海市在《节能和应对气候变化“十三五”规划》严格控制新建数据中心,确有必要建设的,必须确保数据中心PUE值小于1.5。同时,加快数据中心全面节能改造。2019年,上海市提出将全市互联网数据中心新增机架数严格控制在6万架以内;坚持用能限额,新建互联网数据中心PUE值严格控制在1.3以下,改建互联网数据中心PUE值严格控制在1.4以下。(3)广东省加强数据中心节能改造与替代广州市要求各区新建数据中心项目实行能源消费承诺和替代制度,同时提高新建数据中心节能标准。2019年,广州市印发《关于加强数据中心节能审查工作的通知》。提出了新建数据中心的能效准入要求:新建项目符合PUE在1.4以下;改造项目要符合PUE在1.6以下;并对改造后低于1.4以下PUE值按不同等级分配节能量用能指标。同时,要求新建数据中心项目所在区实行能源消费承诺和替代制15资料来源:《上海地区实现超低能耗数据中心的技术路线研究与探讨》15度,对既有数据中心进行节能绿色化改造,还提出了日常管理和节能监察等方面的要求。2019年,深圳市印发了《深圳市发展和改革委员会关于数据中心节能审查有关事项的通知》,深圳在存量数据中心上开展节能工作,按照“以高代低、以大代小、以新代旧”等方式促进老旧数据中心改造,对于不同PUE值的数据中心,给予不同政策支持,例如对PUE值为1.3~1.35(含1.3)的高效数据中心,可在用能指标上予以倾斜。(4)贵州省布局(超)大型节能数据中心贵州省将数据中心的发展作为产业升级的主要动力,优越的自然条件和优惠的政策,吸引了一大批超大型数据中心的入驻。为了加强数据中心的节能管理,2017年,贵州省发布了《关于进一步科学规划布局数据中心大力发展大数据应用的通知》,对新建的数据中心提出更高的节能标准和要求,包括加强数据中心节能设计、既有数据中心技术改造,大力提高实际装机利用率,提高运营管理水平,推进数据中心绿色化发展。同时,强调要优化大型、超大型数据中心布局,杜绝数据中心和相关园区盲目建设,避免数据中心建成后空置率过高等。2.1.2提出数据中心能效指标2012年以来,随着数据中心需求激增,数据中心能耗问题凸显。为加快数据中心节能管理,从“十二五”到“十三五”,国家逐渐提高了数据中心的节能标准,要求各地新建和改扩建数据中心的PUE值不断降低。2013年,工信部在《关于进一步加强通信业节能减排工作的指导意见》,提出要出台适应新一代绿色数据中心要求的相关标准,优化机房的冷热气流布局,采用精确送风、热源快速冷却等措施,确保新建大型数据中心的PUE值达到1.5以下,力争使改造后数据中心的PUE值下降到2以下。2017年,国务院在《“十三五”节能减排综合工作方案》指出:进一步推广云计算技术应用,新建大型云计算数据中心PUE值优于1.5。162019年,工信部、国家机关事务管理局、国家能源局三部门出台《关于加强绿色数据中心建设的指导意见》指出大型和超大型数据中心设计PUE值应不高于1.4。2021年,工业和信息化部印发《新型数据中心发展三年行动计划(2021-2023年)》提出了具体目标:到2021年底,新建大型及以上数据中心PUE降低到1.35以下。到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。从北京、上海等地的政策文件看,普遍将PUE值在1.4以下作为新建数据中心的准入标准。在改扩建项目上,要求数据中心节能改造后,PUE值不高于1.5(北京)16、甚至1.4(上海)17。2.1.3开展绿色数据中心建设示范为了调动数据中心节能积极性,发挥先进数据中心的示范引领作用,从“十三五”以来,国内一直积极开展绿色数据中心试点工作。2015年,工信部等三部委联合下发了《国家绿色数据中心试点工作方案》,要求到2017年,创建百个绿色数据中心试点,试点数据中心能效平均提高8%以上。该政策文件还提出了数据中心节能技术改造、绿色数据中心运维管理体系建设等具体措施。为鼓励绿色数据中心建设,《国家绿色数据中心试点工作方案》下发后,国内进行了首次国家绿色数据中心评选工作。北京、上海、广东、天津、河北、江苏等14个地区入选第一批遴选地址,并且在生产制造、电信、公共机构、互联网、金融、能源6个重点领域中评选出了49家数据中心纳入到《国家绿色数据中心名单》。16北京市2021年发布了《关于印发进一步加强数据中心项目节能审查若干规定的通知》(京发改规[2021]4号。17上海市2018年11月发布了《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)。172019年,工信部等三部门发布了《关于加强绿色数据中心建设的指导意见》,要求建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案。2020年8月,国家再次发布《关于组织开展国家绿色数据中心(2020年)推荐工作的通知》18,经过评选,通信、互联网、公共机构、能源和金融领域的60家数据中心入选新一批国家绿色数据中心。2.1.4促进公共机构数据中心绿色先行为积极响应国家绿色数据中心试点工作,2016年,国管局在《公共机构节约能源资源“十三五”规划》指出要开展绿色数据中心试点,组织实施中央国家机关5000平方米绿色数据中心机房改造。该规划重点提及优化对公共机构机房能耗的监测,实时掌握制冷系统的能耗水平与效率,对不合理的运行状态进行调整。主要措施包括:(1)在制冷方式的选择上,用液冷替代空冷可增加制冷系统与IT设备的换热效率,降低制冷系统的能耗等级;(2)优化机架布局,目的在于使制冷空调吹出的冷风与机器散热时通过自然对流产生的热风气流分离,避免冷热风的掺混。进而提高低温冷风与IT设备的高温表面换热时的温差,提高换热效率,降低制冷能耗;(3)建设自然冷源,充分利用北方冬季的外部冷源为机房提供制冷,降低制冷空调的全年运行时间,降低能耗;(4)自有系统余热回收利用,充分利用空调冷凝时散发的余热,采用储能装置吸收回热,用于加热冷却水,提高制冷系统的能源利用效率。18http://www.gov.cn/zhengce/zhengceku/2020-08/06/content_5532808.htm。18从试点情况看,包括中科院计算机网络信息中心、丽水市公安局数据中心、宁波市行政中心集中机房在内的8家公共机构数据中心入选国家绿色数据中心,起到了良好的示范引领作用。2.2国家及地方相关节能标准规范数据中心相关标准较多,包括《数据中心设计规范》、《通讯中心机房环境条件要求》等在内的建设、环境要求、管理等国家标准,对保障数据中心建设和运行起到了很好的指导作用。随着对数据中心节能工作的重视,在《数据中心设计规范》、《互联网数据中心工程技术规范》等国家标准中相继加入了节能设计要求。对于数据中心的环境条件、制冷系统等节能要求多依赖建筑和建筑热工、空调系统等的相关节能标准。国家标准有《数据中心资源利用第3部分:电能能效要求和测量方法》(GB/T32910.3-2016)。在数据中心节能评价和能源管理方面,已经出台了相应的标准,如《数据中心绿色等级评价》(团体标准)和《数据中心能源管理体系实施指南》(国家标准)。我国现有涉及数据中心资源能源利用、能效/能耗评价、节能评价、绿色数据中心评价的国家标准、地方标准、行业标准和规范性文件超过20项,但在实际应用中指标计算边界和数据监测口径不一。为规范数据中心能效评价,2021年10月《数据中心能效限定值及能效等级》(GB40879-2021)作为强制性国家标准正式发布,规定了能效限定值等强制性能效准入要求,也代表着数据中心建立了规范、统一的数据中心能效评价方法,将为该领域实现绿色低碳发展提供关键的标准工具。此外,不少地方已经开始了数据中心专项节能标准的有益尝试,如北京出台了《数据中心节能设计规范》,上海出台了《数据中心机房单位能源消耗限额》,山东出台了《数据中心能源管理效果评价导则》等。19在绿色数据中心评价标准方面,得益于国家绿色数据中心试点工作的开展,国内绿色数据中心评价标准较多,相关机构相继出台了《绿色数据中心评估准则》、《绿色数据中心评价标准》以及《国家绿色数据中心试点评价指标体系(2017)》,对绿色数据中心建设起到很好的指导作用。图2-1国内数据中心节能相关标准体系2.2.1数据中心节能设计标准在《数据中心设计规范》(GB50174-2017)、《互联网数据中心工程技术规范》(GB51195-2016)中均有数据中心节能设计内容。除了上述国家标准外,北京市出台了专门的数据中心节能设计规范——《数据中心节能设计规范》,这也是首个地方数据中心节能设计标准。(1)《数据中心设计规范》(GB50174-2017)《数据中心设计规范》(GB50174-2017)给出了最为详细的节能举措,可操作性较强、易于实现,是指导数据中心制冷系统节能提效的重要标准。该标准对于绿色数据中心建设,既有数据中心节能改造具有较强的指导意义。该标准的一大亮点是对机房环境,特别是主机房气流组织形式进行的界定。数据中心国家标准设计规范环境条件机房环境建筑建筑热工能效要求节能标准节能设计地方能源管理国家节能评价-行业/地方绿色数据中心-行业评价标准评估准则20表2-1《数据中心设计规范》对主机房气流组织形式的界定气流组织形式下送上回上送上回(或测回)侧送侧回送风口1.活动地板风口(可带调节阀);2.带可调多页阀的格栅风口;3.其他风口1.散流器2.带扩散板风口3.百叶风口4.格栅风口5.其他风口1.百叶风口2.格栅风口3.其他风口回风口格栅风口、百叶风口、网板风口、其他风口送回风温差8℃~15℃,送风温度应高于室内空气露点温度此外,标准还对机房空调提出了节能设计要求,除了要求空调系统应根据当地气候条件,充分利用自然冷源,根据情况设置蓄冷设施和全新风空调系统,在进行空调系统设计时,应分别计算自然冷却和余热回收的经济效益,并应采用经济效益最大的节能设计方案。其他措施还包括:1)对单台机柜发热量大于4kW的主机房,宜采用活动地板下送风(上回风)、行间制冷空调前送风(后回风)等方式,并宜采取冷热通道隔离措施;2)根据负荷变化情况,空调系统宜采用变频、自动控制等技术进行负荷调节;3)空调系统的新风量应取下列两项中的最大值:按工作人员计算,每人40m3/h;维持室内正压所需风量;4)大型数据中心宜采用水冷冷水机组空调系统,也可采用风冷冷水机组空调系统;采用水冷冷水机组的空调系统,冬季可利用室外冷却塔作为冷源;采用风冷冷水机组的空调系统,设计时应采用自然冷却技术。(2)《互联网数据中心工程技术规范》(GB51195-2016)《互联网数据中心工程技术规范》(GB51195-2016)从数据中心的设计、建设施工、验收出发,制定了强制性的规范,并加入了节能设计要求。比如要求采用通透式机架或半封闭式机架、优化气流组织形势、对空调机房温度、湿度等进行控制。21同时,要求在满足设备运行的前提下,宜提高机房的环境温度设定值。根据气候特点,宜采用直接引入式新风系统、隔离式热交换系统或带自然冷却盘管的机房专用空调设备,利用室外低温空气对机房降温。根据气候特点,宜在冬季利用冷却塔向集中式空调系统供冷。直接引入式的新风系统宜采用变风量模式,夏天减少冬天增加风量。在节能管理方面,可采用空调群控技术。同时,对互联网数据中心的PUE提出要求,如新建IDC的PUE年平均值不宜大于1.6,扩建时该值不宜大于1.8。(3)北京《数据中心节能设计规范》(DB11/T1282-2015)2015年,北京出台了《数据中心节能设计规范》(DB11/T1282-2015),该标准是国内首次数据中心节能设计规范。对数据中心选址、建筑、给排水、供暖、空调、通风和电气系统等节能设计做出系统性的规定。此外,还包括了数据中心能源利用技术指标和用能监测系统等内容。表2-2北京《数据中心节能设计规范》对空调系统参数的规定房间名称控制参数机柜进风区域(冷通道,开机时)干球温度18℃~27℃;露点温度5.5℃~15℃,同时相对湿度不大于60%主机房(停机时)干球温度5℃~45℃;相对湿度8%~80%,同时露点温度不大于27℃,辅助区(开机时)干球温度18℃~28℃;相对湿度35%~75%辅助区(停机时)5℃~35℃;相对湿度20%~80%不间断电源系统电池室干球温度20℃~30℃注1:室内设计参数除满足上表要求外,还应满足工艺设备要求。当二者有冲突时,应按工艺设备的规定确定室内设计参数,在保障使用安全的前提下,应优先采用较高的控制温度。注2:主机房温度变化率不应大于5℃/h,且不应结露。222.2.2数据中心能效评价标准随着绿色节能观念的逐渐深入,数据中心能效评价和等级认证也层出不穷,在国内比较权威的是国家绿色数据中心评价和认证,在国际上,最有代表性的是LEED认证19和Uptime认证。(1)国际标准和认证UptimeInstitute成立于1993年,20余年来长期致力于数据中心基础设施的探索和研究,是全球公认的数据中心标准组织和第三方认证机构。其主要标准《DataCenterSiteInfrastructureTierStandard:Topology)#(DataCenterSiteInfrastructureTierStandard:OperationalSustainability》是数据中心基础设施可用性、可靠性及运维管理服务能力认证的重要标准依据。该标准由Uptime长期研究数据中心领域的经验与终端用户的知识积累结合发展而成,在行业中具有深刻的影响力。UptimeTier等级认证基于以上两个标准,是数据中心业界最知名、权威的认证,在全球范围得到了高度的认可。Uptime认证将数据中心分为Tier-TierIV四个等级,TierIV最高。Uptime认证主要包含四部分:TierCertificationofDesignDocument(设计认证),TierCertificationofConstructedFacility(建造认证),TierCertificationofOperationalSustainability(运营认证),M8&O认证。(2)国内绿色数据中心评价标准与指标国内对于数据中心能效评价始于《数据中心资源利用第3部分:电能能效要求和测量方法》(GB/T32910.3-2016)。该标准给出了数据中心的电能等级和影响电能等级的主要因素,规定了数据中心电能能效的测量方法和计算方法。19LEED认证从2000年开始,目前在全球共有92000多个单位得到了认证,20亿平方米的建筑被认证为LEED建筑,在过去LEED认证是以商业建筑和办公楼为主的,但是近两年开始关注到数据中心。23在电能能效分级方面,该标准根据数据中心的电能利用效率,将数据中心分为5级,一级(节能)能效指标在1-1.6;二级(较节能)能效指标在1.6-1.8;三级(合格)能效指标在1.8-2;四级(较耗能)能效指标在2-2.2,能效指标超过2.2的数据中心属于高能耗。此外,该标准还界定了制冷系统的适用范围、规定了评价绿色数据中心制冷效率的KPI。规定了数据中心能耗的范围,数据中心所处的气候环境(严寒地区、寒冷地区、夏热冬冷地区、夏热冬暖地区、温和地区)、数据中心的制冷形式(风冷式系统、水冷式系统)以及EEUE在不同气候条件下的调整值,对于指导数据中心用能效率评价具有重要价值。从2015年,国内启动绿色数据中心试点工作以来,相关机构相继出台了《国家绿色数据中心试点评价指标体系(2017)》、《绿色数据中心评估准则》、《绿色数据中心评价标准》等,在上述标准和指标体系中,均将能源资源利用水平作为绿色数据中心评价的重要指标,并给与较高的权重。其中,《国家绿色数据中心试点评价指标体系(2017)》是指导国家绿色数据中心建设和评价的重要规范,该指标体系主要包括先进适用技术推广使用、运维管理体系建设、能效提升、水资源利用、有害物质控制、废弃电器电子产品处理、可再生能源和清洁能源应用等方面内容。数据中心的电能适用效率低于1.2,将获得50分。应用高比例可再生能源或清洁能源,包括自有设施生产和外购的可再生能源或清洁能源,还将获得额外的加分项。在《绿色数据中心评价标准》(T/ASC05-2019)中,进一步细化了数据中心IT设备、空调系统、电气系统的能效要求。在空调制冷方面,指标权重高达37分。分为8个小项,如主机房气流组织冷热通道分离,得4分;主机房气流组织采用CFD模拟优化,得5分;供暖热源采用余热回收且达到50%以上,得5分;其他热需求采用数据中心余热回收且达到50%以上,得3分;循环水机组、冷水机组性24能提高6%以上,得8分。指标细化为绿色数据中心节能工作提供了可操作的方法和标准。2021年10月《数据中心能效限定值及能效等级》(GB40879-2021)正式发布,数据中心至此在能效方面有了规范性指导文件,文件中规定了数据中心的能效等级与技术要求、统计范围、测试与计算方法。为数据中心能效的对标、能效提升工作提供支撑。2.2.3数据中心能源管理标准在数据中心设计和运行标准中,均有运维管理的内容要求。为了促进数据中心能源管理工作的统一和规范,2019年,国家出台了《数据中心能源管理体系实施指南》(GB/T37779-2019),该标准已经在2020年得到全面实施。标准旨在指导数据中心规范建立、实施、保持和改进其他能源管理体系,持续提升其能源绩效。同时,根据数据中心设计、建造和运维的特点,对数据中心实施能源管理体系的策划、实施、检查等过程进行了重点阐述。该标准要求数据中心建立,实施、保持和改进能源管理体系,主要措施包括:1)最高管理者对建立能源管理体系的必要性和紧追性有充分的认识,了解能源管理体系的要求以及相关法律法规、标准;清楚数据中心的自身规模、能力、需求等状况。2)确定能源管理体系覆盖的边界和范围,并形成文件。应明确数据中心所处的地理位置、气候带、数据中心面积以及功能等,在界定能源管理体系的范围和边界时考虑数据中心的能源系统(如图1所示)。3)开展能源评审,借助能源统计、能源监测、能源审计和检测等工具,了解数据中心能效水平,策划、实施可行的能源管理方案,以持续改进能源绩效。254)策划可行的方法,确定适宜的管理方式,以满足能源管理体系的各项要求,持续改进能源绩效和能源管理体系。该标准的制定和实施对于数据中心综合系统地进行节能管理,落实能源管理职责,持续改进能源利用效率的意义重大。2.2.4数据中心节能相关地方标准由于数据中心能耗高,对地方节能工作造成了很大的压力。近年来,在数据中心较为集中、能源供需紧张的一线城市和经济发达地区,已经开始了数据中心地方节能标准的研制。如上海制定了数据中心能耗限额标准,北京制定了数据中心节能设计、评价、能耗定额和公共机构绿色数据中心等一系列标准。1.上海市——数据中心能耗限额标准2012年,上海市发布了《数据中心机房单位能源消耗限额》(DB31/651-2012),这是国内首个针对数据中心能耗管理的地方标准。该标准已经在2013年2月1日正式出台实施。2020年得到修订。在2012年的标准中,针对现有数据中心不同投入使用年限的机房,制订了不同标准的单位能耗限定值。在制冷系统的能源消耗测量指标中,规定了制冷系统总电力消耗指标与水消耗指标。针对互联网数据中心的要求则更为严格。2019年,上海市在《上海市互联网数据中心建设导则》将新建的PUE值严格控制在不超过1.3,对制冷系统的节能提出了严格要求,比如主机房宜采用模块化的部署方式、冷却水储水量宜满足系统12小时用水、空调制冷设备应优先选用配置变频、变容量冷却设备,模块化冷水机组,冷却系统能效比应满足PUE指标控制的要求;应使用各种创新技术提高制冷效率,包括但不限于外供冷、蓄冷技术、冷热通道密封、盲板密封、余热利用、热泵技术等;新风系统宜采用热回收方式或者独立预处理方式;宜充分利用自然冷源,全年自然冷源使用时间不宜低于3000小时。26上海市在国家标准《互联网数据中心工程技术规范》与《数据中心设计规范》的基础上,增设了更为具体明确的指导原则。比如在空调选型、冷却水的应用、制冷设备的模块化、以及自然冷源的使用时长等,均具有明确和具体的要求,对于上海市数据中心节能工作指导性强。随着数据中心能效的不断升级,为了适应新时期数据中心节能工作要求,2020年8月,上海市《数据中心能源消耗限额》(DB31/652-2020)代替DB31/652-2012,明确新建数据中心CPUE值(综合电能利用效率)不超过1.3,在用数据中心CPUE不超过1.7,改建后的数据中心CPUE值不超过1.4,通过鼓励高端绿色数据中心发展,对小散老旧数据中心逐步关停并转,推动数据中心绿色发展。此外,2020年起,上海市能效中心对IDC的管理实行能耗数据月报统计制度。上海市能效中心通过搭建“上海市数据中心在线能源审计平台”,实现了线上报送管理。2.北京市——数据中心节能系列标准北京市制定的数据中心节能标准较多,在节能设计、评价、管理、能耗限额等方面都有相应的标准出台。除了通用的标准之外,2014年,北京市印发《北京市公共机构绿色数据中心评价标准》,对公共机构绿色数据中心建设和评价提出了要求。该标准规定了公共机构绿色数据中心所应具备的节能措施,主要包括:1)基本项:数据中心规划以“重点冷却IT设备”为原则、未出现局部过冷或过热现象、采用自然冷却技术、室内外温差超过10℃时,自然冷却空调机组能效比(EER)应不小于8.0、采用冷光源照明。2)优选项:制冷设备采用智能控制管理技术,应通过空调机组群控软件,实现对空调系统的节能控制,根据每列机架的实时散热量,动态调节空调的制冷量、采用机柜级冷却设计、采用单机柜电流监测、27在国内首次进行某项绿色节能方面的新技术、新工艺或新产品的应用,并在业内分享经验、对自身产生的热量进行再利用。在制冷环节,《北京市公共机构绿色数据中心评价标准》提及了若干非常详细的创新性评价指标,例如利用冷光源照明、单机柜电流检测等,具有较高的借鉴意义。此外,北京市的评价标准侧重于节能技术的推广与监测,这对于制冷系统节能改造具有较大意义。除了上述标准外,北京市还出台了数据中心能效测量专项标准——《数据中心能效监测与评价技术导则》(DB11/T1638-2019),该标准规定了数据中心能效监测方法、数据采集要求和能效评价方法,有利于指导数据中心规范能耗监测方法、监测内容和数据记录,推动数据中心进行能耗对标,促进企业节能减排。2019年12月,北京市发布了《数据中心能源效率限额》(DB11/T1139-2019)代替DB11/T1139-2014,明确规定了数据中心能源效率(PUE)限额指标,限定值1.4,准入值1.3。地方标准的出台凸显了北京市对数据中心能源效率的关于与重视,进一步提高的数据准入门槛。283.数据中心节能改造技术措施数据中心节能技术改造的目的是提高能源利用效率、降低PUE。由于数据中心能源消耗主要集中在信息系统、通风和制冷系统、电气系统三大领域。因此,这三大领域是能效提升的重点。本章将从数据中心能耗出发,重点介绍信息系统、通风和制冷系统、电气系统节能技术改造的思路和方法。3.1概述为了保障IT设备和软件运行稳定,数据中心对电能质量和机房环境要求较高,需要配套供配电、通风、制冷等环境基础设施。通常,数据中心由信息系统和辅助设备构成,辅助设备又可分为通风和空调系统,以及电气系统。从能耗结构看,一个典型的数据中心能耗可分为以下三个部分:(1)信息系统:占数据中心能耗的42%,包括服务器、存储设备和网络通信设备等。其中,服务器的数量最多。(2)通风和空调系统:占数据中心能耗的40%,其中空调制冷系统占总能耗的25%以上,其他为空调送、回风系统;(3)电气系统:占数据中心能耗的18%以上,其中,UPS系统占总能耗的8%,其他为辅助照明等能耗。数据中心的节能改造将综合运行技术管理手段。在保障IT设备和软件运行稳定的基础上,提高IT设备运行效率,对通风/空调系统和电气系统等环境基础设施,以及建筑外围结构等进行改造。在技术改造的同时,运用智能化手段等,加强数据中心的节能管理,以提高数据中心能源利用效率。数据中心通用的节能技术改造措施如下:29表3-1数据中心通用的节能技术改造措施类型主要影响因素通用节能技术改造措施建筑与建筑热工建筑外围护结构传热新型保温隔热材料等信息系统设备选型和运行选购高效节能设备、业务分级和提高处理效率等通风和空气调节系统通风系统风机调节和改造冷源系统应用自然冷源、选购高效设备、提高系统效率等输配系统设备更新、变频改造等末端系统温控和湿度控制系统、选购高效设备、提高显热比等气流组织优化气流组织形式电气系统供配电优化系统设计、选购高效设备、提高设备效率备用电源优化系统设计、高压柴油发电机组等不间断电源选择UPS电源等高压和低压配电优化布局等照明节能灯具和智能控制系统等可再生能源和资源综合利用可再生能源、需求响应、余热回收利用、液冷等运维管理系统能耗监测系统节能智能化管理数据中心节能改造的流程可以归纳为20:1)对数据中心进行调查,筛选。首先分析服务器的单机功耗,上架率,数量等,确定IT设备总功耗。然后分析针对IT总功耗需要匹配的空调类型,功率等制冷系统功耗范围。然后与企业实际制冷系统进行对比,核算二者的差别,并测量现20基于2021年4月课题组对北京科技通电子工程有限公司黄群骥总经理的访谈。30场制冷的温度和效率,进而得出数据中心制冷效率的初步结论。2)对数据中心进行分类:第1类为能效很差的数据中心,必须进行改造;第2类为能效一般但是规模大的数据中心,值得改造;第3类是实施可行性强的数据中心,不涉及宕机的问题则易于改造。3)初筛确定改造的数据中心后,向数据中心方提交供选择的第三方诊断核查企业名单,由甲方确定第三方诊断企业,进行现场诊断。4)施工方进入,对数据中心进行节能改造。5)第三方诊断公司再次对数据中心进行评估,验收。在数据中心节能技术方面,近年来工信部发布了《绿色数据中心先进适用技术产品目录(2019年版)》以及《国家绿色数据中心先进适用技术产品目录(2020)》(见附件四)。将数据中心节能相关技术分为:能源资源利用效率提升技术产品(包括高效系统集成技术产品、高效制冷/冷却技术产品、高效IT技术产品、高效供配电技术产品、高效辅助技术产品)、可再生能源利用和分布式供能以及微电网建设技术产品、废旧设备回收处理等技术产品、绿色运维管理技术产品等四大类型,可作为数据中心节能技术改造的重要参考。3.2建筑与建筑热工进行建筑和建筑热工节能改造的目的是优化机房建筑结构,提高密封性。在夏热冬冷地区、夏热冬暖地区、温和地区的大部分时间里,外界环境处于高温状态,做好隔热、密封,可以减少外界环境对数据中心内部服务器的热量输送,减少制冷系统的负担。可按照建筑节能改造标准GB50174进行外围护结构改造,主要方式为在外墙体加装隔热棉、空心砖,在密封性差的门窗加装胶条等,做好数据中心的隔热工作。31在节能改造后,外围护结构所采用的保温材料和建筑构建的防火性能应符合GB50016的规定。常年无人值守的数据中心设有外窗的,应同时满足保温要求。封闭后气密性不低于GB/T7106的8级要求。3.3信息系统信息系统能耗最大,考虑到能耗的级联效应,信息系统的降耗也会引起前端配电和空调耗电量的减少,因此,信息系统节能对于数据中心降低PUE意义重大21。作为数据中心的第一能耗大户,信息系统节能的关键是选用低能耗的IT设备,提高IT设备能效比22。IT设备能效比越高,意味着IT设备单位能耗所能存储、处理和交换的数据量越大。提高IT设备能效比,可以降低机房配套的电气系统和空调系统等的容量和能耗,从而带来巨大的节能和经济效益。通用的技术手段包括:1)在设备选型方面根据数据中心的建设标准,结合实际扩容需求等,购置设备,尽量采用高密度、高能效比、耐高温、耐腐蚀、空气洁净度要求低的电子信息设备。根据初步测算,IT设备用电量每下降1度,数据中心整体用电量就会下降2度以上,评价IT设备能效的主要指标包括ECR,即能耗与系统吞吐量的比值,IT设备的ECR指标越低,设备能效越高23。在技术层面,选择低功率CPU处理器、虚拟化运算技术、高效电源、动态制冷、刀片式架构、电源智能化管理以及“动态休眠”等技21张梅、文静华,绿色数据中心发展研究:技术与实践,北京:科学出版社,2017年6月。22IT设备能效比是IT设备每秒的数据处理量除以IT设备的能耗。23洪波,对构建绿色数据中心的探讨和展望,机房建设实务.2013年第10期。32术的IT设备24。设备应能根据系统运行要求和负载状态,动态调整系统各软件的工作和休眠状态。建议设备整体休眠的节能效果最低应达到20%,优选具有国际或国家行业节能等级认证的设备。在条件允许的情况下,优先选用液冷机架。2)在设备使用方面对数据中心处理的业务进行合理分级和规划,避免对A级数据中心基础设施资源的过度占用,同时提高代码效率,提高业务处理能力和效率。在满足设备运行安全和稳定的前提下,尽量提高IT设备的利用率,节省运行设备的数量。统筹考虑数据中心的各类计算、存储和网络资源,采用松耦合架构配置各类资源,实现资源的共享和灵活调度,根据资源消耗比例灵活增加和减少某类资源的配置,做到按需配置。在技术成熟的情况下,适时运用虚拟化和集群技术等。3)在设备布置和节能管理方面机架的布置应满足机房整体布局要求和冷热分区的要求,机架用电量与相应区域的制冷量相适应,设备的进排风方向应与机房气流组织的要求一致。合理规划设备布置,同区域内的机架用电量应尽量均匀,避免出现局部热岛现象;同机架内尽量部署物理尺寸、用量和排风能力相近的设备,单机架耗电量应尽量不超过机房设计时的机架平均用电量;当机架用电量差别较大时,机房内制冷设备和制冷量分布应考虑到不同功率机架的位置。机架应按照规划设计能力饱满使用,当机架无法一次性安装完毕时,应从距离送风口较劲的空间开始安装设备。设备之间的空隙处应安装挡风板,防止冷热风短路。24王士政,电力系统控制与调度自动化,北京:中国电力出版社,2008年333.4通风及空调系统通风和空调系统是为了保障IT设备运行所需温度、湿度环境而建立起的配套设备设施。通常通风和空调系统能耗占到数据中心总能耗的40%,是数据中心能耗最大的辅助设备。主要的耗能设备包括专用空调、列间空调、加湿器;冷源设备包括风冷空调室外机、冷水机组主机、冷却水塔等;新风系统包括送回风风机、加或除湿设施等。目前,数据中心制冷系统面临的普遍问题:一是运行模式不合理,大部分数据中心全面需要制冷;二是冷湿环境不均匀,机房普遍存在局部过热现象;三是处理流程不合理,同一机房存在同时除湿和加湿现象;四是输配环节能耗高,特别是风机功耗多大。因此,制冷系统节能改造一直是数据中心节能改造的重点和难点。对于通风和空调调节系统的节能技术改造,通用的措施包括:1)选择高效节能设备、加强节能管理、对温度湿度的控制等,提高能源综合利用效率。2)综合考虑建设规模、功率密度等条件,优先采用带有充分利用自然冷源或带有废热回收的系统方式。3)对通风、冷源、输配、末端,特别是气流组织等系统进行综合改造。4)有条件的数据中心,可采用液冷技术。3.3.1采用高效节能设备作为数据中心能耗最大的辅助系统,冷却系统是提高数据中心能效的关键。在高效节能设备和技术利用方面,建议采用磁悬浮离心冷水机组、变频离心高温冷水机组、变频螺杆高温冷水机组、冷水机组+自然冷却系统、高效热管自然冷却系统、蒸发冷却制取冷风技术、蒸发冷却制取冷水技术和蒸发冷凝技术等,提高冷却系统的能源利用效率。343.2.2合理利用自然冷源利用自然冷源已经成为数据中心提高能效的重要途经。自然冷源的利用主要包括风侧自然冷却、水侧自然冷却、氟侧自然冷却三种主要形式,三种冷却技术的主要特征和设备原理如下25。表格3-1不同环境的自然冷却制冷系统对比冷却系统风侧自然冷却水侧自然冷却氟侧自然冷却类型分为直接式和间接式,分别指直接引进外界满足温度条件的空气或通过换热器将室外冷风和热风进行换热对数据中心进行冷却的技术。亦分为直接式和间接式,直接或间接利用自然环境中的低温水冷却数据中心热源的冷却方式。氟泵自然冷却系统也称为制冷剂直接蒸发系统,以氟类制冷剂作为冷却循环工质与环境环境,环境一般为空气。特征直接风侧冷却技术需要添加过滤装置和加除湿设备,满足数据中心对外界空气湿度、洁净度及污染物浓度的要求,对空气质量要求比较高。间接风侧冷却占用建筑空间大,间接换热造成制冷效率低,但对空气质量要求不高。水侧自然冷却对外界空气环境要求不高,冷却塔、板式换热器、冷水机组与冷冻水精密空调的组合是大中型数据中心较多采用的一种水侧自然冷却的方式。由泵驱动制冷剂在蒸发器和冷凝器之间循环,制冷剂在室内蒸发器内蒸发吸热,实现室内的制冷要求,再进入冷凝器在室外换热,经过冷凝的制冷剂再回到蒸发器内循环吸热,整个过程的循环动力由泵驱动实现,在室内外温差在15℃时,能满足系统的制冷要求,在10℃或以下,系统均能正常运行。设备原理风机墙、分离式热管、双冷源、干式冷却器、蒸发冷却等利用自然低温水源(海水、湖水、江河水等)、各类转换温度自然供冷节能率的实证研究、大温差高温供冷、吸收式制冷系统等。动力热管、重力热管、氟泵等25周海珠等,数据中心节能技术及发展方向分析,建设科技,2020年第411期。35图3-1数据中心的三种典型自然冷却模式示意图1.风侧自然冷却风侧自然冷却技术是数据中心最有效的自然冷却技术,该技术直接利用室外低温空气给数据中心机房降温,减少了换热流程。风侧自然冷却适用于气候环境好,空气质量好,气候凉爽的地区。在中国大部分严寒地区、寒冷地区适用,部分夏热冬冷地区、温和地区适用。图3-2中国风侧直接自然冷却时长分布图(小时/年)36图3-3中国不同气候带典型城市的完全自然冷却时间(以年当量计算)上图为中国主要城市的完全自然冷却时间。理论上年冷却时长位于5000小时以上的区域均具有安装新风系统的条件。从自然条件上看:西宁、拉萨、呼伦贝尔、兰州、呼和浩特、银川与乌鲁木齐等年冷却时间大于8000小时的城市,通过节能改造最多可降低约26%~33%的能耗,降低PUE至1.1~1.2;其中,西宁、拉萨、呼伦贝尔的温度、湿度和空气洁净度更加符合直接自然冷却的条件,为潜力最大的节能地区。兰州、呼和浩特、银川与乌鲁木齐由于空气质量相比较而言略差,过滤系统的运行时长增加,节能潜力次之26。东北、华北部分地区例如哈尔滨、长春、沈阳、太原、石家庄等城市,全年自然冷却时间位于6000~7000小时,通过节能改造最多可降低17.2%的能耗,降低PUE至1.3527;26按全年冷却时长8000小时、空气洁净度满足天数为85%计算,改造后PUE=1.14,节能比例33%。测算依据:全国数据中心应用发展指引(2020);空气洁净度时长分地区按60%~90%计入;仅考虑完全自然通风,下同。27按全年冷却时长6500小时、空气洁净度满足天数为80%计算,改造后PUE=1.25,节能比例23.6%37华北大部分地区、中原地区、部分西部地区例如北京、天津、济南、西安、郑州等城市,全年自然冷却时间位于5000~6000小时,通过节能改造最多可降低18.8%的能耗,降低PUE至1.3228;东部沿海、长江流域、四川盆地、部分西南地区以及珠三角等地区例如上海、杭州、长沙、成都、重庆、贵阳等地,全年自然冷却时间约小于5000小时。其中,上海、昆明、贵阳、杭州、武汉、南京、南昌、长沙、成都、重庆的全年冷却时间位于4000~5000小时,通过节能改造最多可降低16.4%的能耗,降低PUE至1.3629,其余地区节能改造潜力较小。2.水侧自然冷却技术水侧自然冷却技术是在室外空气湿温度较低时,利用低温的冷却水与冷冻水换热,使冷冻水达到供水温度要求或降低冷冻水温度,从而减少冷机的开启时间和强度。与风侧自然冷却不同,水侧自然冷却通常对外界空气环境要求不高,但要求数据中心靠近江河湖海的数据中心。根据学者研究30,水侧自然冷却更适合寒冷和严寒地区。典型城市应用自然冷源的情况,节能率最低的是21%,最高达到38%,节能效果较为显著。而在东北部地区、西北部地区以及青藏高原地区,节能率大多位于50%以上31。28按全年冷却时长5500小时、空气洁净度满足天数为75%计算,改造后PUE=1.32,节能比例18.8%29按全年冷却时长5500小时、空气洁净度满足天数为75%计算,改造后PUE=1.32,节能比例18.8%30将常规制冷机组和带自然冷却的冷水机组进行了能耗的比较,并分析华北、西北和东北3个地区共9个城市在这2种运行条件下的节能潜力。31带自然冷源的风冷冷水机组在数据中心空调系统中的应用_刘海静38图3-4中国数据中心水侧间接自然冷却节能率分布图从应用实践看,目前国内外已有众多数据中心成功利用自然冷却,实现能效提升。在国内,浙江千岛湖某数据中心利用湖水自然冷却,采用开式空调系统,并配置蓄水池等设备保证不间断运行,节能效果显著;天津的腾讯某数据中心采用冷热通道隔离、水侧自然冷却、自然风冷却、变频技术、分时式制冷等多项节能技术,节能能力居于中国领先水平;中国电信的永丰国际数据中心通过冰蓄冷、水冷自然冷源、高压直供、分散式供电、太阳能等新技术以及科学运维,获得了显著的节能效果。在国外,Google位于比利时的数据中心,实现100%水侧自然冷却,是Google第一个完全达到自然冷却的数据中心;Google在欧洲还有2个实现完全自然冷却的数据中心,一个位于爱尔兰,采用直接蒸发制冷技术,一个位于芬兰,采用100%海水散热;此外,雅虎位于纽约洛克波特的“鸡笼”数据中心、Facebook位于俄勒冈州的数据中心、惠普位于英国温耶德的数据中心均采用自然冷却技术达到了良好的节能效果。393.3.3优化气流组织形式气流组织形式是影响数据中心空调系统节能的重要因素。冷气流动过程中的阻力越小,冷风和热风气流隔离的越好,冷量损耗的就越小,空调主机运行效果就越高,能效比越好。在数据中心设计规范和节能标准中,均将气流组织优化作为重点内容。气流组织优化的内容主要包括合理设计,通过多种措施提高机房空气冷却效率等。1.合理设计机房气流组织机房内部存在局部过热现象。造成这一现象的原有是机房内的气流组织不合理,多数机房采用的上送风方式不符合热空气自然上升的流动规律。这种先冷环境、后冷设备的送风方式,导致了局部过热现象。并且冷热空气相互混合,减少了送回风温差,增加了送风量,造成了不必要的浪费。因此,如何合理设计机房内的气流组织,减少无效回风和冷热气流混合成为数据机房配套设计和改造所面临的一大难题。如果这一问题得到有效解决,就意味着机房空调制冷效率大大提高,从而达到节能和降低PUE的目的。为了解决上述问题,机房内的上送风方式正逐步向着架空地板送风、机房上部回风方式改进,对机柜布置、冷热通道布局等提出新的要求。同时,新型近端制冷技术更加靠近负载,其制冷密度和节能效果远超传统的远端制冷,有效解决机房高密度和局部过热的问题。具体的措施包括:1)在机房机架布置上,应采用“面对面、背靠背”方式布置,形成“冷”和“热”通道;2)机房空调应采用下送风、上回风方式,架空地板下不应布置各种线缆;根据符合功率密度,合理规划架空地板高度,确定40地板下送风断面风速控制在1.55-2.5m/s,一半数据中心机房架空地板高度不应小于400mm;3)机架和空调设备的距离应大于1200mm,避免出现回风短路的情况,当空调设备送风距离大于15m时,需在机房两侧布置空调设备;4)如果必须采用上送风,下回风方式时,应采用风管送风方式,风管、送回风口的尺寸应根据机房热负荷计算确定。早期国内数据中心的相关设计规范均要求机房内的环境温度为22℃~25℃。这样必然导致制冷系统需要将机房内的环境温度处理到相应温度。尽管IT设备机柜的出风侧通道和外围走廊等环境空间的温度符合要求,但IT设备的实际散热却不一定。这造成了大量的冷量浪费在环境空间里。《数据中心设计规范》(GB50174-2017)已明确规定温度控制点为机柜的进风侧,即专用空调的冷空气仅需存在于IT设备散热所需的地方,这一气流组织形式的改变提高了制冷系统冷却IT设备的效率,提高了节能效果。2.提高机房空气冷却效率数据中心机房通常有四种气流组织形式,包括房间级、行级、机柜级和芯片或服务器级。对于机房空气冷却效率而言,通常关注房间级、行级和机柜级冷却方式。首先,最普遍采用的是房间级制冷。采用房间级制冷时,制冷系统与机房直接关联,并行工作来处理机房的总体热负荷。在设计中,对气流的关注往往有很大的不同,对于较小的机房,机柜有时随意摆放,对于气流没有特别的规划、遏制,这部分数据中心是最为重点的节能改造对象。而对于较大的复杂数据中心,可能使用高架板送风到经过精心规划的热通道/冷通道,来引导气流并使其与机柜相适应的目的。房间级制冷机房本身独有约束的影响很大,比如室内净高、房41间形状、地板上下的障碍物、机柜布局、制冷系统位置、IT负载功率分配等。采用行级制冷配置时,制冷机组与机柜行相关联,在设计上,机组可能位于IT机柜之间,也可吊顶安装。与传统无气流遏制房间级制冷相比,气流路径较短,专用度更加明确。对于200kW以下的数据中心应采用行级制冷,无需高架地板即可部署,而对于已有数据中心,在部署较高密度负载时(每机柜5kW或更高),应进行行级制冷节能改造。采用机柜级制冷时,制冷机组与机柜相关联,机组直接安装在IT机柜上或者内部。与房间级或行级制冷相比,机柜的气流路径更短,且专用度更准确,使得气流完全不受任何安装变动或机房约束的影响,可达到最高功率密度50kW。图3-5房间级、行级与机柜级制冷模式对比示意图表3-2柜级、行级与房间级制冷特点与优劣势对比类型机柜级制冷行级制冷房间级制冷灵活性优点易于针对任意功率密度进行规划;与已有制冷系统相互独立易于针对任意功率密度进行规划;制冷容量能够共享在功率密度小于3千瓦时,能够快速更改制冷分配模式缺点制冷容量不能和其他机柜共享需要采用冷热通道布局在没有对整个环境进行气流遏制时,效率较低42系统可用性优点紧靠热源的制冷消除了热点和垂直温度梯度;标准化解决方案最小化人为错误区域中的多个机柜能够共享冗余装置;靠近热源的制冷消除了垂直温度梯度数据中心所有机柜间能够共享冗余装置缺点每个机柜都需要部署冗余每个机柜区域都需要部署冗余需要采用气流遏制,以隔离冷热气流生命周期成本优点预制化系统和标准化组件,减少规划和工程量能够满足制冷需求;可减少规划和工程量能够轻松重新分配穿孔地板缺点制冷系统同可能过度规划,浪费制冷容量,导致初始成本提高此方式的初始成本会随着数据中心规模的增长而提高。送风量过大,地板下送风区域的压力要求取决于机房大小和地板深度。可维护性优点标准化组件减少了对技术人员的需要;内部人员即可完成日常维护模块化组件缩短了宕机时间,标准化组件减少了对技术人员的需要制冷设备位于周边或室外,从而使技术人员远离IT设备缺点并行维护需要2N冗余制冷设备位于机柜行,因此技术人员将靠近IT设备进行维护工作需要接受过培训的技术人员或专家进行维护可管理性优点易于利用界面菜单进行巡检,能够提供易于利用界面菜单进行巡检,能够提供实时预测故障分析系统较大,减少了接口和管理点的数量缺点对于大规模的部署来说,需要许多接口对于大规模的部署来说,需要许多接口需要高级的服务培训,不能提供实时分析从三种方式对比看:机柜级制冷最为灵活、部署最快,并能支持最高功率密度,但需要额外费用开支;行级制冷具备机柜级制冷的诸多优势,如灵活性、部署速度以及密度优势,且成本较低;房间级制冷能够通过重新配置穿孔地板来快速更改制冷分配模式,在低密度数据中心,所有机柜共享制冷冗余,此方式具有成本优势,且最为简单。气流组织优化对于数据中心节能降耗效益显著。据测算,全国中小型数据中心从2006年的PUE=2.7降低到了2013年的PUE=1.8,其中一部分是通过优化气流组织实现的。目前,国内仍有一部分数据中心气流运行不合理,导致其PUE过高。据专家测算,通过对气流的改造,国内中小型数据中心PUE值有望从1.8下降到1.5。433.3.4采用液冷技术液冷是指使用液体作为热量传输媒介,与发热部件进行换热,进而带走热量的技术。虽然液冷技术研发的初衷是为解决传统制冷面临的高功率主机散热难题,但在发展的过程中,逐渐成为数据中心降低PUE值的突破性技术。从技术效果看,液体传导热能效果好,比热容大,在吸收大量的热量后自身温度不会产生明显变化,能够稳定CPU温度,实现机房环境40度条件下无需空调制冷设备,PUE可大幅下降到1.0左右,因而被认为是降低数据中心能耗的最可靠和可行的技术方案之一。与传统的制冷技术相比,液冷技术拥有以下优势:一是液体的比热容与导热能力远远高于气体,温度传递效果更快、更优,可以大大提高数据中心冷却效率,与风冷系统,能节约30%的能源;二是功率密度大,可以节约数据中心的空间,节省建设成本,同时液冷系统所使用的泵和冷却液系统与传统空调相比噪声更小;三是液体技术不受海拔与气压的影响,在高海拔地区依然保持较高的散热效率;四是能够实现余热利用,传统的风冷设备一般将热量直接排到大气中,但液冷数据中心以液体为载体,直接通过热交换接入楼宇采暖系统和供水系,满足居民供暖和温水供应的需求,有效实现余热资源综合利用。图3-6液冷技术与传统制冷技术的比较44液冷的制冷模式主要包括主要分为冷板式、喷淋式以及浸没式。冷板式效率最低,但是最利于节能改造,可在原有的IT设备上进行改造,通过在CPU表面贴覆冷管,冷管内填充氟类制冷剂的方式进行降温。喷淋式与浸没式则是将整机浸没于制冷剂中,因而对制冷剂的绝缘性,抗腐蚀性要求较高。采用导热型冷却模式时,循环冷却水(或其他液体)在管道内流动,管道连接的换热器(包括蒸发器、散热器等不同类型的冷板)贴敷在CPU等热量产生设备的表面,因此液体制冷剂不与集成电路直接接触,冷却介质在换热器吸收热量将CPU的热量传至冷凝器,冷却介质在外部冷凝器放热,完成制冷过程。浸没式液冷技术将发热期间浸没在液体中,通过直接接触进行热交换。整个浸没式液冷系统可包括两个部分,室内侧循环和室外侧循环。室内侧循环构成中,冷却液在封闭式腔体内与发热器件进行热交换;在室外侧循环中,低温水在液冷换热模块中吸收气态冷却液携带的热量变成高温水,进入冷却塔后,高温水与大气进行热交换,变成低温水后再与气态冷却液进行热交换32。图3-7浸没式相变液冷的示意图32赛迪,2020年中国液冷数据中心白皮书。45近年来,随着液冷技术的发展,一些科研单位和公司将其有效的应用到服务器/芯片级散热领域。国际上,IBM、谷歌、英特尔等国际巨头早已积极布局;在国内,中科曙光、华为、浪潮、联想和阿里为代表的科技公司开展了积极探索,并积累了丰富的经验。例如:2013年,中科曙光完成了首台冷板式液冷服务器原理机的验证;2015年,中科曙光部署大规模商业应用项目落地;2017年,浪潮发布了以冷板液冷服务器为核心的解决方案。由于在散热行能、集成度、可维护性、可靠性、性能、能效、废热回收、噪声控制等方面的优良表现,液冷技术已经成为数据中心突破节能瓶颈的解决方案之一。2019年2月,工信部、国家机关事务管理局和国家能源局联合发布了《关于加强绿色数据中心建设的指导意见》,鼓励数据中心采用液冷等高效系统设计方案。但受到资本投入、设备兼容、传统观念等限制,目前液冷技术的普及推广仍面临着制约,需要加快技术宣传、最佳实践普及和标准研制等步伐。3.5电气系统电气系统用于提供IT设备使用所需的电压和电流、照明等。数据中心电气系统包括供配电系统、备用电源、不间断电源、高压和低压配电以及照明系统。系统能耗主要包括开关损耗、低压配电系统损耗、UPS损耗、供电电缆损耗等。电气系统作为数据中心的第三大能耗大户,在规划设计时应根据系统负荷容量、用电设备特点,供电线路距离以及分布等因素,从设计、运行和管理等方面采用先进的节能技术。通用的节能措施包括:1)对电子信息设备的实际用电量及其电源系统的配置容量、冗余度进行复核,在满足安全性的前提下对其进行改造,使电源设备处于转换率较高的负载率区间。462)合理调整供配电系统,变压器、配电线路和设备的容量应满足数据中心基础设施可用性等级及该等级在GB/T2887对应的相关规定。3)综合考虑采用可再生能源、峰谷蓄能、错峰蓄冷、液冷、余热回收利用等技术手段,提高数据中心用能清洁化水平和电能利用效率。4)对原回路容量进行校核,并应选择节能灯具。应充分利用自然光,并设置光感系统。3.5.1采用高效节能设备对供电设备进行选型时,应采用新型节能技术和设备,减少供电设备自身的消耗。1)针对变压器:建议采用SCB10型干式变压器,或者空载损耗更低的非晶合金干式变压器等。2)针对UPS设备:在相同的额定容量时,可选用高效率的高频UPS等;在满足IT设备安全可靠运行的条件下,可选用高压直流供电系统对IT设备进行供电,该方法节省了逆变环节,效率相对传统塔式UPS大幅提高。3)针对照明系统:可采用LED等高效节能光源,以电子镇流器取代电感镇流器,延时开关、光控开关、声控开关、感应式开关取代跷板式开关等。同时,可增加照明控制系统进行节能管理等。4)锂电池技术:随着锂离子电池的能量密度和安全性能的持续提高,成本的不断降低,锂电在数据中心的需求量越来远大,有望成为新一代主流能源。在新型技术方面,可采用具备“动态休眠”的供电产品设备。该技术可在系统负载较低的情况下,与动力监控系统相结合自动根据当前总负载的大小计算出工作所需的整流模块或UPS模块数量,实现供电系统整体效率的提升,减少能源在低负载情况下的浪费。473.5.2促进UPS自身节能机房的能耗大户是服务器、数据存储器等数据处理设备,数据设备的用电量大,就需要更多的UPS电源来供电,UPS电源在电能转换中需耗费一定的能量,电能在传递分配中也有损失。在满足业务需求或同样处理存储能力的设备中,促进提高UPS自身节能是数据中心能效提升的关键。主要的措施包括:1)选用高效器件数据中心可采用高压直流技术,系统包括交流、整流和直流配电部分。高压直流是在配电前端先将输出的电流整流并转换成直流电源供IT内服务器电源使用,服务器电源只需要实现DC-DC的转换,中间变化的过程减少了损耗,增加了电流的可靠性和稳定性。新型高效UPS的运行效率可达96%以上,节约型的不间断电源在低负载区间依然能保持较高的效率。2)提高UPS运行效率UPS的效率直接决定了整个UPS系统的能耗,这也使得数据中心客户对UPS效率的要求日益提高。以一个容量为300KVA的UPS为例,每度电按0.9元计算,UPS效率每提高1%,一年节省的电费为300×0.8×0.01×24×365×0.9=18921.6元。可见提高UPS的工作效率,可以为数据中心节省一大笔电费,因此提高UPS效率是降低整个机房能耗的最直接方法。通过优化算法,实施监测负载、环境、电网情况等,不断调整UPS工作状态,保障UPS一致运行在高效率状态。同时,可通过智能休眠技术,在负载较低时,使一些模块休眠,减少UPS的空载能耗,从而提高系统运行效率,为了保障休眠状态下模块的同一寿命,模块可采用自动轮换休眠等模式。483)降低输入电流谐波,提高输入功率因数谐波的危害表现为引起电气设备(电机,变压器和电容器等)附加损耗和发热,降低继电保护,控制,以及检测装置的工作精度和可靠性等。谐波诸如电网后会使无功功率加大,功率因数降低,甚至有可能引发并联或串联谐振,损坏电气设备以及干扰通信线路的正常工作。目前治理谐波的方式有6脉冲整流器+无源(或有源)滤波器,12脉冲整流器+无源滤波器,IGBT整流器等方式,这些能够实现低输入电流谐波(<3%)和高输入功率因数(>0.99),从而实现数据中心的节能要求。4)采用ECO模式目前大部分的UPS均具有ECO模式(即经济运行、交流直供),电能质量好且节能需求较为迫切的数据中心,可采用ECO模式。在ECO模式下,UPS自身能耗将大幅降低,效率可达到99%以上。3.5.3促进可再生能源利用目前中国数据中心的可再生能源利用仍处于起步阶段。随着中国“双碳”目标的提出,在各地越来越严格的能源双控目标下,数据中心的可再生能源利用必然要再上一个台阶。目前,国家尚未出台对数据中心的可再生能源利用提出明确的要求。在2017年的《国家绿色数据中心试点评价指标体系(2017)》中规定:数据中心应用高比例可再生能源或清洁能源(包括自有设施生产和外购的可再生能源或清洁能源)作为加分项,用电比例达到当地供电系统配电网可再生能源渗透率的加1分,每增加10%加1分,最多5分。目前,数据中心利用可再生能源的主要路径包括:1)自建可再生能源项目数据中心自建可再生能源项目可以是集中式电站或者分布式光伏电站。其中,分布式光伏发电指采用光伏组件,将太阳能直接转换49成为电能的分布式发电系统。目前最为广泛的形式是屋顶光伏发电项目。数据中心自建分布式光伏的典型案例:北京中经云亦庄数据中心于2016年投入使用,数据中心大楼顶层设计安装800kW(10000平米)的光伏电站,利用太阳能为建筑提供电力服务33。数据中心集中式电站的典型案例:2015年苹果公司分别于四川省新能源、中环能源、加州阳光电力合资城里企业,在四川建设集中式光伏电站。在风电领域,苹果在2016年入股金风科技旗下4家新能源公司,年生产风电285兆瓦。由于前期投入较高,且数据中心自建的可再生能源项目发电量仅能满足少量的用电需求,因而企业积极性不高,仍需要在政策、投资、发电上网等方面加大支持和引导力度。2)可再生能源市场化交易在新一轮电力体制化改革下,数据中心可通过电力中长期市场,直接或通过售电企业采购可再生能源。如百度阳泉数据中心2017年签约风力发电2600万千瓦时,清洁能源使用占比达到16%。2018年,该数据中心风电用电量达到了5500万千瓦时。同时,绿色证书等也为数据中心采购可再生能源提供新的途经。自2018年以来,中国互联网云服务企业的可再生能源采购量实现了较大规模的增长,阿里、万国数据、百度等均实现了可再生能源利用量的提升,秦淮数据还提出了“100%可再生能源转型目标”,据此,有理由相信数据中心的可再生能源利用规模和水平将持续提高34。33中国数据中心能耗与可再生能源使用潜力研究。34中国电子学会,中国绿色数据中心发展报告,2020.503.5.4应用需求响应技术电力需求响应是电力用户对电价或激励信号做出的主动响应,这种响应主要表现为用户临时性改变用电行为,即根据电价高低或激励大小,临时性调节电力负荷。随着能耗管理技术的发展,先进的数据中心已经具备高度灵活的自适应能耗调整能力,可以作为需求侧可控负荷与电力系统协同运行,参与电力需求响应。数据中心参与需求响应的主要方式包括:直接负荷控制、蓄冷空调等。严格来说,蓄冷技术在用户侧并不直接节能,但蓄冷技术可以解决区域电网供需矛盾,促进可再生能源消纳,有利于区域电力系统的安全稳定运行。对于用户来说,如果峰谷价差的足够大,蓄冷技术的应用能大幅减少用户电费,带来较好的经济效益。1.直接负荷控制直接负荷控制是数据中心采取先进的技术手段,包括无线电控制技术、专用通信线控制技术,对可调节的用电设备进行分台分类的集中控制。根据电价或激励信号,临时性启动或关闭用电设备,以达到促进电力平衡和节约电费等目标。2.蓄冷空调蓄冷空调是一种储能装置,利用峰谷电价差,利用夜间低谷点制冷,将冷量以冷、冷水或凝固状相变材料的形式储存起来,而在空调高峰负荷时段部分或全部地利用储存的冷量向空调系统供冷,以达到减少制冷设备安装容量、降低运行费用和电力负荷削峰填谷的目的。根据蓄冷介质的不同,常用蓄冷系统又可分为三种基本类型:第一类是水蓄冷,即以水作为蓄冷介质的蓄冷系统;第二类是冰蓄冷,即以冰作为蓄冷介质的蓄冷系统;再一类是共晶盐蓄冷,即以共晶盐作为蓄冷介质的蓄冷系统。水蓄冷属于显热蓄冷,冰蓄冷和共晶盐蓄冷属于潜热蓄冷。水的热容量较大,冰的相变潜热很高,而且都是易于获得和廉价的物质,是采用最多的蓄冷介质,因此水蓄冷和冰蓄冷是应用最广的两种蓄冷系统。51蓄冷空调可作为数据中心中央空调系统的紧急备份,保障中央空调系统的安全性。在中央空调主机停机时持续一段时间的冷量,对于制冷系统要求较高的金融、电信等领域,蓄冷空调可发挥较大的作用。3.6能耗管理能耗管理对于数据中心而言,犹如一条正态分布的长尾曲线,曲线的头部由IT设备、空调、电气、建筑等大指标构成,曲线的尾部则由机柜位置部署、气流组织形式、机柜距离以及系统运行维护等小指标构成35。对于数据中心而言,能耗管理要实现大指标和小指标的综合管理,为数据中心节能提供整体解决方案。为了提高数据中心能耗管理水平,数据中心应建立能耗监测系统,有能力的数据中心可构建智能化运维系统。图3-8数据中心能耗管理的长尾曲线1.构建能耗监测系统数据中心能耗监测系统通常包括:各种智能化的电力设备、传感器、存储设备、应用系统、控制系统等。35侯晓雯,李程贵,空调系统节能方案在数据中心的应用,通讯电源技术,2020年第37卷第12期。52数据中心的能耗监测对象包括:动力系统(包括高压变配电设备、中亚变配电设备、低压配电设备、整流配电设备、变流设备、发电和储能设备等)、空调设备(包括冷冻系统、空调系统、配电柜、分散式空调等)、机房环境(包括环境条件、图像监控、门禁等)。数据中心能耗监测系统能够实现对所有耗电设备的监控和管理,实现数据采集和分析功能,能够对数据中心用电量分时段统计、分析、实现趋势分析和预警等功能。系统能够对用电设备的基础信息、配置信息等进行详细的管理,可根据机房环境温度和上级指令有选择地对智能/非智能耗能设备进行开启和关闭。2.构建智能化运维系统通过技术改造,将原有系统升级为智能化运维管理系统,使其能够根据设备状态、负载率等运行状态的实时变化,根据内外部不同温度、湿度、水温、储冷量、峰谷电价等综合因素,及时调整各系统的工作状态,使各设备系统能够在满足冗余需求的前提下,尽量工作在能源效率最优的状态。有条件的数据中心可采用大数据、AI算法等手段实现空调系统智能、节能调节。534.数据中心节能改造实践案例本章将介绍国内不同类型的数据中心节能改造案例,以分析数据中心的节能技术实践,总结不同类型、不同气候区数据中心的节能先进经验。4.1中国电建总部数据中心节能改造1.基本情况中国电建总部数据中心是企业自用数据中心36。该数据中心投入运行超过15年。通过节能诊断发现,该数据中心能耗较高,数据机房难以满足现有的节能标准要求。如该数据中心机架下的布线距离小于30公分,阻碍空调送风速度,影响制冷效率;机柜布置不合理,冷热空气存在掺混的情况等。2.改造措施对该数据中心的改造囊括了位置、环境、物理建筑、基础设备、各系统建设和维护等多个方面。具体包括:①对整体机架布局进行节能优化。将原有机柜的统一正面摆放模式进行了调整,对机柜布局采用机柜面对面、背对背的摆放方式,形成冷热通道。机柜正面为冷通道,并设置风口地板,冷空气从机房正面进入,设备吸收热量后,由机柜背面上方自然回风进入空调,空调形成下送风、上回风的循环送风方式,使其具备良好的使用和散热效果。②对冷热通道进行了封闭。增加了铝合金和扣板吊顶,并在热通道上方采用了回风百叶的形式,确保回风顺畅。在空调与吊顶之间安36赛巍.数据中心机房绿色节能应用-中国电建总部数据中心改造.技术与应用.2015.10.029,95-96.54装回风帽,使楼板与吊顶板之间形成负压热空气回风层,加强空调回风效率,降低制冷能耗。③对风口及温控地板节能改造。由于数据机房部分机柜的精密空调送风距离较远,地板下空间相对较低,因此在距离精密空调10m以外的机柜正面配置温控通风地板。温控通风地板带EC风机装置37,达到调节、增加风量的作用。通风地板具有自动调节功能,当冷通道内出现了局部热点时,可以自动调节增加冷量。④电气系统节能改造。UPS输出配电采用智能配电模块,可检测到每个回路的供电指标。智能配电系统设计与UPS系统安装在同一机柜内,采用模块化结构,可根据负载容量的需求变化增加或者减少配置,而无需关闭UPS输出或配电总输入开关。同时,采用智能照明以及门开灯亮、门关灯灭的节能措施,对数据中心照明灯具全部采用LED节能灯具。⑤精密空调配备节能技术。包括1)高能效数码涡旋压缩机,确保机组高能效比:采用了高能效比的数码涡旋式压缩机。压缩机的压缩过程连续、平稳;压缩机的排气过程旋转角度超过540°;在吸气及压缩过程中没有热量交换;在压缩过程中制冷剂气流方向没有改变;减少了气流损失;涡旋式压缩机无需高、低压阀门;减少了阀门损失,防止产生液击;启动电流低。数码涡旋压缩机在涡旋压缩机基础上采用了数字控制技术,数码涡旋压缩机可以在20%~100%之间连续调节容量输出,按机房需求提供制冷量,确保了对室温的严格控制,降低能耗,同时减少压缩机的起停次数,提高压缩机的可靠性。2)高效EC风机系统室内风机采用了两个高效的EC风机,为冗余设计。EC风机具有效率高、节能、可调速等优点,比传统风机节能20%,可根据制冷量需求调整转速,降低在低负载下的能耗。具有高冗余性,每个风机均设计有约25%余量。3)iCOM控制器强大的联动与群控功能通过Teamwork方式统一控制管理,实现机房环境的节能控制。4)37EC风机指采用数字化无刷直流外转子电机的离心式风机或采用了EC电机的离心风机。55采用新风预冷技术,对新风进行预处理已达到室内空气状态,减少机房精密空调不必要的加湿除湿功能工作,降低不必要的空调耗电。3.改造效果通过节能综合改造,该数据中心机房空调能耗下降20%-30%,机房空调间利用率提高从50%提高到90%;数据中心PUE值大幅下降,满足了国家发改委、工信部和财政部联合要求的大中型数据中心PUE值要求。4.2贵州省信息园数据中心智能新风系统1.基本情况贵州省信息园数据中心位于中国西南地区,气候温暖湿润,属亚热带湿润季风气候。数据中心建筑面积约8177m2,地上2层,建筑高度为11.5m,总装机容量为1380个实用机架,机架总功耗6900kW,空调最大冷负荷7830kW。2.改造内容空调系统冷源采用3台离心式冷水机组+3台板式换热器(均为两用一备),每台水冷离心冷水机组配置1台板式换热器(换热量同主机),利用冬季或过渡季室外低温空气,由冷却塔提供低温冷却水与板式换热器进行换热,板式换热器另一侧接空调末端供回水,通过板式换热器直接利用冷却塔提供的低温水(板式换热器免费供冷),从而减少冷水机组运行时间,降低能耗。智能新风系统该项目应用智能新风系统作为自然冷源为数据机房提供冷量,在适宜的室外环境温度条件下启用智能新风系统。下图为智能新风系统原理剖面图。智能新风系统工作方式为新风从外墙进风百叶进入,经过滤段、EC风机(进风),在机房空调区与回风混风处理后送入机房(地板下送风),经过机房通信设备后,热风由EC排风机排至室外,从而减少离心式冷水机组运行负载以及缩短工作时间。56图4-1贵州省信息园数据中心自然冷却改造示意图为保证系统节能运行,冷却塔、水泵等均采用变频控制,冷水系统采用集中自控系统,系统管道选用电动切换阀门,实现远程监控与自动切换控制,提高空调系统整体能效。3.改造效果该项目根据贵阳地区气候和环境条件,采用了智能新风系统改造模式,全部或部分使用外界自然冷源取代传统空调系统供冷。该项目采用智能新风系统后,节能量可达16%,全年节电量288万千瓦时,减少二氧化碳排放量933吨。表4-1智能新风系统能耗对比能耗对比室外气温/℃小计-5~00~55~77~1010~1515~2020~2525~3030~35年累计时间/h62818775905130119722087782588760无智能新风系统免费板式换热器功耗/kW457457467000000冷水机组功耗/kW000143114761506150615061506空调末端功耗/kW67167168570873074574574574557功耗小计/kW112811281153213822062251225122512251运行能耗/万千瓦时7.09289193287444470176131772有智能新风系统智能新风31834938038043854166000免费板式换热器功耗/kW598598623000000冷水机组功耗/kW00079483986986915061506空调末端功耗/kW000393415430430745745功耗小计/kW9169471003156716921841195922512251运行能耗/万千瓦时67778142220363409176131484节能率/%16.26利用自然冷源进行冷却的数据中心制冷系统多布置于北方寒冷干燥地区,而该案例成功布置在气候温暖湿润得贵州省,表明了自然冷源的适用范围不仅局限于北方,借鉴意义重大。4.3黑龙江省某数据中心蒸发冷却改造北方寒冷地区具备更加优越的自然条件,外部冷源的全年可利用时间往往在4000小时以上,对尚未利用外部冷源的数据中心进行节能改造可以大大提高数据中心的能效水平。1.基本情况黑龙江省绥化市某数据机房原有空调系统为全空气系统,配有两台精密空调、两台加湿器,采用高架地板,下送上回的气流组织形式,未利用外部自然冷源。目前该项目的空调系统已经进行了节能改造.改造后该机房采用蒸发冷却与机械制冷联动空调系统,选用了4台18000m3/h风量的蒸发式冷气机和4台轴流式排风机58图4-2改造前(左)与改在后(右)的空调系统对比2.节能效果改造后该数据中心空调系统的运行可根据室外温度的变化灵活调整运行模式。在夏季,炎热高温时,开启精密空调为机房供冷,并利用部分回风,达到节能的目的;在冬季,室外空气温度较低时,可以关闭机械制冷,单独运行蒸发式冷气机,并可以根据室外气象条件,灵活调整新风比例;过渡季节,室外空气温度低于机房内温度,可以采用直流式全新风的运行模式。对蒸发式冷气机运行期间的室外空气干球温度进行测量显示:机房内的温度基本保持在27℃,相对湿度基本保持在50%,符合数据中心对温湿度的要求。由于东北属于严寒地区,年平均气温较低,自然冷源丰富,蒸发式冷气机基本可以满足数据中心的制冷要求,全年开启精密空调的时间不足一个月,其节能率在60%~80%。4.4江苏省某互联网数据中心智能群控系统改造1.基本情况江苏省某大型运营商数据中心总机架数量约5000架,运行时间约8年。该数据中心进行节能改造之前全年平均PUE约为2.0,改造前的全年电费约1.2亿元(电费为0.89元/度)。59该数据中心由于运行时间较长,机房内多处过热,存在安全隐患;气流组织紊乱,空调容量配置不合理,造成了能耗浪费。2.改造模式对该数据中心改造为增设了智能群控系统。在保证数据中心安全前提下,对数据中心机房内各分区空调的开启/关断进行控制。出于对数据中心运行安全的考虑,该部分需以机房的分区为单位进行独立空调开启与关停控制,各数据中心分区需设置独立的控制单元进行空调启停控制,并能手动通过该控制单元指定长期备份机组。数据中心机房内正常运行时需要精密空调为N台。当数据中心机房内温度降低达到临界值(22℃)时,群控系统自动关闭一台空调达到节电目的。当数据中心机房内温度高于临界值(24℃),群控系统自动打开一台备份空调,来保证数据中心机房的安全运行,具体控制策略详见下图。图4-3精密空调群控加减机原理示意图具体措施包括:整体群控系统。整体群控系统是整个节能改造的“大脑”,控制着精密空调、空调冷水主机、雾化喷淋系统的加减机。能够实现对机房内精密空调和室外冷水主机控制,以及室外机雾化喷淋系统的监控。60同时,该项目中对每个分区的冷热通道布置温湿度传感器,将数据中心机房内温度上传至控制层DDC(DirectDigitalControl,直接数字控制)来控制每个分区内精密空调的加减机,达到节能目的。雾化喷淋群控。空调室外机雾化喷淋系统的控制一般作为整个群控系统单独的部分完成,然后将室外机雾化喷淋控制接入到整个群控系统中。空调冷水主机群控。空调冷水主机群控系统主要目的是在保证系统运行安全的前提下,根据空调冷水主机的负荷和数据中心温度,控制冷水主机的加减机,达到节能目的。该群控系统的核心是能够带来最大节能量的空调冷水主机自动控制策略。空调冷水主机群控系统根据空调冷水主机系统冷冻水总管供/回水温度,冷水机组运行电压、电流等参数计算出冷水机组实时负荷,判断冷水机组负载率,进而计算出冷水机组的需求台数并自动控制其加减机(也可采用与冷水机组通讯方式进行控制)。直接测量冷水机组压缩机功率,与额定功率比值做为冷水机组负载率,并结合总管温度来判断机组加卸载,是一种简洁有效空调冷水主机加减机控制策略。3.改造成效该项目改造后PUE由2.0降低至1.70,每年节电量约1722万kWh,每年节省电费约1533万元。随着IT设备功耗的进一步增加,年节电量还会进一步增加。表4-2改造前后PUE及节能量对比月份1月2月3月4月5月6月7月8月9月10月11月12月平均改造前PUE1.821.781.951.992.022.062.082.112.132.091.951.911.99改造后PUE1.581.491.581.661.711.751.791.861.891.761.681.621.7节能(万千瓦时)117142181161152152142122117161132142614.5上海某数据中心制冷系统智慧节能案例1.基本情况上海某数据中心2006年启用,该机房为五星级机房。总面积达16000多平方米,为华东地区大型专业数据中心之一。目前一期、二期均已启用。已使用有3227个机架,共6000个机架。提供主机托管、机架出租、增值业务等服务,并有十余个VIP专区提供给高端客户。该数据机房能源利用效率较高,PUE值为1.42。但由于规模较大,用电量较高,改造前平均每天的设备用电为25.8万度,平均每天的总用电为36.6万度。目前,数据中心平均电价为0.6465元/度,降低电费成为数据中心的迫切需求。2.改造情况数据中心改造的对象是空调系统,运用制冷系统智慧节能控制技术,结合先进的信息网络技术及大数据技术实现对冷源系统设备的统一监管和控制,实现中央空调制冷站系统的集中化、智能化、节能化管控,现场的智能管控设备通过远程通讯传输到能源管理云平台,可实现其对中央空调制冷站现场控制柜、本地控制中心、云平台三位一体同步智能管控。图4-4智慧节能控制系统基本架构高效冷站智慧节能控制系统分为三层架构组成:621)第一层为设备层,包括传感器、执行器、各类控制阀门等,负责采集基础数据以及管路的通断,如温度、流量等;2)第二层为控制层,包括各类中继、控制器、PCD及其组成的控制柜等;3)第三层为上位机全局寻优系统。项目一期冷机选用6台800RT定频离心式冷水机组,1台800RT变频离心式冷水机组作为冷源,对应末端精密空调127台;二期冷机选用5台900RT变频离心式冷水机组作为冷源,对应末端精密空调215台;冷冻水泵、冷却水泵与冷机一一对应配置。为实现节能运行,建设超高效中央空调冷水机房智慧控制系统,联合冷机运行数据、冷冻水泵变频控制、冷却水泵变频控制和冷却塔以及末端精密空调的变频控制,经过联合模拟分析,保证整个冷冻站系统在满足末端冷负荷需求的前提下,系统整体能效最优化运行。3.改造效果通过制冷系统智慧节能改造,数据中心年可实现节约电量560万kWh,节约电费超过364万元,节能率达到15%。同时,该项目投资回收期较短,三年就能收回成本。表4-3上海市末数据中心制冷系统智慧节能改造效益情况冷冻机房冷冻机房(kW/ton)年耗电量年节电量节电费(RMB)节能率投资回报期(kWh)(kWh)(%)年优化前0.66336,526,3195,601,3553,640,88115%2优化后0.56130,925,003634.6数据中心节能改造实践经验以上分析了典型数据中心案例的节能改造工作,从实践上看,虽然国内数据中心投入运行时间、类型和规模等不尽相同,但大部分数据中心或多或少存在一些节能改造的空间。首先,自然冷源在数据中心节能改造中扮演着重要角色,从实践上看,不仅可以在北方寒冷地区,在南方部分数据中心,自然冷源利用同样可以发挥重要的作用。其次,对数据中心的常规节能改造例如优化气流组织形式、重新布局冷热风流道、增强密封性等仍然具有发挥空间,特别是中小数据中心而言,以上技术的应用可获得十分可观的节能效益。最后,对能耗的运维监控、智能化管理系统为数据中心节能工作打开了新思路。以往数据中心的节能工作侧重于技术改造,对于运维管理、能耗监控等关注不够。随着技术改造空间的进一步压缩,特别是先进数据中心对于智慧化和综合节能需求的不断提升,亟待通过技术更迭与加强运维两手抓的方式,将数据中心的节能工作提高到新的层次。645.数据中心节能工作面临的形势与对策分析随着互联网、云计算、大数据和人工智能等新一代信息通信技术的快速发展与应用,数字经济带动了海量数据的储存和处理需求。数据中心作为数据经济发展的重要载体,其规模不断扩大,由此带来的高能耗问题引起了广泛的关注。从“十二五”以来,中国加大了数据中心节能工作,出台了一系列政策措施,制定了节能设计和运行标准,推动中国数据中心节能技术改造和绿色数据中心建设。在国家和地方主管部门的指导下,行业协会和研究机构的推动下,在先进企业的引领带动下,中国数据中心节能工作取得明显进步,数据中心粗放式发展得到有效抑制,布局更加合理,结构更加优化,数据中心的平均PUE值不断下降、绿色数据中心建设的数量和质量明显提高。截至2019年底,中国数据中心数量已经超过7.4万个,机架总数接近300万架,按照机架平均功率计算,国内在用机架总功率超过1500万kW,电能消耗惊人。数据中心用电量占全社会用电量的比重从“十二五”期间的1%增长到2020年的2%左右。2020年以来,以5G、大数据、物联网、人工智能等新技术、新应用为代表的新基建,在推进疫情防控和疫后经济复苏上发挥了巨大作用,成为适应经济发展趋势、推动社会稳定发展的重要引擎。数据中心作为新基建有序运行的基础保障,被视为“新基建的基础设施”、经济高质量发展的“数字底座”,未来将具有更广阔的发展空间,其高能耗问题亟待给出更好的解决方案。本章将分析数据中心节能工作面临的形势,提出数据中心节能工作的应对策略。655.1面临的形势5.1.1数据中心能耗将会持续增长随着经济的发展,中国数据总量持续增长。赛迪顾问认为,2030年中国数据总量将超过4YB,占全球数据量的30%。为了储存和运算这些数据,考虑到IT技术自身的技术进步,初步估计2030年中国数据中心的总规模将达到2019年的2-3倍,由此带来的能源消费量将比2019年翻一番。图5-1中国数据总量的预测来源:赛迪顾问从各地规划看,中西部地区正在加快数据中心建设规划。如山东提出全力打造“中国算谷”;贵州省重点打造大数据产业集群贵安新区,目前已规划建设12个超大型数据中心,计划到2025年,贵安新区承载服务器数达400万台,数据中心固定资产投资超400亿元,打造成为世界一流数据中心集聚区。部分一线城市和发达地区也有数据中心建设规划,如上海计划三年内在临港新片区新建5个云计算数据中心;浙江提出三年内建设大型、超大型云数据中心25个左右;天津市目前在建天河三号,还有腾讯、阿里等企业大数据从北京搬迁至武清,预计“十四五”期间,天津的大数据中心将从原来的十几家增长到二十几家,占全市电能消费比重将从1%提高到3-4%。665.1.2数据中心节能要求越来越高2020年9月22日,习近平总书记在第75届联大一般性辩论上宣布,中国将提高国家自主贡献力度,二氧化碳排放力争于2030年前达到峰值,努力争取2060年前实现“碳中和”。围绕着“双碳”目标,大部分省市已经加紧了提前布局,控制化石能源消费总量、促进可再生能源发展、实现清洁能源对煤炭的规模化替代等。在国家和各省能源、产业转型过程中,对于高耗能建设项目审批更为严格,不断提高新建项目的准入条件。从国家层面,2019年工信部、国家机关事务管理局、国家能源局等部门出台的《关于加强绿色数据中心建设的指导意见》,提出到2022年数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的PUE值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升。在能源资源相对紧缺的一线城市,对数据中心节能要求更为严格。如北京市已经禁止在中心城区新建或扩建数据中心,全市范围(中心城区外)新建数据中心PUE不能超过1.4;同时,北京还加大了数据中心节能监察工作力度,2020年,集中约谈了11家能耗超过限额标准的数据中心,下达了《节能监察建议数》,督促上述数据中心加快节能整改。上海市提出了对全市数据中心实施全面的节能技术改造要求,对于新建数据中心的准入条件不断提高,在《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》指出,新建数据中心PUE限制在1.3以下,存量改造数据中心PUE限制在1.4以下等。作为承接数据中心转移的京津冀周边以及中西部地区,近年来也加强了数据中心建设规范,对数据中心节能设计、运行能耗等提出了相应的要求。如贵州市出台政策,要求数据中心呈现规模化和集约化发展,对新建的数据中心提出更高的节能标准和要求。67可以预见的是,随着各地“碳达峰”路线图的落地,在能源双控、碳减排等工作要求下,各地对于数据中心的建设标准将越来越严格。除了一线城市和发达地区,能源消费指标紧张的中西部地区,如内蒙古等地,对于数据中心的态度也将趋于谨慎。为了完成能源消费总量控制以及减排指标等,各地必将加大数据中心节能和提高能效工作力度,根据实际情况,在“控制增量、优化存量”等方面,提高地区数据中心的整体能源利用效率。5.1.3数据中心节能技术亟待突破从全球范围来看,通过一系列的常规节能措施,2006~2013年数据中心能效经历了大幅提升阶段,PUE降幅较大,PUE从2006年的2.7大幅下降到2020年的1.65。互联网巨头PUE甚至已经接近1,如Facebook美国Prineville数据中心PUE低于1.08、GoogleBerkeley数据中心年均PUE达到了1.11、阿里巴巴杭州仁和数据中心采用的液冷自然冷源设计年均PUE达到1.12。图5-2全球数据中心能效发展情况随着现有节能技术改造空间的进一步压缩,高功率芯片和服务器的激增,业内亟待数据中心节能技术的新突破。微软、谷歌、阿里等行业巨头纷纷加大了其在节能降耗方面的研发力度。液冷技术、可再生能源利用技术等成为新一轮技术竞争的焦点。68对于行业巨头来说,数据中心节能降耗不仅关系着成本和服务的竞争力,更关系着环境的可持续发展。掌握了核心的节能技术,行业巨头有望从技术转让市场、全球或地区碳市场上获益,在获得巨大经济效益的同时,有助于提高企业形象。5.1.4数据中心亟待开展碳资产管理随着国内3060双碳目标的提出,碳排放权稀缺性提高,碳资产作为一种重要金融产品,对于排放企业将产生巨大的影响。企业碳资产包括碳排放配额、经核证的减排量(CCER)等,碳资产管理的内容包括MRV(即碳排放测量、报告和核查)等基础工作,减排项目开发、减排交易、碳资产增值管理等。目前,国内正在开展碳达峰等顶层设计,重点行业也开始了碳达峰等路径研究。除了传统的高耗能行业外,作为近年来能耗增长速度快、能耗刚性需求大的数据中心,其减排和碳达峰路径也是受到了广泛的关注。对于数据中心来说,进入碳市场面临着压力和挑战,一方面,数据中心亟待通过节能诊断、改造等方式,不断节能和提高能效,减少碳排放初始分配等方面的压力;同时,需要开展碳资产管理,利用碳资产进行融资、发展碳资产托管等业务,同时防范市场和政策风险,提高自身应对能力。5.2应对的策略根据国内数据中心能效现状与发展趋势,建议从规划、标准、技术改造、管理等角度,有针对性地制定数据中心能效提升策略。5.2.1有针对性地制定能效提升路线图国内数据中心数量多、类型多,数据中心的规模、区域分布、功能、能效等不尽相同。建议根据数据中心的特点,有针对性规划布局,并制定相应地能效提升路径。69首先,改变唯PUE论或所有数据中心统一PUE值的做法,对于不同地区而言,按照数据中心所处的气候环境(严寒地区、寒冷地区、夏热冬冷地区、夏热冬暖地区、温和地区)、数据中心的制冷形式(风冷式系统、水冷式系统)、数据中心的综合能耗变化情况等,相应地调整能效指标。其次,对于同一地区的数据中心而言,建议按照数据中心能效、投运时间等,进行分类管理。对于PUE值较低、规模较大的先进数据中心,应多关注综合能耗水平,以及IT系统的节能,避免出现制冷系统节能,IT设备功耗增加的矛盾影响;对于PUE值较高、规模较小的数据中心,宜进行制冷系统等常规改造,引入自然冷源,优化气流组织形式等。同时,应制定节能管理制度和规范,以较小的投入获得更多的节能收益。最后,加大政策监管和支持力度。将数据中心能耗情况纳入区域统一的节能监管平台,实现数据中心节能监察工作的常态化,同时将节能监察与节能服务相结合,对数据中心节能技术改造等予以支持和资金倾斜。5.2.2制定统一的节能标准和规范目前,国内缺少数据中心节能的专项标准。在国家标准方面,仅有数据中心能源管理体系标准,其余均为地方、行业或团体标准。在标准类型上,在数据中心、建筑等相关国家标准中,虽然有数据中心节能设计、运行、管理、评价、测量等内容,但不成体系,缺乏统一的规范。在标准执行上,往往比较单一,比如北京和上海均出台了数据中心能耗限额标准,但其能耗限额标准仅指数据中心的PUE值,在执行层面尚需细化。随着数据中心能耗问题的凸显,有必要从国家、地方、行业等层面建立统一和规范的标准体系,以系统、综合、协调性地解决数据中心面临的节能问题。70在国家标准上,加大数据中心节能专项标准的宏观引领作用,整合现有的数据中心、建筑和建筑热工、电气、空调等相关标准,制定专门的数据中心节能设计和运行标准;其次,加大数据中心能效限额标准等的制修订,在能效指标上,改变唯PUE论的做法;最后,制定数据中心节能测量、验证等标准,提高数据中心节能成效,促进第三方机构对于数据中心的节能服务。在行业和团体标准方面,建议加强标准规范的可操作性,对于数据中心的高耗能系统,如制冷系统等,建立专门的标准规范;同时,制定并细化数据中心节能诊断、节能管理等标准规范,帮助数据中心更好地开展节能技术改造和管理工作。在绿色数据中心建设方面,建议国家制订国家绿色数据中心评价标准和规范,同时,加大国家绿色数据中心认证工作,提高国家绿色数据中心认证质量,促进绿色数据中心能效的持续提升。5.2.3开展制冷系统全面节能改造制冷系统是数据中心能耗最大的辅助设备,因而一直是数据中心节能技术改造的重点和难点。目前,国内制冷系统面临着运行模式不合理、冷湿环境不均匀等问题,需要综合、系统的解决方案。首先,应根据制冷方式,制定不同的节能策略。制冷系统在大型和中小型数据中心的运行方式截然不同,大型数据中心中普遍应用的是水冷,中小型数据中心普遍应用的空冷/风冷,几种制冷方式改造路径不同,应制定不同的节能策略。比如传统的机械制冷(风冷)数据中心中面临很多的送风系统结构问题,主要体现在冷热通道未封闭,下送风方式下地板距离不够,地板下方布线影响出风,数据中心密封性差,冷风直接外流等问题。通过调整数据中心的管线和结构,在未动制冷系统的前提下即可以促进能效得到较大的提升。其次,充分利用自然冷源。数据中心自然冷源被认为是目前最行之有效和最节能的方式之一,包括风冷、水冷和地源冷等,后扩大到71可再生能源如风力、太阳能等。在国内数据中心相关节能政策和标准中,多次提及自然冷源的利用,自然冷源利用已经是被国内普遍接受的资源综合利用方式。再次,应用间接蒸发冷技术。早期数据机房冷却方式为在机房外部的冷却水段对制冷器进行洒水喷淋冷却,但由于喷淋用水呈碱性,易在制冷器外部结垢,进而影响喷淋效率。近年来,在此基础上改造的湿膜法得到了较好的应用前景,从自然条件上看,北方低温低湿的环境适宜采用蒸发冷。最后,示范推广液冷技术。近年来液冷技术已经在数据中心得到了比较广泛的应用。液冷技术主要分为冷板式、喷淋式以及浸没式。其中,浸没式液冷技术是行业巨头争相研发的重点。除了能有效解决高功率芯片的散热问题外,液冷技术对于余热利用有着天然的优势,这是因为液冷系统的出水温度普遍位于40℃以上,本身的余热品味要高于传统制冷,因而更利于利用。5.2.4加快可再生能源利用和调峰能力建设随着国内“双碳”目标的提出,在各地通往碳达峰和碳中和的路径中,必然要加大可再生能源发展,促进可再生能源的利用。对于高耗能的数据中心来说,提高可再生能源应用比例,是企业落实减排责任、降低成本、提高竞争力的重要途经。目前,国内数据中心对于可再生能源的利用仍处于初期阶段,即使是国家绿色数据中心,也没有出台可再生能源利用率的强制性要求。当前,困扰着数据中心可再生能源利用的关键因素,一是可再生能源自建成本高,投入产出比较低;二是通过绿电交易等购买的可再生能源较难得到承认,由于多种因素制约,国内绿色电力来源普遍不清晰,加上绿色电力采购成本过高,客观上也制约了数据中心可再生能源的利用。对于数据中心扩大可再生能源利用,建议做好统筹规划。由于A、B、C类数据中心对于电能质量和稳定性要求不同,同一数据中心的72不同用电设备对电能质量和运行时间要求也不尽相同,因此,建议根据数据中心实际情况,制定可再生能源利用方案。在实践中,可根据数据中心电能质量要求,设定不同的可再生能源利用目标。同时,建议扩大数据中心可再生能源来源,鼓励企业自建屋顶光伏,降低企业购买绿色电力、电力市场化交易的成本等。为了保障数据中心高比例可再生能源应用的可靠性,建议将数据中心纳入城市能源管理系统,实现数据中心的电力管理、实时预测与其他用电机构的协调调配。通过将数据中心纳入城市能源管理系统,除了能够增加城市电力系统韧性外,数据中心的电耗波动还可与可再生能源的波动进行匹配耦合,充分利用峰谷价差的能源特点,增强数据中心对城市电网的调峰能力。通过这一措施,不仅有利于区域可再生能源消纳,还有利于数据中心发展储能,开展蓄能技术改造,参与需求响应工作等,从而降低电费,提高电能利用效率。5.2.5大力开展数据中心节能管理数据中心节能管理不仅包括政府对数据中心的监督管理,还包括数据中心自身的管理。在政府节能监督方面:建议将数据中心能效要求逐步纳入行政执法范畴。早期数据中心能效值以规范、指导意见的形式体现引导性要求,目前,能效值已经成为行业准入条件,项目审批的重要依据,在数据中心扩张速度快的地区,建议其成为减量置换、能源预算的依据。在执法层面,建议将数据中心能效作为节能监察的重要内容,开展常态化的节能监察工作。在管理内容上,建议从单一的能效值向多指标细化,适当增加平均机架设计功率、机架运行效率、上架率、水资源利用效率等指标内容。在数据中心自身节能管理方面:建议加强数据中心能源能耗监测系统建设,提高能源管理智慧化和自动化水平。同时,建立节能激励和监管制度建设,促进能耗定额管理、能源管理体系、节能目标责任73等节能制度在数据中心的实施;最后,加强数据中心节能能力建设,提高数据中心能源统计、计量能力,建立有利于节能工作的管理机制和组织架构,配备能源资源管理负责人,培育节能管理人才,加大节能宣传和培训等。74附件一:数据中心节能政策时间政策名称主要内容2013《工业和信息化部进一步加强通信业节能减排的指导意见》新建大型数据中心PUE值达到1.5以下。2015《北京市新增产业的禁止和限制目录》全市范围禁止新建和扩建PUE1.5以上数据中心;城六区禁止新建和扩建数据中心。2017《工业和信息化部关于加强“十三五”信息通讯业节能减排工作的指导意见》到2020年新建大型、超大型数据中心的PUE达到1.4以下。2018《北京市新增产业的禁止和限制目录》(2018年版)全市禁止PUE1.4以上数据中心,中心城区及副中心禁止新建和扩建数据中心。2018《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.3以下。2018《关于加强绿色数据中心建设的指导意见》到2022年新建大型、超大型数据中心的电能使用效率值达到1.4以下。2019《上海市经济信息化委、市发展改革委关于加强本市互联网数据中心统筹建设的指导意见》新数据中心PUE在1.3以下,改建PUE在1.4以下。新建单项目不低于3000机架且平均单机架不低于6kW。75附件二:数据中心节能标准规范类别标准名称国际标准LEED_2009NCTIA_942-2_-2010-2TIA-942《数据中心电信基础设施标准》美国ASHRAE数据中心热处理国内标准(机房建设)数据中心资源利用系列标准GB50174-2017数据中心设计规范GB50462-2015数据中心基础设施施工及验收规范GBT22239—2008信息系统安全等级保护基本要求GB50300-2013《建筑工程施工质量验收统一标准》GBT2887-2011计算机场地通用规范T/DZJN17-2020《绿色微型数据中心技术规范》国内标准(机房环境)YDT_1821-2008通讯中心机房环境条件要求GF014-1995通信机房环境条件(暂行规定)YD5039-2009通信工程建设环境保护技术暂行规定YDT1712-2007中小型电信机房环境要求国内标准(制冷设备)YDT2061-2009通信机房用恒温恒湿空调系统GBT-19413-2010-计算机和数据处理机房用单元式空气调节机GB13722-92移动通信电源技术要求和试验方法YD5079-2005通信电源设备安装工程验收规范YD5126-2005通信电源设备安装工程施工监理暂行规定YDT1051-2000通信局(站)电源系统总技术要求YDT1184-2002接入网电源技术要求76YDT1376-2005通信用直流-直流模块电源(代732-94)YDT1436-2006室外型通信电源系统地方标准DB31/651-2012数据中心机房单位能源消耗限额(上海)DB11/T1282-2015数据中心节能设计规范(北京)DB11/T1139-2014数据中心能效分级(北京)DB37/T2480-2014数据中心能源管理效果评价导则(山东)DB37/T1498-2009数据中心服务器虚拟化节能技术规程(山东)DB33/T2157-2018公共机构绿色数据中心建设与运行规范(浙江)DB44/T1560-2015云计算数据中心能效评估方法(广东)77附件三:数据中心空调系统节能标准《工业建筑公共暖通风与空气调节设计规范》GB50019-2015《民用建筑供暖通风与空气调节设计规范》GB50736-2012《集中空调制冷机房系统能效监测及评价标准》DBJ/T15-129-2017《绿色建筑运行维护技术规范》JGJT391-2016《中央空调水系统节能控制装置技术规范》GB/T26759-2011《公共建筑节能设计标准》GB50189-2015《电子工业洁净厂房设计规范》GB50472-2008《洁净厂房设计规范》GB50073-2013《供暖与空调系统节能调试方法》GB/T35972-2018《空气调节系统经济运行》GB/T17981-2007《冷水机组能效限定值及能源效率等级》GB19577-2015《通风与空调工程施工规范》GB50738-2011《洁净厂房施工及质量验收规范》GB51110-2015《综合能耗计算通则》GB/T2589—2008《用能设备能量测试导则》GB/T6422—2009《设备及管道绝热技术通则》GB/T4272-2008《电气装置安装工程接地装置施工及验收规范》GB50169《通用用电设备配电设计规范》GB50055-2011《自动化仪表工程施工及质量验收规范》GB50093-201378附件四:国家绿色数据中心先进适用技术产品目录(2020)序号名称适用范围技术原理主要节能减排指标技术产品应用现状和推广前景技术产品提供方应用实例备注一、能源、资源利用效率提升技术产品(一)高效系统集成技术产品1预制式微模块集成技术及产品新建数据中心/在用数据中心改造在模块内集成了机架系统、供配电系统、监控管理系统、制冷系统、综合布线系统、防雷接地系统和消防系统等数据中心各核心部件。可通过工厂预制保证现场交付质量与进度。具有界面清晰,建设简单特点,可根据需求分期部署。与传统数据中心相比:1.可节电约15%;2.PUE可达到1.3以下。未来5年市场占有率可达约30%。华为技术有限公司、深圳市艾特网能技术有限公司、维谛技术有限公司、长沙麦融高科技股份有限公司、科华恒盛股份有限公司、广州南盾通讯设备有限公司、香江科技股份有限公司某数据中心:采用智能微模块,工厂预制,快速部署,采用行级近端制冷技术提高机柜功率密度。可实现PUE约1.3。技术产品提供方所列企业均为可独自提供该类技术产品的企业,其产品具体功能及性能参数各有特点,排名不分先后。下同。2软件定义数据中心技术新建数据中心采用计算虚拟化、分布式存储、网络功能虚拟化和智能运维等先进技术,使用x86服务器构建软件定义的计算、存储和网络资源池,赋与传统数据中心相比,IT系统可节约投资约30%未来5年市场占有率可达50%。北京优帆科技有限公司某数据中心:采用软件定义的数据中心技术,建设具备弹性及快速扩展能力的基础设施交付与管79予数据中心快速交付和弹性调度IT资源的能力,并能统一管理硬件和虚拟化资源,显著提高IT资源的使用率。理平台。可实现服务器资源效率提升约70%,机房物理空间资源节约约67%。3微型浸没液冷边缘计算数据中心新建数据中心/在用数据中心改造微型液冷边缘计算数据中心由微型液冷机柜、热交换器、二次冷却设备、电子信息设备、硬件资源管理理平台等组成。IT设备完全浸没在注满冷却液的液冷机柜中,通过冷却液直接散热,冷却液再通过小功率变频循环泵驱动,循环到板式换热器与制冷系统进行冷量交换。1.系统年均PUE最低可至1.1;2.单机柜IT可用空间13-42U,可用IT功率密度5-50kW。预测到2024年,将会有约18亿kW以上的IT设施应用在微型液冷边缘数据中心中。深圳绿色云图科技有限公司某数据中心:选用直膨式制冷方案,年均PUE=1.4,全年节电量8.76万kW·h。4喷淋液冷边缘计算工作站新建数据中心/在用数据中心改造整个系统主要由冷却塔、冷水机组、液冷CDU、液冷喷淋机柜构成。工作过程为:低温冷却液送入服务器精准喷淋芯片等发热单元带走热量,喷淋后的高温冷却液返回液冷CDU与冷却水换热处理为低温冷却液后再次进入服务器喷淋。冷却液全程无相变。1.PUE值可低至1.07;2.单机架功率集成可达50kW以上;3.2U标准机架式喷淋液冷服务器功率密度可达2kW以上。预测未来5年喷淋液冷机架数量为17.2万架,年节约用电234亿kW·h以上。广东合一新材料研究院有限公司某数据中心:整体电功率达到120kW。机房室外设备采用集装箱式整机模块,数据中心整体PUE值降低至1.07。系统工作环境温度-20-48℃。80(二)高效制冷/冷却技术产品5蒸发冷却式冷水机组新建数据中心/在用数据中心改造通过蒸发冷却和闭式冷却水塔相结合的方式,充分利用空气流动及水的蒸发潜热冷却压缩机制冷剂,实现对自然冷源的充分利用。1.能效比(COP):≥15;2.与传统的水冷式冷水机组相比,可以节电15%以上,节水50%以上;3.与风冷式冷水机组相比,节能35%以上。预计未来5年其市场容量将达到30亿元。广东申菱环境系统股份有限公司、新疆华奕新能源科技有限公司、深圳易信科技股份有限公司、广州市华德工业有限公司某数据中心:节能量:104MW∙h;节水量:40824m3;补水量:0.8m3/h。不适用于:缺水场合、相对湿度较大地区。6磁悬浮变频离心式冷水机组新建数据中心磁悬浮压缩机采用电机直接驱动转子,电子转轴和叶轮组件通过数字控制的磁轴承在旋转过程中悬浮运转,在不产生磨损且完全无油运行情况下实现制冷功能。与常规变频离心机组及螺杆机组相比,可节电约10%-15%。未来5年随规模增加和价格下降,市场占有率可大幅提高。苏州必信空调有限公司、青岛海尔空调电子有限公司、克莱门特捷联制冷设备(上海)有限公司、南京佳力图机房环境技术股份有限公司某数据中心:季节综合COP可高于14,运行费用约为传统冷水机组的47.6%。7变频离心式冷水机组新建数据中心针对数据中心空调系统需求,依据数据中心高温出水工况优化设计,结合数字变频技术,可实现较高的COP及IPLV。与常规定频离心式冷水机组相比,可节电约20%。预计未来五年内国内市场总额将达到900台(套)。珠海格力电器股份有限公司、顿汉布什(中国)工业有限公司某数据中心:总装机容量约3万kW全年综合效率提升65%,节能40%以上,年节电量约900万kW·h。818集成自然冷却功能的风冷螺杆冷水机组新建数据中心/在用数据中心改造风冷螺杆冷水机组集成自然冷却功能,具有压缩机制冷、完全自然冷却制冷、压缩机制冷+自然冷却制冷三种运行方式。1.综合能效:大于6.0;2.与常规风冷螺杆冷水机组相比,可节能36%以上。预计未来五年市场容量将达到30亿元。顿汉布什(中国)工业有限公司某数据中心:安装自然冷却风冷全封闭螺杆冷水机组4台(3用1备),年节省电力约200万kW·h。9节能节水型冷却塔新建数据中心/在用数据中心改造在传统横流式冷却塔的基础上,应用低气水比技术路线,降低冷却塔耗能比,同时减少漂水。1.热力性能:≥100%;2.耗电比:≤0.030kW/h·m³;3.漂水率:0.000092%。预计未来5年市场规模将增长至6亿元/年。湖南元亨科技股份有限公司某数据中心:冷却水流量3200m³/h,每年节省用电26.1万kW·h,节约用水约1.1万吨。缺水地区不适宜使用。10氟泵多联循环自然冷却技术及机组新建数据中心/在用数据中心改造低温季节,压缩机停止运行,制冷剂通过制冷剂泵在室外和室内进行循环,将冷量带入室内。过渡季节压缩机与制冷剂泵一起使用,最大限度地利用自然冷源。在高温季节,开启压缩机制冷模式。全年能效比(AEER):整机可大于8.5。预计未来5年应用规模将超过2万套/年。深圳市艾特网能技术有限公司、深圳市英维克科技股份有限公司、广东海悟科技有限公司、依米康科技集团股份有限公司、维谛技术有限公司某数据中心:总制冷量70kW,相对于传统风冷型机房空调满负荷运行下节电达36.6%以上。适用于全年气温有较多时间低于15℃的地区。8211间接蒸发冷却技术及机组新建数据中心利用湿球温度低于干球温度的原理,通过非直接接触式换热器将通过加湿预冷的室外空气的冷量传递给数据中心内部较高温度的回风,实现风冷和蒸发冷却相结合,从自然环境中获取冷量的目的。年综合能效比可大于15。预计未来5年市场份额达到10%-20%。深圳市英维克科技股份有限公司、深圳易信科技股份有限公司、依米康科技集团股份有限公司、华为技术有限公司某数据中心:建设规模:占地2000m2,机柜数量480个;节能量:28%。12风墙新风冷却技术新建数据中心将室外自然新风经过处理以后引入机房内,对设备进行冷却降温。与传统精密空调系统相比,系统可节电约60%预计未来5年市场份额达到10%-20%。深圳市英维克科技股份有限公司北方某数据中心:建设容量10万台服务器。充分利用自然冷源配合高效供电系统,可实现PUE低至1.1。适用于空气质量,相对较好的区域。13模块化集成冷源站新建数据中心通过工厂预制的方式,将冷源、冷量输配设备、智能节能控制系统、自然冷源系统等部分进行集成,根据需要做成不同冷量的模块化集成冷源站。在项目现场可实现灵活部署,实现整体系统节能。1.PUE值可降低至1.24;2.整体能效运行效率可达0.65kW/Ton。预计未来5年,集成冷源站市场规模约50亿元。南京佳力图机房环境技术股份有限公司某高性能计算中心:采用模块化集成冷源站冷站2套,制冷量130RT,节能约50%。8314模块化机房空调新建数据中心/在用数据中心改造采用多维度回风换热技术、模块化组合技术、匹配负荷动态变化控制技术,实现机组噪音降低、风机数量减少,提升能效。1.全年能效比(AEER)可达4.48;2.机组占地面积可减小10%。预计未来5年普及率达到10%-20%。珠海格力电器股份有限公司广东某数据中心:采用30-100kW冷量机房空调83台,运行可节省电量288.5万kW·h。强磁场、高盐碱高酸性以及电压极不稳定场合不适宜使用;海拔超1000m需降额使用。15直流变频行级/列间空调新建数据中心/在用数据中心改造空调部署在机柜排中,紧靠热源安装,动态匹配数据中心负载需求,是中高密度数据中心的一种高效散热方案。该技术采用永磁同步变频压缩机、EC直流无刷风机、电子膨胀阀等关键节能器件,实现低载高效。行级应用可以实现接近100%的显热比,节省了湿负荷对能源的浪费。与传统方案相比,部分低负载条件下相比传统定频房间级空调可节电约55%。预计未来3-5年市场占有率可达约40%。华为技术有限公司、依米康科技集团股份有限公司某数据中心:采用直流变频行级空调技术。与传统房间级下送风方案相比,部分负载可实现节电率约55%。16制冷系统智能控制系统新建数据中心/在用数据中心改造通过各类数字技术采集制冷系统各部分运行参数,利用智能技术对数据进行分析诊断,结合制冷需求给出最优控制算法,使制冷系统综合能效最高。系统节能率可达15%-50%预计未来5年大型数据中心市场推广率可达30%以上。华为技术有限公司、北京嘉木科瑞科技有限公司、福建佰时德能源科技有限公司某数据中心:建筑面积:20000㎡;机柜数量:1500个;年节约用电量:275万kW·h。8417精密空调调速节能控制柜在用数据中心改造在精密空调压缩机、室内风机供电前端增加节能控制柜,节能控制柜采集室内的温度信号,根据蒸气压缩式制冷理论循环热力计算结果输出相应控制信号控制压缩机、室内风机工作频率,进而达到降低能耗的目的。精密空调应用后:1.整体(包括压缩机和风机)年节能率可达30%;2.空调实际制冷效率可提升到3.36以上。预计末来5年市场占有率可达25%,实现年节电量2.2亿kW·h/年。深圳市共济科技股份有限公司某数据中心:额定制冷量1MW,共安装10台空调节能控制柜。改造后日均节能量1331.2kW·h,节能率21.6%。适用于直膨式定频空调;不适用于冷冻水型空调及变频空调。18空调室外机雾化冷却节能技术新建数据中心/在用数据中心改造雾化器将水雾挥洒并覆盖在空调冷凝器进风侧的平行面,通过水雾的蒸发冷却降低冷凝器进风侧空气的温度,并实现智能控制。与传统风冷式精密空调相比,可节电约12%-25%。预计未来在老旧风冷数据中心改造中有较大的推广潜力。天来节能科技(上海)有限公司某数据中心:安装268套空调雾化节能冷却技术设备。节能率约16.93%,年节电量约93万kW·h。需要关注水质和翅片腐蚀以及冬季水管防冻问题。19风冷空调室外机湿膜冷却节能技术新建数据中心/在用数据中心改造在风冷空调(或热管)的室外冷凝器进风口增加一个湿膜过滤装置,空气经过湿膜时,通过湿膜中的水蒸发冷却降低冷凝器的进风温度。室外机冷凝器的冷凝温度每降低1℃:1.相应主机电流会降低2%;2.产冷量提高1%;3.综合计算可节能3%。预计在未来5年内实现推广量5万台,可形成节碳量167000tce/a,CO2减排量416500t/a。四川斯普信信息技术有限公司某数据中心:项目规模:55台机房精密空调室外机节能改造;节能率:≧3%。一般要求室外干球温度≥10℃,且干湿球温差≥2℃以上。2085热管冷却技术及空调新建数据中心通过小温差驱动热管系统内部工质形成自适应的动态气液相变循环,把数据中心内IT设备的热量带到室外,实现室内外无动力、自适应平衡的冷量传输。具体实现有热管背板、热管列间空调等形式,具有系统安全性高、空间利用率高、换热效率高、可扩展性强、末端PUE值低、可维护性好等特点与传统空调系统相比,可节电约30%。未来5年热管背板冷却技术的应用规模预计将超过5万套/年。北京纳源丰科技发展有限公司、四川斯普信信息技术有限公司、浙江盾安人工环境股份有限公司、南京佳力图机房环境技术股份有限公司某数据中心:机柜数量约3000台。采用热管冷却技术可实现年节电量约7000kW·h/机柜。1.采用自然冷源节能效果好,但受环境条件限制。2.采用重力式热管空调,要求DCU底部距机组顶部距离大于1m,且不得有回环管路。21复合冷源热管冷却技术及空调新建数据中心/在用数据中心改造在热管冷却技术基础上,冷源端集成强制风冷、蒸发冷却、氟泵、压缩机等制冷方式,以进一步增强热管技术的适用性和节能性。年综合能效比(COP)可达6.0以上。预计未来5年应用规模将超过1万套/年。北京纳源丰科技发展有限公司、深圳市英维克科技股份有限公司某数据中心:机房建设面积500㎡,机架数104架,节能量92万度/年。需保障热管系统利用重力循环驱动所需高度差。22无机相变储能材料蓄冷技术新建数据中心/在用数据中心改造利用相变潜热远高于显热的特点被动存储和释放能量。1.使用周期:≥10年;2.相变温度:1-40℃;3.可以通过并联的方式形成超过2000kW的备冷能力,无需热备或管路开关的切换,零秒启动预计未来应用迅猛发展。北京中瑞森新能源科技有限公司某数据中心:2015年12月建设,年节电28908kW·h。8623水蓄冷技术新建数据中心/在用数据中心改造利用数据中心峰谷电价差,在夜间电价低谷时段启动备用主机给蓄冷设备蓄冷,白天电价高峰时段释冷。当发生停电事故时,蓄冷设备切换为释冷模式,与二次循环泵,循环水管路及末端空调机组成应急冷系统为数据机房供冷。1.蓄冷密度:7-11.6kW/m3;2.放冷速度、大小可依需冷负荷而定;3.可即需即供,无时间延迟。预计未来5年在大型数据中心应用领域平均以100%的年增速增长。北京英沣特能源技术有限公司某数据中心:空调冷负荷为21500kW。在室外设水蓄冷罐,体积约5000m3,夜间利用电谷价蓄冷,白天电峰价时放冷。蓄冷罐可同时满足连续供冷和冷却水蓄水要求。整个系统PUE能达到1.5以内。24水平送风AHU冷却技术新建数据中心将空调设备机房与数据中心机房同层设置,冷却空气通过中间隔墙直接送入机房对服务器进行冷却。通过改变空气流动方向,减少约50%的气流转向,降低空气流动阻力,减少了风机电能消耗,并可取消架空地板设置。与传统精密空调相比,可节电约20%。预计未来5年市场占有率可达10%-20%。北京百度网讯科技有限公司某数据中心:约600台机架采用水平送风AHU技术,PUE为1.21。25全密闭动态均衡送风供冷节能技术在用数据中心改造在机柜前后门全密闭冷热隔离供冷的基础上,机柜内垂直方向保持恒压,水平方向分上、中、下三个区域分别通过控制模型计算控制送风和回风,通过末端冷量需求精准控制前端冷源供给量,实现区域差异化动态均衡送风供冷。与简单冷热通道隔离相比,空调系统可节电约35%-40%。预计未来5年市场占有率可达15%。广州汇安科技有限公司某数据中心:采用8套全密闭动态均衡送风供冷节能单元(16个42U机架),IT设备设计总功率为60kW。可实现节电率约35%,年节电量约24万kW·h。8726顶置自然对流零功耗冷却技术新建数据中心/在用数据中心改造顶置冷却单元OCU由表冷器以及辅助结构件构成,表冷器布置在服务器机柜上方,利用热压效应实现自然对流冷却。并通过动态冷却控制方案,实现冷量按IT设备所需进行供给。顶置冷却单元OCU采用无风扇冷却设计,无机械运动部件,实现空调末端“零功耗”。预计未来在中高功率密度服务器,同一单元内功率密度比较接近的数据中心均可推广应用。北京百度网讯科技有限公司某数据中心:1.规模:约1800个8.8kW服务器机柜;2.节能量:对比传统精密空调方案,IT负荷平均约4000kW,PUE降低约0.1。要求机房层高不低于4.5米。27机柜/热通道气流自适应优化技术新建数据中心/在用数据中心改造以计算机控制技术为基础对服务器机柜或封闭热通道内的温度、压力等进行测量,控制风机的运行,优化气流组织,使服务器在任何负荷都能在适当温度的状况下正常工作。与普通冷热通道方式相比,可提高空调出风口温度3℃-8℃,节省能源15%-20%,提升机房机柜密度50%-100%。预计未来5年可改造20万台机柜,新安装5万台机柜。北京思博康科技有限公司某数据中心:改造后IT设备的总功率由原来的139.6kW,增加到405kW(未增加机房空调,5备1用)。28节能高效通风冷却系统新建数据中心/在用数据中心改造通过叶片及叶轮基于空气动力学的优化,以及高效电机、智能调整转速技术的应用,使风机实现节能降噪,并可根据制冷量需求实现智能控制转速。1.通风机效率高于国标1级能效;2.比A声级≤35.0dB。预计未来5年其市场容量将达到50亿元,未来5年市场占有率可达50%。威海克莱特菲尔风机股份有限公司某数据中心:项目配套节能高效轴流风机,降低能耗30%以上。适应环境-40-80℃,湿度不限。8829一体式智能变频泵新建数据中心/在用数据中心改造通过对变频器的二次开发,内置水泵特性曲线,实现根据负荷变化自动调节水泵频率。1.频率变化范围15Hz-60Hz;2.可节能(电机功耗减少)70%以上。预计未来5年市场占有率可达50%。艾蒙斯特朗流体系统(上海)有限公司某数据中心:实际流量为设计流量的54%时,实际功耗为设计功耗的36%,满足ASHRAE的节能要求。30数据中心液/气双通道冷却技术新建数据中心根据数据中心服务器的热场特征,采用液/气双通道冷却路线:高热流密度元器件(例如CPU)采用“接触式”液冷通道散热;低热流密度元器件(例如主板等)采用“非接触式”气冷通道散热。1.数据中心PUE:≤1.2;2.服务器CPU满负荷条件下工作温度:低于60℃;3.单机架装机容量:≥25kW。预计未来5年普及率能达到10%以上,并且每年以不低于10%的增长率获得推广应用。广东申菱环境系统股份有限公司某数据中心:采用14台液冷系统业务机架,装机容量93kW。项目节能量约每年134吨标准煤。31数据中心用单相浸没式液冷技术新建数据中心/在用数据中心改造将IT设备完全浸没在冷却液中,通过冷却液循环进行直接散热,无需风扇。1.制冷/供电负载系数(CLF)为0.05-0.1;2.可实现静音数据中心。预计我国未来应用前景广阔。深圳绿色云图科技有限公司某数据中心:应用80kW产品共三组,IT设备运行平均负载33kW。PUE累计值1.1。8932冷板式液冷服务器散热系统新建数据中心/在用数据中心改造由CDM中输出制冷剂,由竖直分液器送入机箱,由水平分液器送入服务器中。通过液冷板等高效热传导部件,将被冷却对象的热量传递到冷媒中。1.风扇功耗可降低60%-70%,空调系统能耗可降低80%(北方地区)2.PUE值低于1.2。预计未来5年内,使用率可以提高至15%。曙光节能技术(北京)股份有限公司某数据中心:机房总功率超过700kW。主要设备包括36个机柜、18台液冷分配模块等。实测平均PUE为1.17。33R-550制冷剂新建数据中心/在用数据中心改造四元混合制冷剂,凝固点低,蒸发潜热大,单位时间内降温速度快。1.节能率可达到25%-35%;2.在大气中生存年限0-3年,温室效应指数为0-3之间。通信机房和通信基站节能数据,按25%节能率计算,年可总节电约60亿kW·h。湖北绿冷高科节能技术有限公司某数据中心:节能改造后平均节能率28%。原HBR-22A制冷剂。34氟化冷却液新建数据中心/在用数据中心改造可广泛实现物质兼容,具有良好的介电常数和强度,可实现电性能绝缘性,具有完备的毒性数据、完善的职业接触指导,可用于浸没液冷系统对IT设备进行冷却。1.产品沸点可选范围34-174℃;2.不含nPB、HAP、三氯乙烯和全氯乙烯等受限物质及26种电子设备常见的有害物质;3.臭氧消耗潜能值(ODP)为零。预计5年后,将有超过10%的数据中心采用浸没冷却技术。3M中国有限公司某数据中心:服务器总功率约为2000kW,PUE约为1.07。9035湿膜加(除)湿机新建数据中心/在用数据中心改造加湿方式为:输送机房相对干燥、高温的空气通过湿膜加湿、降温;除湿方式为:输送机房相对湿润的空气通过冷凝器液化除湿;智能控制器实现对湿度的控制;可对水进行循环利用。相比常规红外恒湿机、电极恒湿机,节能率可达80%以上。预计在未来5年内可推广10000台。四川斯普信信息技术有限公司某数据中心:应用湿膜加除湿机(10kg/h加湿量)4台项目年节能量6.36万kW·h。,36自加湿机房精密空调新建数据中心/在用数据中心改造根据环境湿度,控制布水器将净水从精密空调蒸发器(或表冷器)的翅片顶部均匀流下,在翅片表面形成水膜。不饱和空气从翅片间穿过时,达到加湿效果。此外还具备飘水监测功能、冲洗功能。相比同等加湿量的电极式加湿器,加湿所需能耗仅为其1.1%。预计五年内可推广7500台。河南晶锐冷却技术股份有限公司某数据中心:采用加湿量为5kg/h的自加湿精密空调3台,年节约电能约6000kW·h。(三)高效IT技术产品37整机柜服务器技术新建数据中心以机柜为单位采用模块化设计,集中电源进行供电,集中风扇墙进行集中散热,集中管理模块进行智能管理。模块化设计更有利于大规模数据中心交付和运维,所有服务器节点、电源、风扇和管理模块等都可以单独进行维护,无需停机。散热效能提升70%,整体系统能效可提高约10%-20%。预计潜在普及率为40%-50%。北京百度网讯科技有限公司某数据中心:采用1200台整机柜服务器,可容纳约4万台服务器。估算约可实现年节电量4663万kW·h。9138温水水冷服务器新建数据中心采用45℃的温水作为IT设备制冷的冷媒工质,采用间接式液冷方式对计算机服务器进行冷却。在大多数地区可直接采用自然冷源,大规模应用下可进行热回收。PUE可低于1.1。预计未来5年内国内的水冷服务器市场规模将成倍数增长。联想(北京)信息技术有限公司某数据中心:进水温度40-45℃,冷却用水由自然冷却系统提供,系统PUE值为1.1节能效果与所在地区年温度变化曲线有关。39冷板式液冷服务器新建数据中心利用液体作为中间热量传输的媒介,通过液冷板等高效热传导部件将芯片热量传递到冷媒中。可有效解决中高密度服务器的散热问题,降低冷却系统能耗且降低噪声。1.与同等配置的风冷服务器相比,服务器可节电46.8%;2.噪音可降至45dB。预计未来5年市场占有率可达10%。曙光信息产业(北京)有限公司某数据中心:与传统风冷服务器相比,节电率约45%,年节电量275.6万kW·h。40基于ARM64位架构低功耗服务器技术新建数据中心基于ARM64位架构进行定制化设计,利用其单颗CPU的多核低成本优势,与业务应用环境充分结合,设计开发双路服务器。同性能需求配置下,单节点功耗可节省40W,实现TCO收益提升35%。预计潜在普及率10%以上。北京百度网讯科技有限公司某数据中心:应用100台服务器,服务器年节电约3.7万kW·h。需满足储存温度、运行环境温度、海拔、相对湿度等运行环境要求。41基于GPU加速的异构计算技术新建数据中心基于高速总线互联架构将计算解耦,将GPU/FPGA/AI加速卡池化设计,实现1机单卡,1机多卡,多机单卡和多机多卡灵活资源配置。对比传统GPU服务器,功耗可降低7%以上,TCO优化5%以上。预计未来潜在普及率10%以上。北京百度网讯科技有限公司某数据中心:应用43个机柜,年节电约35.9万kW·h。9242长效大容量光盘库存储技术新建数据中心/在用数据中心改造充分利用蓝光光盘可靠长效存储的特点构造高密度光盘库库体,并通过机电一体化调度技术对光盘进行科学智能化管理,实现海量信息数据的长期安全存储、快速调阅查询和专业归档管理以及智能化离线管理。存储设备可节电约80%预计未来几年存储装机容量将保持。40%以上的增长速度。华录光存储研究院(大连有限公司、深圳市爱思拓信息存储技术有限公司)某数据中心:1.运行时间:2007年至今;2.数据规模:110TB级以上,其中冷数据占比高达85%以上;3.节电率:80%以上。43磁光电融合存储技术新建数据中心结合蓝光光盘和硬盘存储各自特点,采用磁光电多级存储融合和全光盘库虚拟化存储机制,将固态存储(电)、硬盘(磁)、光存储(光有机结合组成一个存储系统,分别对应热、温、冷数据的存储。存储设备可节电约80%预计未来5年,国内市场需求量超过200亿元。武汉光忆科技有限公司、武汉光谷高清科技发展有限公司、广东绿源巢信息科技有限公司某数据中心:建筑面积310平方米。数据存储容量60PB,每年实际耗电量5.2万kW·h,节电约26万kW·h左右。(四)高效供配电技术产品9344高效不间断电源(UPS)新建数据中心/在用数据中心改造在电网供电正常时,去除电网中的高频干扰,并将交流电转换为平滑直流电,之后分为两路,一路进入充电器对蓄电池充电,另一路供给逆变器,将直流电转换成220V/50Hz的交流电供负载使用。当发生市电中断时,蓄电池放电把能量输送到逆变器,再由逆变器把直流电变成交流电,供负载使用。最高效率点96.5%。预计我国未来应用前景广阔。伊顿电源(上海)有限公司某数据中心:整机效率高达96%以上,帮助实现年均PUE1.25(最低可达1.13)。45模块化不间断电源(UPS)新建数据中心/在用数据中心改造UPS各个功能单元采用模块化设计,整机具有数字化、智能化等特点,可实现网络化管理。整机系统效率可达95%以上。预计未来5年市场占有率可达约50%。华为技术有限公司、先控捷联电气股份有限公司、施耐德电气信息技术(中国)有限公司某数据中心:负载890kW,效率达到96%。相比传统工频UPS可节电约5%,年节电约39万kW·h。4610kV交流输入的直流不间断电源系统新建数据中心将原有配电链路中的中压隔离柜、变压器柜、低压配电柜组、HVDC柜四类设备优化整合为一套电源,在电路拓扑上将模块五个变换环节优化为两个环节。从而简化配电链路,提高了供电效率。10%-100%负载下模块效率>97%,模块最高效率>98%;整机最高效率>97.5%。预计未来5年应用比例可达30%左右。阿里云计算有限公司某数据中心:建筑面积2万平米,外市电容量25MW,共采用1.8MW电源8台,年节电约443万kW·h。1.机房最小颗粒度电力容量>500kW;2.具备10kV外市电进线。9447SGB13型敞开式立体卷铁芯干式变压器新建数据中心/在用数据中心改造铁芯由三个完全相同的矩形单框拼合而成,拼合后的铁芯的三个心柱呈等边三角形立体排列。磁力线与铁芯材料易磁化方向完全一致,三相磁路无接缝。1.容量:2500kVA;2.空载损耗:2.438kW;3.空载电流:0.13%。每年推广1万台,一年可减少燃烧标准煤18.1万吨,减少二氧化碳排放量47.9万吨。海鸿电气有限公司某数据中心:应用2台敞开式立体卷铁芯干式变压器,年节约用电8万kW·h。48SCB13-NX1智能型环氧浇注式干式变压器新建数据中心/在用数据中心改造铁芯叠片型式为45°全斜接缝七级步进搭接;低压线圈采用箔绕技术,绕组在短路情况下实现零轴向短路应力;高压线圈采用树脂绝缘体系满足能效1级负载损耗要求;温控及监测系统可实时预估出干式变压器的老化速率及绝缘剩余寿命。《三相配电变压器能效限定值及能效等级》(GB20052-2013)能效1级。预计我国未来应用前景广阔。施耐德电气(中国)有限公司某数据中心:应用24台环氧浇注干式变压器,同常规应用的的干变相比,年节约用电约48万kW·h。49智能配电监测管理系统新建数据中心/在用数据中心改造通过对配电系统的电气设备运行参数的信息监测采集,提供能耗数据,设备效率和老化分析,实现对数据中心配电基础设施的智能管理。可用度可达99.99%以上。预计我国未来应用前景广阔。施耐德电气(中国)有限公司某数据中心:分三期投入运行,实现节能4%,减少运维人员需求10%。5095飞轮储能装置新建数据中心/在用数据中心改造从外部输入的电能驱动电动机带动飞轮旋转储存动能。当外部负载需要能量时,旋转的飞轮带动发电机发电,再通过电力电子变换装置变成负载所需要的各种频率、电压等级的电能,以满足不同的需求。1.输出功率:≥100kW;2.放电电压:360-550VDC;3.放电时间:≥15s(100%负载);4.待机充电电压:400-600VDC。基于市场对于UPS不间断电源的需求,预计2023年新增市场规模将达100亿元。二重德阳储能科技有限公司某数据中心:应用100kW飞轮储能产品已连续稳定运行18个月。(五)高效辅助技术产品51电化学法循环冷却水处理技术新建数据中心/在用数据中心改造以电化学技术为核心,通过在水体中发生系列电解反应,达到降低水体硬度、杀菌灭藻和防止腐蚀的作用。1.节省药剂:100%;2.节约用水:30%-70%;3.减少排污:80%-100%4.提高能效:1%-3%。可广泛用于数据中;心冷却水处理。北京中睿水研环保科技有限公司某节水技改项目:项目投资25万元,年减少药剂使用、清洗维护用水及排污等支出合计9万元。1.需要约20平米空间面积;2.寒冷地区需采取相应措施。52交变脉冲电磁波法循环冷却水处理技术新建数据中心/在用数据中心改造运用远低于10万赫兹的特定频率范围的交变脉冲电磁波,激励水分子产生共振,以纯物理方式解决结垢和腐蚀问题,抑制微生物滋生繁殖。1.节省药剂:100%;2.浓缩倍率:≧6;3.节约用水:>30%。可广泛用于数据中心冷却水处理。上海莫秋环境技术有限公司某数据中心:浓缩倍数从改造前约3倍提升到改造后的约6倍,年节水约2万吨。1.补充水硅酸(以SiO2计)≤60mg/L;2.寒冷地区需采取相应保温措施。二、可再生能源利用、分布式供能和微电网建设技术产品9653燃气分布式供能技术及集成化成套装置新建数据中心/在用数据中心改造以天然气为主要燃料带动燃气轮机、内燃机等燃气发电设备运行,产生的电力直接供用户使用,发电后排出的余热通过余热回收利用设备(溴化锂机组、烟气换热器、余热锅炉等)向用户供热、供冷,实现能源的梯级利用。1.综合能源利用效率可达80%以上;2.碳排放可减少约50%。预计未来随着分布式能源的不断推广,规模将进一步扩大。江苏凤凰数据有限公司、远大空调有限公司某数据中心:天然气分布式供能项目,可实现年节约标煤量6582.38吨,年碳排放消减量1.76万吨。54分布式光伏并网发电技术新建数据中心/在用数据中心改造将太阳能组件产生的直流电经过并网逆变器转换成与市电同频率、同相位的正弦波电流,直接接入公共电网。1.并网逆变器最大效率:98.9%;2.总谐波失真:≤3%;3.并网逆变器防护等级:IP65。随着光伏系统建设成本尤其是组件价格的进一步下降,预计未来5年的推广前景进一步向好。易事特集团股份有限公司某数据中心:建成0.2MW分布式光伏发电系统,满足办公用电需求。三、废旧设备回收处理、限用物质使用控制技术产品55废旧锂离子电池无害化处理技术新建数据中心/在用数据中心改造本技术以废旧二次电池为主要原料,采用拆解、检测及重组等梯次利用技术,以及焙烧、物理分选、湿法冶金等有价元素回收技术对废旧二次电池进行无害化处理。1.可高效回收钴、镍、锰锂等元素;2.工艺废水循环利用率:90.16%。预计2025年废旧动力电池回收市场规模将达到126GW·h。赣州市豪鹏科技有限公司已建成年回收10000吨废旧电池回收基地,拥有江西省首个废旧电池回收工程示范中心。需符合当地环保要求。9756废旧铅蓄电池高效利用处理技术新建数据中心/在用数据中心改造通过全自动精细破碎分选系统、热分解与交互反应、低温熔铸新工艺及成套设备等联合工艺,对废铅蓄电池的各部分进行回收再利用。生产过程产生的废水分质分类处理达标进行回用。1.处理产能10-100万吨2.一次粗铅产出率达到70%以上。铅酸蓄电池年报废量则达到500万吨,目前数据中心使用的铅酸电池约占整个铅酸电池消费的10%。安徽华铂再生资源科技有限公司项目年处理废旧铅蓄电池60万吨,铅蓄电池综合利用率超过99.9%。需符合当地环保要求。四、绿色运维管理技术产品57集群系统综合调度节能方法及装置新建数据中心/在用数据中心改造通过获取集群系统中每个分机的负载数据和环境数据,监控分机的运行状况数据。动态刷新所述调度表,按照利用率优先级从高到低的顺序依次向带有超临界标识的并且是低于预设利用率优先级的分机发送调度请求,实现对集群系统综合调度节能。可为集群计算机系统提供:1.分机智能错峰关闭;2.开机预热加速;3.过热耗电保护等功能。主要适用于各单位自用和大型租赁式数据中心、超级计算机中心等。投资仅需机房数据中心投入的10%;投资回收期为5年。珠海国芯云科技有限公司某机房:拥有云化服务器37台,本地电脑110台,3年节省总成本28.2万元。58数据中心能耗监测及智能运维管理系统新建数据中心/在用数据中心改造通过对数据中心基础设施动力环境及IT基础架构的全面监控及分析,制定出最优策略对各系统进行实时控制,实现数据中心能效最优。与常规数据中心相比,节电可达30%以上。预计未来5年大型数据中心中市场占有率可达约30%。中兴通讯股份有限公司、深圳市共济科技股份有限公司、深圳市盘古运营服务有限公司某数据中心:建筑面积18921平米,机柜数量3196个,平均每年节约电量51.9万余kW·h,平均每年节水2600余吨。9859机房环境参数测量分析及AI节能优化技术新建数据中心/在用数据中心改造采用可移动便携式测量平台或机器人搭载传感器,短时间内完成机房空间内的温湿度和空气流量等环境参数测量,通过建立气流模型形成温度云图进行热点分析和室内气流能效优化。另可结合动环监控系统以及BA系统的历史数据,通过机器学习模型训练,优化数据中心节能运维管理。1.提高测试效率100%以上;2.指导数据中心提高能效利用率10%以上。预计未来普及率可以提升至50%以上。中科赛能(北京)科技有限公司、上海允登信息科技有限公司某数据中心:应用该技术进行测量分析及改造后,仅半年时间即节约电能约19.31万kW·h。60数据中心后备储能管理系统新建数据中心/在用数据中心改造由单体电池采集模块、电池监控主机、电池集中监控软件组成。单体电池采集模块通过有线的方式与电池监控主机进行信息交互,通过电池集中监控软件对所有蓄电池进行统一监控管理。优化UPS系统的能源使用效率约1%以上。预计未来5年新建数据中心需要系统120万套,旧数据中心改造市场需求保守估计约100万套。科华恒盛股份有限公司某数据中心:采用产品134套,系统对应UPS额定负载11880kW,优化UPS系统的能源使用效率约1%。61数据中心峰值功耗动态管控技术新建数据中心/在用数据中心改造将数据中心服务器以及机柜层面的功耗感知能力融合到云操作系统的资源调度系统,在机柜层面或者是数据中心层面实现了机柜部署功耗能力的池化管理以及按需智能分配。1.提升机柜服务器平均上架率约20%,最高可至30%;2.数据中心实际建设功率平均利用率提高20%预计综合提高服务器上架率约25%。英特尔中国有限公司某数据中心:数据中心实际建设功率平均利用率提高约20%,实际建设功率的单位性能产出平均提升约10%。9962智能机器人巡检系统新建数据中心/在用数据中心改造沿自主规划的导航路线对设备进行巡检,通过搭载视频设备和各类传感器实现室内设备智能巡检和监控,也可以人工操作,获取需要监测设备的重要信息。1.可替代运维人员7×24小时全时巡检;2.大量减少机房人员进出频次。预计未来五年国内室内机器人年需求量不低于10000台。深圳市赛为智能股份有限公司某电力机房:利用机器人巡检系统进行定期巡检,可以远程实时查看巡检结果,查看机房内实时情况。1.不适用于易燃易爆环境;2.使用环境温度15℃-55℃。注:目录中的节能减排指标是某一或某些企业的实际测量数据,未考虑不同环境、不同区域和不同使用条件下的差异。100ABOUTENERGYFOUNDATIONCHINAEnergyFoundationChinaisaprofessionalgrantmakingcharitableorganizationregisteredinCalifornia,U.S.IthasbeenworkinginChinasince1999,andisdedicatedtoChina’ssustainableenergydevelopment.Thefoundation’sChinarepresentativeofficeisregisteredwiththeBeijingMunicipalPublicSecurityBureauandsupervisedbytheNationalDevelopmentandReformCommissionofChina.ABOUTGreenWorldLow-carbonEconomy&TechnologyCenterGreenWorldLow-carbonEconomy&TechnologyCenter,isaserviceinstitutionfocusingonlow-carboneconomydevelopmentresearchandtechnicalpromotion,wasformallyestablishedinJuly,2010.TheformerpersonneloftheProjectManagementOfficeofNationalDevelopmentandReformCommission/WorldBank/GlobalEnvironmentFacilityChinaEnergyConservationProjecthaveworkedintheCenternowaftertheclosureofthisproject.TheCenter,throughextensivecooperationwithrelevantinternationalorganizations,ESCOs,industryassociations,academicsocietiesiscommittedtobuildingacomprehensiveplatformwhichfacilitatesappraisalandpromotionoflow-carbontechnology,promotescasestudyandinformationdissemination,andstrengthenscapacitybuildingandinternationalcooperation.101免责声明若无特别声明,报告中陈述的观点仅代表作者个人意见,不代表能源基金会的观点。能源基金会不保证本报告中信息及数据的准确性,不对任何人使用本报告引起的后果承担责任。凡提及某些公司、产品及服务时,并不意味着它们已为能源基金会所认可或推荐,或优于未提及的其他类似公司、产品及服务。DisclaimerUnlessotherwisespecified,theviewsexpressedinthisreportarethoseoftheauthorsanddonotnecessarilyrepresenttheviewsofEnergyFoundationChina.EnergyFoundationChinadoesnotguaranteetheaccuracyoftheinformationanddataincludedinthisreportandwillnotberesponsibleforanyliabilitiesresultedfromorrelatedtousingthisreportbyanythirdparty.Thementionofspecificcompanies,productsandservicesdoesnotimplythattheyareendorsedorrecommendedbyEnergyFoundationChinainpreferencetoothersofasimilarnaturethatarenotmentioned.

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

碳中和
已认证
内容提供者

碳中和

确认删除?
回到顶部
微信客服
  • 管理员微信
QQ客服
  • QQ客服点击这里给我发消息
客服邮箱