绿色数据中心冷却方式研究报告--先进计算产业发展联盟VIP专享VIP免费

绿色数据中心冷却方式研究报告
先进计算产业发展联盟
2023 12
I
研 究 报 告 要 点
随着 5G、云计算、人工智能等新一代信息技术的快速发展,数据资源存
储、计算和应用需求大幅提升。作为海量数据和算力的载体,近几年数据中
心产业呈现出爆发式增长态势。据中国信通院发布的《数据中心白皮书(2022
年)》显示,我国数据中心机架规模近五年平均复合增速超过 30%。随着数
据中心行业的高速发展,其高能耗和碳排放问题引发社会关注。根据数据统
计,在数据中心主要设备能耗占比中,冷却设备耗电占比仅次于 IT 设备自身
能耗占比。因此提升冷却系统能效水平是应对数据中心节能降碳压力的有效
手段。
随着冷却技术的不断发展,在满足 IT 设备安全平稳运行的前提下,近几
年数据中心冷却方式正在从空气冷却向液体冷却方式转变、从机械制冷向充
分利用自然冷源方向发展。在多种冷却形式齐头并进发展的背景下,不同的
数据中心项目如何选择合适的冷却方案成为人们高度关注的一个问题。
本白皮书旨在为数据中心冷却方案的选择、设计、建设和运维提供参考
和指导。白皮书首先围绕我国数字经济与“双碳”目标协同发展的政策方针,
分析指出建设绿色、低碳、可持续的数据中心成为必然发展趋势,并在文中
于 PUEWUE 等
虽然目前数据中心面临着能耗压力和散热挑战,但同时压力和挑战也驱动着
冷却技术的不断发展创新;围绕技术原理、关键技术与设备、解决方案、技
术特点、适用范围、存在的问题和运维要求等七个方面介绍了冷板式液体冷
却技术、相变浸没式液冷技术,以及间接蒸发冷却技术、制冷剂自然冷却技
术、全新风直接冷却技术、干冷器、湖水冷却等自然冷却技术,全面分析了
各项绿色冷却技术的优势、不足;并对未来具有应用潜力的新兴技术进行介
绍和展望。
由于时间仓促,笔者水平有限,错误和不妥之处还望不吝指正。
II
编写组
牵头单位
曙光信息产业股份有限公司
曙光数据基础设施创新技术(北京)股份有限公司
参编单位
广东海悟科技有限公司
维谛技术有限公司
北京市新能源与可再生能源协会
中科可控信息产业有限公司
普洛斯普瑞数据科技(上海)有限公司
北京秦淮数据有限公司
指导组长
何继盛 张鹏 常乾坤 黄元峰
主要起草人
徐欣
贡献专家
李卫东 顾华 赵大山 雷爱民 韩会先 毛峰 钟洋 许泉
明 周平 刘荣青 金超强 王舜 刘浩鹏 刘凯艳
绿色数据中心冷却方式研究报告先进计算产业发展联盟2023年12月研究报告要点随着5G、云计算、人工智能等新一代信息技术的快速发展,数据资源存储、计算和应用需求大幅提升。作为海量数据和算力的载体,近几年数据中心产业呈现出爆发式增长态势。据中国信通院发布的《数据中心白皮书(2022年)》显示,我国数据中心机架规模近五年平均复合增速超过30%。随着数据中心行业的高速发展,其高能耗和碳排放问题引发社会关注。根据数据统计,在数据中心主要设备能耗占比中,冷却设备耗电占比仅次于IT设备自身能耗占比。因此提升冷却系统能效水平是应对数据中心节能降碳压力的有效手段。随着冷却技术的不断发展,在满足IT设备安全平稳运行的前提下,近几年数据中心冷却方式正在从空气冷却向液体冷却方式转变、从机械制冷向充分利用自然冷源方向发展。在多种冷却形式齐头并进发展的背景下,不同的数据中心项目如何选择合适的冷却方案成为人们高度关注的一个问题。本白皮书旨在为数据中心冷却方案的选择、设计、建设和运维提供参考和指导。白皮书首先围绕我国数字经济与“双碳”目标协同发展的政策方针,分析指出建设绿色、低碳、可持续的数据中心成为必然发展趋势,并在文中梳理分析了国家和地方关于PUE、上架率、WUE等关键指标的限值政策,认为虽然目前数据中心面临着能耗压力和散热挑战,但同时压力和挑战也驱动着冷却技术的不断发展创新;围绕技术原理、关键技术与设备、解决方案、技术特点、适用范围、存在的问题和运维要求等七个方面介绍了冷板式液体冷却技术、相变浸没式液冷技术,以及间接蒸发冷却技术、制冷剂自然冷却技术、全新风直接冷却技术、干冷器、湖水冷却等自然冷却技术,全面分析了各项绿色冷却技术的优势、不足;并对未来具有应用潜力的新兴技术进行介绍和展望。由于时间仓促,笔者水平有限,错误和不妥之处还望不吝指正。I编写组牵头单位曙光信息产业股份有限公司许泉参编单位曙光数据基础设施创新技术(北京)股份有限公司广东海悟科技有限公司指导组长维谛技术有限公司主要起草人北京市新能源与可再生能源协会贡献专家中科可控信息产业有限公司普洛斯普瑞数据科技(上海)有限公司北京秦淮数据有限公司何继盛张鹏常乾坤黄元峰徐欣李卫东顾华赵大山雷爱民韩会先毛峰钟洋明周平刘荣青金超强王舜刘浩鹏刘凯艳II目录一、绿色数据中心发展概述.......................................................................................1(一)绿色数据中心概念及其评价标准.............................................................1(二)信息技术发展带动数据中心建设提速.....................................................3(三)行业政策引导绿色可持续发展.................................................................5二、数据中心节能与散热.........................................................................................14(一)数据中心计算密度提升带来散热挑战...................................................14(二)数据中心能耗水平分析...........................................................................16(三)散热和能耗问题驱动冷却技术进步.......................................................17三、绿色冷却技术研究.............................................................................................20(一)冷却技术分类...........................................................................................21(二)冷板式液冷技术.......................................................................................24(三)相变浸没式液冷技术...............................................................................37(四)单相浸没式液冷技术...............................................................................46(五)间接蒸发冷却技术...................................................................................51(六)制冷剂自然冷却技术...............................................................................59(七)全新风直接冷却技术...............................................................................71(八)自然水冷源(海水、湖水、江河水)直接冷却技术...........................74(九)冷却塔技术...............................................................................................81(十)干冷器技术...............................................................................................86四、绿色低碳技术.....................................................................................................92(一)AI能源管控技术......................................................................................92(二)余热利用...................................................................................................93(三)绿电应用.................................................................................................101五、绿色冷却技术未来展望...................................................................................105(一)跨季节冰蓄冷数据中心冷却技术.........................................................105(二)远岸海上风力发电数据中心平台.........................................................106(三)两相冷板式液冷技术.............................................................................109III(四)高热流密度芯片级冷却技术..................................................................111(五)探索散热与再发电结合..........................................................................113参考文献...................................................................................................................115IV一、绿色数据中心发展概述(一)绿色数据中心概念及其评价标准绿色数据中心的“绿色”,其核心要义在于实现最优的能源利用率和最低的环境影响。国际电信联盟和世界银行等机构联合编写的《绿色数据中心:迈向可持续数字化转型》报告指出,绿色数据中心是指在数据中心的设计、建设、运营和维护过程中,采用了一系列环保、节能、可持续发展的技术和措施,以减少对环境的影响,提高能源利用效率,降低运营成本,同时保证数据中心的高可靠和安全性。绿色数据中心具备能源利用率高、环境友好、可持续发展和安全可靠的特点。绿色数据中心的实现主要包含以下六个方面:气候适应型、高效IT设备、可持续建筑、绿色能源、高效冷却方式以及IT设备的回收利用。高效冷却方式则是贯穿数据中心设计、建设,至运营维护全周期的重要环节。报告同时给出绿色数据中心的制冷解决方案如下:(1)充分利用自然冷源,减少机械制冷的应用;(2)采用精密空调、经济器以及通道封闭技术,提升冷却效率;(3)采用液冷等相关的创新制冷技术;(4)采用模块化制冷解决方案,根据IT负载需求,调整制冷容量,提升设备效率;(5)采用节水的冷却方式,以节约水资源利用。绿色数据中心是未来必然发展趋势。自2017年以来,工信部1等6部门组织开展了四批国家绿色数据中心推荐评价工作,前后认定共计196家国家绿色数据中心。国家绿色数据中心的评定,不仅为数据中心行业绿色发展确定了标杆,也为实现“2030年前碳达峰”“2060年前碳中和”的国家“双碳”战略起到了强大的助推作用。为了更好地实现绿色、节能、高效的目标,我国数据中心行业相继制定了一系列绿色数据中心评价指标相关的国家标准、行业规范,以此来引导数据中心市场健康有序地发展。通过表5可以看出目前关于PUE的测评、限定等级等多级标准较为完善,尤其在国家强制性标准《GB40879-2021数据中心能效限定值及能效等级》的发布实施,为PUE的测量、评价工作提供了权威参考依据。另外,绿色数据中心的评价工作尚缺乏国家权威标准,国家标准《绿色数据中心评价规范》目前正在制定中。标准类型表1现行标准国家标准标准名称行业标准(1)GB40879-2021《数据中心能效限定值及能效等级》(2)GB/T32910.2-2017《数据中心资源利用第2部分:关键性能指标设置要求》;《数据中心资源利用第3部分:电能能效要求和测量方法》;《数据中心资源利用第4部分:可再生能源利用率》(3)GB/TXXXXX《绿色数据中心评价规范》(制定中)(1)YD/T2442-2013《互联网数据中心资源占用、能效及排放技术要求和评测方法》(2)YD/T2543-2013《电信互联网数据中心(IDC)的能耗测评方法》2地方标准(3)YD/T3983-2021《数据中心液冷服务器系统能源使用效率技团体标准术要求和测试方法》(4)YD/T4023-2022《微模块数据中心能效比(PUE)测试规范》(1)DB11/T1139-2019《数据中心能源效率限额》(北京)(2)DB11∕T1638-2019《数据中心能效监测与评价技术导则》(北京)(3)DB11/T1282-2015《数据中心节能设计规范》(北京)(4)DB11/T2052-2022《绿色数据中心评价指标与方法》(北京)(5)DB31/T1216-2020《数据中心节能评价方法》(上海)(6)DB31/T1217-2020《数据中心节能运行管理规范》(上海)(7)DB31/T1302-2021《数据中心能耗在线监测技术规范》(上海)(8)DB31/652-2020《数据中心能源消耗限额》(强制性,上海)(9)B31/T1309-2021《数据中心节能改造技术规范》(上海)(1)T/ASC05-2019《绿色数据中心评价标准》(2)T/DZJN93—2022《数据中心碳排放评价规范》(3)T/BIE001-2017《数据中心用水技术导则》(4)T/CIE049A-2020《绿色数据中心评估准则》(5)T/ZGTXXH006-2021《绿色数据中心评估指标及评估方法》(二)信息技术发展带动数据中心建设提速随着5G、云计算、人工智能等新一代信息技术的快速发展,信息技术与实体经济加速融合,数据资源存储、计算和应用需求大幅提升。作为海量数据和算力的载体,近几年数据中心产业呈现出爆发式增长态势。2006年Google首席执行官埃里克·施密特(EricSchmidt)在搜索引擎大会(SESSanJose2006)首次提出“云计算”(CloudComputing)的概念,推动互联网技术和IT服务演进出新的模式。3云计算是继互联网时代之后信息技术的又一次飞跃。云计算通过计算机网络(多指因特网)形成的计算能力极强的系统,可存储、集合相关资源并可按需配置,向用户提供个性化服务。云计算与医疗、教育、政务等实体行业深度融合过程中,对数据资源存储、计算和应用需求大幅提升,数据中心基础设施建设进入扩张期。《“十四五”信息通信行业发展规划》中提出到2025年,每万人拥有5G基站数达到26个,5G用户普及率达56%。中国信通院公布数据显示截至2023年5月,我国5G基站总数达到284.4万个。中国通信标准化协会的数据显示,目前主要运营商的5G基站主设备空载功耗约2.2-2.3kW,满载功耗约3.7-3.9kW。作为国内5G基站建设的领先企业,华为以及中兴都在此前公布过5G设备的耗电数据,结果都是4G设备满载的3倍左右。实现相同面积的覆盖,5G基站数量比4G可能多出3倍,每个5G基站的耗电量是4G基站的3倍,5G网络的功耗将是4G网络的6-12倍。随着5G传输速率的成倍提升、5G业务的不断发展,5G基站的能耗问题也给运营商带来压力。生成式AI表现出来的智慧能力,给未来的场景应用乃至社会生产方式的变革都带来了巨大的想象空间。虽然目前生成式AI的技术应用仍处于初级阶段,但用于训练的大模型的训练参数规模增长速度已超过摩尔定律,海量数据增长的背后离不开底层算力基础设施的支撑。未来新一代人工智能技术必将深度赋能千行百业,同时为硬件服务器、算力基础设施尤其是高密度数据中心的增长带来4新机遇,数据中心市场需求潜力巨大。据中国信通院发布的《数据中心白皮书(2022年)》统计结果,我国数据中心机架规模近五年平均复合增速超过30%(见图1),且大型以上数据中心机架规模增长更为迅速。预计到2030年,总体在用机架规模达到1300万架,按照单机柜功率2.5kW计算,总功率达到30000MW。据CDCC的调研结果显示,国内全行业数据中心中8kW功率密度以上的机柜占比由2021年的11%提升至2022年的25%,高功率机柜占比提升明显。未来,随着人工智能模型训练推理等应用增加,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8kW/rack提高到12-15kW/rack,先进计算、智算中心功率密度将提升至30kW以上。图12017—2022年我国数据中心总体在用机架规模[1](三)行业政策引导绿色可持续发展近年来,国家出台了一系列文件支持数字经济发展壮大,同时鼓励引导绿色、可持续数据中心建设。2021年3月,我国在“十5userid:532115,docid:152908,date:2024-01-31,sgpjbg.com四五”规划纲要中将数字化发展作为重要的发展方向,提出打造数字经济新优势的重要纲领,要求充分发挥海量数据和丰富应用场景优势,促进数字技术与实体经济深度融合,赋能传统产业转型升级,催生新产业新业态新模式,壮大经济发展新引擎。2022年2月,国家发展改革委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等8地启动建设国家算力枢纽节点,并规划了10个国家数据中心集群,标志着我国“东数西算”工程正式全面启动。“东数西算”工程是从国家战略、技术发展、能源政策等多方面出发,在“新基建”的大背景下,统筹布局建设全国一体化算力网络国家枢纽节点,助力我国全面推进算力基础设施高质量规划建设。伴随着数字经济的蓬勃发展,数据中心所带来的巨大能耗和碳排放问题越发引起社会关注。政府层面从现代化、数字化、绿色化方面对新型基础设施建设提出了方针指引,同时从碳达峰、碳中和的战略出发对信息通信业绿色低碳水平提出了更高要求。目前,数据中心产业绿色低碳可持续发展已成为社会共识,粗放、低能效的传统数据中心正在向集约、高技术、高能效的新型数据中心变革。工业和信息化部在《新型数据中心发展三年行动计划(2021—2023年)》(以下简称《行动计划》)中提出了“新型数据中心”的概念,指出“新型数据中心是以支撑经济社会数字转型、智能升级、融合创新为导向,以5G、工业互联网、云计算、人工智能等应用6需求为牵引,汇聚多元数据资源、运用绿色低碳技术、具备安全可靠能力、提供高效算力服务、赋能千行百业应用的新型基础设施,具有高技术、高算力、高能效、高安全特征。”《行动计划》明确提出到2023年底新建大型及以上数据中心PUE降低到1.3以下。《行动计划》着重引导新型数据中心走高效、清洁、集约、循环的绿色低碳发展道路,加快先进绿色技术产品应用,鼓励应用高密度集成等高效IT设备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品。为有序推动以数据中心、5G基站为代表的新型基础设施绿色高质量发展,发挥其“一业带百业”作用,助力实现碳达峰碳中和目标,2021年11月,国家发改委等四部门联合发布《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》,提出“到2025年全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上”的发展目标。政府和地方连续出台详细的绿色节能发展要求,涵盖数据中心PUE、上架率、WUE、可再生能源使用率等指标,有效引导了新建、改扩建和“老旧”改造等数据中心绿色节能建设工作。表2PUE指标相关政策地政策PUE要求发布单位区国工业和信新型数据中到2023年底,新建大型及以上数据中心PUE降7家息化部心发展三年低到1.3以下,严寒和寒冷地区力争降低到1.25行动计划以下(2021—2023年)财政部、《绿色数据2023年6月起数据中心电能比不高于1.4,2025生态环境中心政府采年起数据中心电能比不高于1.3国购需求标准部、工业(试行)》家和信息化部上海市经《上海市数新建大型数据中心设计PUE不超过1.3、边缘数济和信息据中心建设据中心不应高于1.5;运行第一年PUE综合不高化委员会导则》于1.4,第二年不高于1.3上海市经《关于推进集聚区新建大型数据中心综合PUE降至1.25上济和信息本市数据中左右。海化委员心健康有序发展的实施会、上海意见》市发展和改革委员会北京市发《关于印发新建、扩建数据中心,年能源消费量小于1万吨北进一步加强标准煤(电力按等价值计算,下同)的项目PUE数据中心项值不应高于1.3;年能源消费量大于等于1万吨展和改革目节能审查标准煤且小于2万吨标准煤的项目,PUE值不应京若干规定的高于1.25;年能源消费量大于等于2万吨标准煤通知》且小于3万吨标准煤的项目,PUE值不应高于委员会1.2;年能源消费量大于等于3万吨标准煤的项目,PUE值不应高于1.15。深深圳市人《关于加快对超大型数据中心提出集中布局建设要求,未提圳民政府办推进新型基及PUE指标值,对中小型数据中心提出分布布局8公厅础设施建设要求,并规定PUE值小于1.25的实施意见(2020—2025年)》贵贵州省人《关于加快贵安数据中心集群新建大型以上数据中心PUE州民政府办推进“东数低于1.2省公厅西算”工程建设全国一体化算力网络国家(贵州)枢纽节点的实施意见》内《关于内蒙和林格尔数据中心集群对于规模超过10000个蒙内蒙古和古和林格尔标准机柜的以自用为主的数据中心项目,设计古林格尔新新区推进数PUE值不高于1.25,项目建成投用后,PUE第二自区管理委据中心项目年年度平均值不高于1.4,第三年度及以后年度治员会绿色化建设平均值不高于1.25区的意见》地表3上架率指标相关政策发布单位政策上架率要求区国工业和信《新型数据到2023年底,全国数据中心平均利用率力争提家息化部中心发展三升到60%以上年行动计划(2021—2023年)》上上海市经《上海市数上架率半年内不应低于50%(仅针对自用的数据海济和信息据中心建设中心),一年内不应低于70%,第二年及以后不9化委员会导则》低于90%,Prack不应低于上架机架的平均机架设计功率的80%北京市发《关于印发项目获得节能审查意见后,两年内上架率(实际北进一步加强上架的机柜总功率/节能报告中的机柜设计总功数据中心项率)未达到80%的,建设单位应向原节能审查机展和改革目节能审查关提出变更申请京若干规定的通知》委员会深--未提及圳贵贵州省人《关于加快贵安集群数据中心到2025年平均上架率不低于州民政府办推进“东数65%省公厅西算”工程建设全国一体化算力网络国家(贵州)枢纽节点的实施意见》内《关于内蒙内蒙古和林格尔集群IT设备上架率三年内达到蒙内蒙古和古和林格尔70%古林格尔新新区推进数自区管理委据中心项目治员会绿色化建设区的意见》表4WUE指标相关政策地政策WUE要求发布单位区10工业和信信息通信加大先进节能节水技术应用。鼓励自建余热、国行业绿色冷却水回收设施,加快应用先进适用的节水技低碳发展术和装备,提高水资源利用效率。息化部等行动计划家(2022—2025年)七部门财政部、《绿色数数据中心水资源全年消耗量与信息设备全年生态环境据中心政耗电量的比值不高于2.5L/kWh。国府采购需部、工业求标准(试家行)》和信息化部上海市经《上海市本市建设数据中心,投入运行后,关键指标应符上数据中心合以下要求:WUE:第一年不高于1.6,第二年建设导则》不高于1.4济和信息海化委员会北京市发《北京市力争到2025年基本实现本市存量数据中心能效展和改革低效数据碳效水效水平全面达到本市地方标准北委员会中心综合京北京市经治理工作济和信息方案的通化局知》11表3-1规定了数据中心用水定额。表3-1数据中心用水定额《用水定单位为升每千瓦时额第11北京市部分:数据类型单位IT设备耗电量取水量地方标中心》(征准集意见稿)先进值a通用值b数据中心1.42.2a先进值用于新建(改建、扩建)项目的水资源论证、取水许可审批和节水评价。b通用值用于现有数据中心的日常用水管理和节水考核。内《关于内对于规模超过10000个标准机柜的以自用为主的蒙内蒙古和蒙古和林数据中心项目,设计水资源利用效率(WUE值)古林格尔新格尔新区不高于1.6。自区管理委推进数据治员会中心项目区绿色化建设的意见》表5可再生能源使用率指标相关政策地政策可再生能源使用率发布单位区12国家发改贯彻落实到2025年,数据中心和5G基本形成绿色集约国碳达峰碳的一体化运行格局。数据中心运行电能利用效率中和目标和可再生能源利用率明显提升委等四部要求推动家数据中心和5G等新门型基础设施绿色高质量发展实施方案工业和信工业能效加强绿色设计、运维和能源计量审查。引导数据国提升行动中心扩大绿色能源利用比例计划息化部等家六部门数据中心使用的可再生能源使用比例应逐年增财政部、《绿色数加。生态环境据中心政国府采购需表4-1数据中心可再生能源使用率部、工业求标准(试家行)》202202202203203和信息化年份部35702可再生能源最3050751005低使用率(%)北京市发关于印发项目节能报告中应当包括可再生能源利用方案。北进一步加新建及改扩建数据中心应当逐步提高可再生能源强数据中利用比例,鼓励2021年及以后建成的项目,年展和改革心项目节可再生能源利用量占年能源消费量的比例按照每京能审查若年10%递增,到2030年实现100%(不含电网既干规定的有可再生能源占比)。委员会通知建设单位可以通过自建分布式可再生能源设施提高可再生能源利用水平。建筑物屋顶可以安装光伏组件,具备条件的项目可以在外墙安装光伏组件。自建设施不能满足的用电需求,可以通过绿13色电力交易或认购可再生能源绿色电力证书、购买节能量等方式提高可再生能源利用比例。提升绿色能源利用水平。推动数据中心充分利用上上海市通新型数据太阳能、风能、氢能等清洁能源,鼓励新建数据海信管理局中心“算力中心项目要逐步加大分布式供能、可再生能源使浦江”行动用量的占比;鼓励在小型或边缘数据中心中开展计划(2022模块化氢电池和太阳能板房的试点应用,采用储—2024年)能技术,更好提高能源效率;鼓励企业参与电力市场化交易,支撑可再生能源交易创新,支持数据中心多元化消纳方式。二、数据中心节能与散热(一)数据中心计算密度提升带来散热挑战在过去,算力性能提升主要通过半导体工艺增加晶体管密度实现,而芯片性能增长趋势总体跟随摩尔定律,约每10年性能增长1000倍。但最近10年,随着摩尔定律失效,芯片性能增长明显放缓。通过异构计算等技术在持续提高芯片和系统的能效比,但单个芯片的功耗仍然增加迅速,当前主流处理器芯片CPU功率约为200W,最新发布的CPU突破350W,GPU等异构加速芯片已突破700W,如英伟达GPUA100/A800单卡功率接近400W,芯片热流密度约为50W/cm2;英伟达推出的新一代H100/H800单卡功率接近700W,热流密度高达87.5W/cm2。近三十年来,信息量的迅猛增长对IT设备的性能提出越来越高的要求,随着IT技术的快速发展,电子器件及服务器的功率密度不断升高,根据ASHRAE统计及预测,不同用途数据中心的标准机架功14率密度还会进一步上升。以电信/通讯为主要用途的服务器,单机架功率还会保持在5kW/rack左右,而云计算数据中心等用途的服务器,单机架功率普遍会上升到10kW/rack~15kW/rack左右。图2标准机架功率密度统计及预测[2]算力性能的提升驱动着服务器功耗和热密度的不断增加,不仅传统风冷方式已无法满足高热流密度电子器件的散热;另一方面,城市建设数据中心在面积受限情况下,部署高功率密度机柜成为有效解决方案,但已远超传统风冷方案散热极限。在这样的背景下,需要更加高效的冷却技术去解决高功率、高热流密度、高计算密度的芯片和系统散热问题。随着IT设备散热密度的升高,冷却技术也得到了发展,从最初的集中式送风系统到气流组织改善,再发展到分布式机柜级甚至芯片级冷却技术[3]。另外,高温对电子元器件也会产生不利影响。电子元器件使用故障中,有半数以上是由于温度过高引起的。半导体元器件温度每升高1510℃,反向漏电流将增加1倍。此外,在高温的环境下,机件材料、导线绝缘保护层、防水密封胶更容易老化,造成安全隐患。而对于大量数据中心电子设备的集中部署,这种由于过热造成的安全隐患更值得注意,尤其对于在高温下易燃易爆的设备,更易引起火灾等安全事故,引发数据中心瘫痪,从而给24小时连续性的业务造成不可逆的损失。大电流的持续作用,还会降低服务器内部电子部件的使用寿命。在高温的环境下,电子产品产生的热量得不到及时疏散,造成了电子产品工作温度升高,电容温度每升高10℃,平均电子元器件的寿命会降低一半,且更容易造成击穿。在这种重负荷状态下工作,会加大电子部件的消耗,从而降低服务器的使用寿命。因此,对服务器的散热冷却提出了更加严格的要求。液体冷却相较于传统风冷可以带来更好的冷却效果,尤其是对关键电子部件,例如中央处理器CPU、加速计算芯片GPU和内存。当服务器满载运行时,CPU温度为55-65℃,比风冷降低约25℃,完全释放CPU超频性能。通过降低部件和元器件的运行温度,收窄部件和元器件随负载的温度变化幅度,从而避免设备局部热点,使运行可靠性大幅提升。(二)数据中心能耗水平分析众所周知,数据中心是“能耗大户”,根据工信部统计预测数据,2022年全国数据中心耗电量约为2700亿kWh,占全国用电量的3.20%左右,预计2025年耗电量将增至近4000亿kWh,占比约为5.8%。根据UptimeInstitute《全球数据中心调查报告2023》,全球调查对象(全球范围数据中心样本)的年平均PUE四年来保持平稳水16平,2023年稳定在1.58。自2014年以来年平均PUE值维持在1.55-1.65范围内,即IT设备自身能耗占比约为61%—65%,以制冷为主的其他能耗占比约为35%—39%。针对传统数据中心散热成本及碳排放问题,新型绿色冷却技术研发和应用日益迫切。近几年随着云计算、AI技术的迅速发展,最为代表性的革命性冷却技术——液冷技术需求最为强劲。液冷技术通过改变传统空气冷却散热方式,利用冷却液体带走服务器热量,液冷系统取代大部分空调系统(压缩机)、风扇等高能耗设备,可实现节能20%—30%以上。以某液冷数据中心为例,液冷设备取代空调设备,耗能占比仅为9%,数据中心PUE降低至1.2以下。此外,在同样外电容量条件下,液冷方式允许配置更多的IT设备,可最大化提高能源利用率;在IT设备负载功率确定前提下,总供电容量需求大幅减少,可有效节省供电系统建设投资和运营成本。因此,无论是从环境保护出发还是从企业自身经济效益考虑,建设液冷节能型绿色数据中心是最佳路径。(三)散热和能耗问题驱动冷却技术进步数据中心冷却系统能耗占比仅次于IT设备,因此数据中心能耗水平的优化主要依赖于冷却技术的进步;同时,比能耗更为关键的高密度计算的散热挑战,也驱动着冷却技术的持续发展进步。1.空气冷却技术演进路径随着云计算、大数据、人工智能等技术的广泛应用,数据中心架构正从传统架构向云原生架构演进,数据中心基础设施也不断地演进17和变化。同时,随着各行业数字化转型的加速,数据量呈现爆炸性增长,数据中心规模也在不断扩大,数据中心对能源消耗的关注度不断提高,数据中心能效成为衡量数据中心性能的重要指标,而通过数据中心能耗分析数据可以看出,冷却系统的能耗是仅次于IT设备耗电的,因此,数据中心冷却技术也紧密伴随数据中心发展不断演进:1)数据存储和简单计算阶段。数据中心最早出现在20世纪60年代,采用的是以主机为核心的计算方式,一台大型主机就是数据中心,如IBM360系列计算机,其主要业务是数据的集中存储和管理。机柜功率密度约为1~2kW/rack,主要依靠空调系统和机柜内部风扇即可满足散热需求。2)数据处理及业务应用阶段。20世纪70年代以后,随着计算需求的不断增加、计算机价格的下降以及广域网和局域网的普及、应用,数据中心的规模不断增大,数据中心开始承担核心的计算任务。机柜功率密度约为1~5kW/rack,主要依靠机房空调系统和机柜内部风扇进行散热,冷却效率较早期有所提升。3)数据运营服务阶段。20世纪90年代,互联网的迅速发展使网络应用多样化,客户端/服务器的计算模式得到广泛应用。数据中心具备了核心计算和核心业务运营支撑功能。机柜功率密度为5~10kW/rack,主要依靠机房空调系统、机柜内部风扇,并采用冷热空气管理、后门热交换器等冷却方式,冷却效率显著提升。4)云数据中心阶段。进入21世纪,数据中心规模进一步扩大,服务器数量迅速增长。虚拟化技术的成熟应用和云计算技术的迅速18发展使数据中心进入了新的发展阶段。机柜功率密度不断抬升,10kW/rack~15kW/rack机柜成为主流,空调制冷系统结合自然冷却技术的制冷方式成为降低数据中心能耗的有效手段;同时,液冷技术既能解决高热流密度芯片散热问题,又可实现全年全地域自然冷却,大幅降低制冷能耗,作为新兴技术迅速占据市场。2.液冷技术兴起路线液冷技术在计算机领域的兴起、曲折前进和近几年的快速发展历程,根源始于信息技术的发展应用和芯片技术路线的演进变化。液冷技术最早在第一次工业革命时便已应用于机械加工行业,自第二次工业革命至今,电力行业变压器仍采用变压器油进行降温,随着液冷技术的发展成熟,液体冷却方式逐渐在军事、航空航天、能源等领域得到应用。计算机领域早期散热方式主要通过空调系统制冷,随着计算机性能不断提高,设备的功率密度也越来越高,通过液冷技术取代空气冷却成为解决散热难题的最优解。1964年,IBM推出了世界首款冷冻水冷却计算机System360,开创了液冷计算机先河。这款计算机是当时运算速度最快、性能最强的机器,主要用于科学应用领域的高速数据处理(比如太空探索、亚原子物理学、全球气候预测等),为确保该大型机在高速运算中不会发生过热宕机,IBM首度开发了水冷系统。但在随后的几十年,由于在较低热负荷时空气冷却成本更低、安装部署更为简单,液冷技术并未被重视。21世纪初,随着芯片功耗的不断提升和机柜功率密度,液冷技术又一次步入发展的快车道。2008年,IBM对外发布基于Power6处理器的液冷计算机节点,该服19务器采用了14个内置水冷管道;2009年Intel英特尔推出矿物油浸没技术;2013年,美国绿色革命冷却技术公司GRC首创为了容纳浸没液体而水平放置机架的设计;2018年,谷歌发布的TPU3.0pod因其庞大的算力消耗而第一次在数据中心中采用了液冷技术。国内随着信息技术赋能千行百业,数据中心能耗和芯片散热问题也得到重视,国家和地方出台了一系列数据中心能效水平限值要求,如工信部规定新建大型、超大型数据中心PUE不超过1.3。液冷技术在国内有了迅速成长壮大的土壤,国内如曙光、华为、浪潮、联想、新华三和中兴通讯等代表性厂商已经纷纷推出了系列液冷产品。中科曙光最早于2015年推出国内首款标准化量产的冷板液冷服务器,同年,中科院大气物理研究所的“地球数值模拟装置原型系统”率先使用冷板液冷服务器,大大提高散热效率,也成为国内液冷服务器大规模使用的第一个公开案例。2017年华为推出FusionServer板级液冷方案,同年浪潮发布了以冷板液冷服务器为核心的解决方案;2018年阿里在其自建的张北数据中心部署了浸没式液冷系统;2019年中科曙光实现全球首个“高效全浸式液体相变冷却技术”的大规模部署。随着国内主流服务器厂商纷纷加快推出自己的液冷服务器和液冷系统产品,液冷技术开始逐步走向成熟并开始批量化、规模化使用。三、绿色冷却技术研究随着云计算、大数据、人工智能等技术的发展及数据中心能效的不断提升,数据中心冷却技术也出现多种形式齐头并进发展的态势,在不同的数据中心项目上如何选择合适的冷却方案也成了人们高度20关注的一个问题。在选择数据中心冷却方案时,需要综合考虑数据中心的业务类型、规模、耗电量、地理位置、气候条件等因素,以及冷却技术的可靠性、可维护性、经济性等因素,以寻求最适合不同项目的最佳制冷方案。(一)冷却技术分类数据中心的排热是将电子设备产生的热量转移到室外环境的过程,以IT设备为主的发热源的热量由流动的冷却介质(如空气、液体等)经过多道热交换设备将热量排放至室外环境中。数据中心的排热方式有很多种,按照服务器侧冷却介质不同划分为空气冷却和液体冷却两类(如图3所示)。随着能耗成本的不断攀升和全球不同国家对数据中心PUE水平的重视,传统空调、冷水机组等设备的自身能效水平已经逼近极限,通过利用地域、气候特点充分利用自然冷源,实现部分或全部替代压缩机工作的自然冷却技术应运而生。相比传统空气冷却方式,新型液体冷却技术可实现全年全地域自然冷却,近几年应用规模呈现出爆发态势。传统空调、冷水机组的技术已非常成熟,本白皮书不再做赘述,本章内容将重点围绕自然冷却技术和液冷技术展开介绍。图3数据中心冷却技术分类211.服务器侧绿色节能技术分类服务器侧可根据末端冷却介质的不同,分为空气冷却方式和液体冷却方式(见图4)。液体冷却具有更高效的散热效率液体的体积比热容是空气的1000~3500倍,意味着冷却液体可以吸收大量热量而不会显著升高温度;液体的对流换热系数是空气的10~40倍,同等空间情况液体的冷却能力远高于空气。图4空气冷却及液体冷却工作原理液冷技术是指利用液体取代空气作为冷却介质,与服务器发热元器件进行热交换,将服务器元器件产生的热量带走,以保证服务器工作在安全温度范围内的一种冷却方法。根据冷却介质与服务器接触方式的不同,可分为间接冷却和直接冷却两种方式(如图5所示)。间接冷却一般为冷板式液冷,根据冷却介质是否发生相变又可分为单相冷板式和两相冷板式。直接冷却包括浸没式和喷淋式,其中浸没式根据冷却介质是否发生相变又可分为单相浸没式和相变浸没式。22图5液冷技术分类目前主流应用市场主要有冷板式液冷和浸没式(包括单相浸没式液冷和相变浸没式)液冷两大类。液冷技术可全年全地域满足自然冷却,不需要传统空气冷却压缩机、风扇等大能耗设备,其节能优势在液冷数据中心项目中得到验证。2.自然冷却技术分类自然冷却技术按照国际通用分类,可划分为两大类:即空气侧自然冷却和水侧自然冷却。这两类自然冷却方式又可分为若干不同类型,如表6所示。表6数据中心自然冷却方式[4]分类方式直接空气冷却全新风直接冷却直接蒸发冷却空气侧热管水侧间接空气冷却间接蒸发冷却带自然冷却的风冷冷水机组风道换热系统直接水冷却海水湖水、江河水直接冷却冷却塔水直接冷却间接水冷却冷却塔+板式换热器23干冷器闭式冷却塔海水+板式换热器LNG冷能(二)冷板式液冷技术1.技术原理冷板液冷技术是目前最为成熟、应用最为广泛的液冷散热方式。冷板液冷技术是指通过冷板(通常为铜、铝等导热金属构成的封闭腔体)将发热器件的热量间接传递给在封闭的循环管路中的冷却液体,通过冷却液体将热量带走的一种实现形式,技术原理如图6所示。该技术将工作液体与被冷却对象(如计算芯片)分离,工作液体不与电子器件直接接触,而是通过液冷板等高效热传导部件将冷却对象的热量传递到冷却液中,因此冷板液冷技术又称为间接液冷技术。冷板式液冷技术对计算机系统改动不大,仅需将原风冷散热片替换为液冷散热套件,并将冷媒管路引出机箱即可。图6冷板式液冷技术原理图冷板式液冷基础设施系统工作原理图如图7所示,服务器内主要热源产生的热量由冷板套件吸收后传导至套件内冷却液,吸热升温后的冷却液体经由机柜内分集液器(即“manifold”)至冷量分配单24元(又称“CDU”),与冷量分配单元一侧次常温冷却水进行换热,冷却后的冷却液通过分集液器再次传递至服务器侧,完成二次侧密闭循环。在一次侧循环中,低温冷却水通过CDU内换热器将热量传递至室外冷源,最终通过室外冷却设备将热量排至室外环境中,散热后的低温冷却水。然后低温冷却水再次被输送到冷量分配单元内换热器中,完成一次侧循环。图7冷板式液冷基础设施系统工作原理图2.关键技术与设备(1)机柜和服务器形态冷板液冷技术对服务器的形态改动不大,只需设计预留冷板、连接管路等冷板组件的空间即可,使用、维护等方面与现有服务器也较为接近;对现有传统空气冷却服务器进行改造也同样具备可行性,目前已有数据中心进行冷板液冷改造案例。机柜或机架设计时需关注分集液器(manifold)的空间和充液后承重。为进一步提升生产安装工作效率,减少安装过程中因部件匹配度25不足带来的麻烦,目前行业内在积极制定冷板式液冷整机柜技术标准和相关产品,将冷板服务器、机柜、分集液器等集成,提供冷板式液冷整机柜方案。(2)冷板设计要求冷板基板应选择导热性强、不易腐蚀的金属或合金材料,一般采用铜或铝合金材质。冷板设计在满足发热元器件散热要求的前提下,还要尽可能减少内部流阻;还应考虑芯片的承重水平,以及芯片对冷板扣合力的承受度。冷板的设计形态、加工工艺可以依据不同的需求对其进行优化,其内部流道从设计层面可以是埋管(嵌入/钎焊)、沟槽(机加/铸造)、扣合翅片(连续模)、铲齿(机加)、冷锻针嗯嗯翅状(锻造成型)、折叠翅片等。对于高热密度元器件的散热设计,其流道通常会通过增大过流面积及强制对流换热系数来增强换热能力,如采用微通道结构、射流结构等较为复杂的内部结构设计。冷板一般由冷头和固定支架模组构成。根据冷头和固定支架模组之间的连接方式可分为分体式液冷冷板、一体式液冷冷板。根据密封形式则可分为密封圈组装式、焊接密封、一体成型等。分体式液冷冷板为冷头与固定支架模组由螺钉等部件连接,可根据需求进行拆卸与组装;一体式液冷冷板的冷头与固定支架模组一般为一体加工成型或焊接成型,不可拆卸与组装。26图8冷板冷板的选择应考虑散热需求、成本、运行要求参数及使用的浸润材料等因素。(3)冷却液冷板式液冷二次侧冷却液的选择应满足与所有直接接触的材料互相兼容,并具备长期可靠性、导热性、防腐蚀性、抑菌性等功能。冷板式液冷二次侧水基冷却液主要包括去离子配方水溶液、乙二醇水溶液和丙二醇水溶液三种。其中,去离子配方水溶液含有抑菌剂、金属缓蚀剂、阻垢剂、抑泡剂等功能型添加剂,具有较好的防腐蚀和抑菌性能,但不具备防冻功能,在北方地区的冬季进行运输、存储、施工过程中处置不当则存在结冻风险。乙二醇水溶液/丙二醇水溶液通常含有20%~30%的乙二醇、丙二醇,具备防冻功能。不同浓度的乙二醇/丙二醇水溶液冰点不同,具体添加比例应结合使用地的冬季最低气温参数和实际防冻要求确定。乙二醇/丙二醇的添加同时也会使溶液粘度变大、对流换热系数下降,同等条件下换热性能也弱于去离子水配方水。考虑到乙二醇/丙二醇浓度越高使溶液传热系数衰减程度越大,因此乙二醇/丙二醇浓度在满足防冻要求的前提下不宜过高。冷板式液冷二次侧水基冷却液水质要求如表7所示。27表7水基冷却液水质标准水质标准项目单位二次侧水质要求/推荐pH(25℃)要求/8.0~8.7要求电导率要求浊度μs/cm(25℃)<2000推荐菌落总数(微生物)推荐硫酸根NTU<10推荐氯离子推荐cfu/ml<1000总硬度推荐铜离子mg/L<10推荐铁离子推荐铝离子mg/L<30要求缓蚀剂要求杀菌剂mg/L,asCaCO3<20mg/L<1.0mg/L<1.0mg/L<1.0mg/L必须mg/L必须(4)冷量分配单元(CDU)冷板式液冷冷量分配单元(coolantdistributionunit,简称“CDU”),是指用于二次侧高温液态冷却介质与一次侧冷源进行换热,并对液冷IT设备提供冷量分配和智能管理的模块。冷板式液冷CDU由换热器、循环泵、过滤器、储液罐、定压补液系统,以及附件(阀门、管路、接头、传感器等)组成。考虑到二次侧为闭式循环系统,为防止系统因冷却工质热胀冷缩或泄漏导致系统压力变化,需要设置定压补液系统。定压补液系统主要包括补液泵、软水箱、缓冲装置和泄压装置,其中:28——补液泵起到冷却液的驱动作用,将软水箱中储存的冷却液向二次侧循环系统中补液;——缓冲装置用于稳定系统压力,降低补液泵的启停频率;——泄压装置用于防止系统超压,保护系统设备。冷板式液冷CDU工作原理示意图如图9所示。在CDU的二次侧循环中,冷却液被循环泵加压后获得动力来克服沿程阻力,以恒定的压力源源不断地进入冷板式散热器中,冷却液在散热器中吸热升温将发热元器件产生的热量带出后进入板式换热器,通过板式换热器的热交换功能将热量交换到一次侧冷却液中,被冷却后的二次侧冷却液再次被主循环泵输送进入散热器中,完成二次侧的循环。在CDU的一次侧循环中,参与热交换升温后的冷却水从板式换热器流出,被一次侧液泵输送进入室外冷却塔,通过冷却塔的散热功能,最终将热量散发到大气中变成低温冷却液,再次进入CDU的板式换热器中,与二次侧高温冷却液进行热量交换,完成一次侧循环。图9冷板式液冷CDU工作原理示意图CDU功能如下:29(1)提供循环动力:为室内系统的冷却液提供循环动力,保证冷却介质持续循环,源源不断地带走负载热量;(2)自动监控运行状态:综合分析系统运行状态,自动监控、智能调节冷却液的压力、流量、温度,实时调配负载均衡,是整个系统的控制核心;(3)负责热交换:二次侧与一次侧通过CDU进行热交换,最终将负载产生的热量高效传递到室外;(4)其他:提供冷却液净化、储液等功能。3.解决方案冷板式液冷数据中心冷却方式采用液冷为主、风冷为辅的混合冷却模式。服务器内的主要散热元器件CPU、GPU、内存等产生的热量通过与冷板内的液体进行热交换并带出服务器,这一部分的热量占服务器总热量的50%—80%,剩余少部分的热量采用传统的空气冷却技术,通过空气与服务器进行热交换。冷板式液冷方式利用更少的能耗带走了大部分服务器热量。在实际运行过程中,冷板式液冷系统中的二次侧的中高温液体带走服务器的热量,流经冷量分配单元CDU,一次侧冷源设备处理的中温循环水流经到CDU时对二次侧液体进行持续性的降温处理,这一过程中的主要动力装置为循环水泵以及冷源设备中的风机。冷板液冷方案相比于传统空气冷却方案,大幅减少了主要能耗部件——压缩机以及室内侧风机的数量,有效降低冷却系统能耗。冷板液冷系统一次侧可选择开式冷却塔或闭式冷却塔、干冷器。为保证进入冷量分配单元(CDU)30的水质,采用开式冷却塔时还应在CDU和开式冷却塔之间增加一次板式换热。冷板式液冷系统二次侧支持35℃以下供液温度,一次侧支持15℃~33℃进水温度,自然环境完全满足液冷系统一次侧散热需求,无需冷水机组等高能耗制冷设备,冷板式液冷数据中心PUE可低至1.2以下,相比传统风冷方式节能20%以上。冷板式液冷解决方案可引用液冷占比LPE这一概念,来衡量数据中心冷却效率和能源利用效率水平。根据《YD/T3980-2021数据中心冷板式液冷服务器系统技术要求和测试方法》,液冷占比计算公式如公式3-1所示:LPE=PL/P0公式3-1式中:LPE:liquidperformanceefficiency缩写,液冷性能效率,简称液冷占比;PL:直接液冷功耗,为直接由液冷带走的冷却功耗;P0:系统总功耗,包含直接液冷功耗,风冷功耗两部分;4.技术特点冷板液冷方案一般具备以下特点:(1)高效散热液体的体积比热容是空气的1000~3500倍,意味着冷却液体可以吸收大量热量而不会显著升高温度;液体的对流换热系数是空气的10~40倍,同等空间情况液冷的冷却能力远高于空气;由液冷冷板套件替代CPU原散热套件,通过冷却液在冷板中的强制对流,有效地将31热量从设备中快速地带走,散热效率得到大幅提升。(2)精确制冷冷板套件直达服务器内部,高效解决元器件局部热点问题,实现CPU核温低至65℃左右。芯片级精确制冷使元器件在更稳定更合适的温度下工作,服务器可靠性更高。(3)支持高热流密度散热和高密度部署冷板式液冷技术散热效率更高,可满足芯片热流密度50W/cm2~100W/cm2的散热需求;满足计算节点紧凑化部署,提高节点部署密度,可支持单机柜功率高达60kW的部署需求,同时降低占地成本。(4)全年全地域自然冷却,更加节能整个冷却系统采用中高温水作为冷却介质,不需要压缩机制冷,可充分利用自然冷源,实现全年全地域自然冷却,从而大大降低了冷却系统能耗。冷板液冷CLF可低至0.1以下,比传统空气冷却机房节能20%以上。(5)总体TCO低冷板液冷数据中心的初投资与传统风冷数据中心接近持平,由于冷板液冷数据中心的冷却系统能耗更低,随着运行时间增长,整体TCO显著优于传统风冷数据中心建设模式。(6)具有改造传统数据中心优势可将风冷服务器改造为冷板液冷服务器,相比其他液冷技术更具改造优势。将冷板替代原服务器散热风扇部件,简单改装即可适用。(7)维护简便服务器与机柜的连接采用快速接头,服务器上下架可实现冷却系统在32线插拔,不影响其他服务器正常运行。另外,保留了原有服务器的形态及维护方式,不影响用户使用习惯。(8)智能化运行管理CDU设备具有进出液温度、流量等智能监控功能,及漏液故障告警和定位功能,液冷系统可靠性得到保障。5.适用范围冷板式液冷技术解决方案适用范围如下:(1)适用于全年全地域环境条件:冷板式液冷系统利用液体作为传热介质带走服务器热量,利用室外侧常温冷却水即可完成热交换,因此无需压缩机、风扇等高能耗设备,完全满足全年全地域自然冷却条件;(2)适用于中高热流密度芯片散热:冷板与服务器高发热元器件直接接触,可实现部件级精准散热,避免出现局部热点,解决方案PUE低至1.2以下,尤其适用于区块链、人工智能、云计算等对算力和绿色节能要求较高的新建大型数据中心;(3)适用于各类型数据中心的新建和节能改造:适用于中小型、大型、超大型等各类型数据中心的新建和扩建。另外,针对现有存量数据中心,节能降耗依然是主旋律,冷板液冷技术同样适用于节能改造场景,冷板液冷技术对于机房要求基础条件要求与风冷现有机房无本质区别,如楼板承重(冷板10-15kN/m2)、层高等,可以支持现有机房进行节能改造;冷板液冷服务器与现有风冷服务器在整体结构及形式上基本相同,可支持对现有风冷服务器进行风改液改造。336.存在的问题根据赛迪顾问《2023中国液冷应用市场研究报告》统计,2020年—2022年冷板技术路线在液冷市场中保持90%以上的市场占有率。伴随着应用规模的不断扩大,产品、系统和工程标准化成为亟需推动的工作,实现去定制化、降低成本、提高可靠性的目的。产品和工程标准化是冷板式液冷解决方案存在的主要问题,主要涉及内容如下:(1)产品标准化程度不足冷却液:冷板式液冷二次侧冷却液市场主流选择包括去离子配方水溶液、乙二醇水溶液和丙二醇水溶液三种。冷却液应与二次侧循环系统中接触的材质具有良好的兼容性,同时具有防腐、抑菌的功能,在北方地区使用的冷却液还应具有防冻功能。在运行过程中,需要对冷却液水质定期监控,一是冷却液的水、醇、功能性添加剂等成分会因蒸发、反应等形成消耗,二是与接触的部件、管路材料发生化学反应,或微生物的滋生,导致水质变化。若冷却液的自身成分、性能发生变化,对系统的材料兼容性、散热性能、整体可靠性影响重大。如不对水质定期监控,一旦出现严重腐蚀,生成的沉淀物造成堵塞,造成设备损坏。目前关于运维过程中抽测周期、水质标准等尚无一致标准约束,主要通过供应商、运营商的经验操作,欠缺科学试验验证。液冷系统架构及其产品:不同于传统风冷空调系统,冷板式液冷系统是一种全新的冷却架构,其稳定性、可靠性对数据中心的正常平稳运行具有极其重要的影响。关键产品如冷量分配单元的产品规格、参数、安全可靠性等技术要求主要以生产厂家经验和用户具体需求确34定,液冷行业存在技术标准依据不够完善、产业链上下游未形成有效衔接、定制化设计生产成本较高等系列问题。液冷系统架构及其产品的标准化程度不足,尤其是连接冷板和分集液器的关键部件——接头,不同厂家的产品不能互相兼容,给用户和运营商的招标和建设工作带来不便,同时也限制了冷板液冷行业产业链的充分竞争和发展。针对机柜、服务器、液冷产品的接口缺乏统一接口规范标准的问题,目前行业内通过制定行业标准、制定行业产品规格白皮书等方式积极推动相互“解耦”。“解耦”的最主要工作,一是机柜机架与服务器机箱的尺寸应规范统一标准,二是服务器的水电接口形式应规范统一标准。(2)工程标准化程度不足自2010年国内开始启动探索液冷技术在数据中心的应用,2015年中科曙光完成首个国内首个冷板式液冷服务器大规模商业应用项目落地,之后液冷技术在国内应用规模呈逐年增长趋势。液冷系统工程化主要参考原有暖通行业标准,并结合液冷数据中心安全可靠性要求,由供应商和用户制定工程标准要求,目前液冷工程标准化领域尚属空白。7.运维要求冷板式液冷系统运维要求如下:(1)运维人员需定期对液冷系统进行巡检。日常巡检主要检查并记录动环监控采集的液冷系统的几个关键运行参数,并对数据进行存档,以备后期系统优化或故障分析之用。季度巡检在日常巡检内容35基础上增加以下环节:——检查CDU电控系统散热风扇运行是否正常;——检查CDU后部管路连接处是否有泄漏;——检查电动调节阀手自动控制功能;——校验压差旁通阀和安全阀功能;——循环泵手自动控制和轮切检查,如异常需及时维护;——检查二次侧回液压力与系统压力差,如异常需清洗系统过滤器滤芯;——对CDU本体进行除尘去污。(2)冷却液日常运维要求如下:在进行有冷却液暴露可能的操作性工作时,需要提前检查机房通风情况,最大限度地利用房间内的新排风系统进行换气;日常巡检时需对储液箱的液面情况进行观察。当液面低于指定刻度,或液位传感器已触发低液位告警时,根据实际情况进行液体补充作业;补充冷却液前,核实冷却液种类、型号等,严禁混用不同种类、型号的冷却液。根据系统功能设计及现场情况,选择手动补液或通过补液系统进行补液;需对二次侧在运行的冷却介质进行定期质量监测,若出现超标或污垢腐蚀等情况时,需要依据相关规定进行补液、更换冷却介质等。在冷却介质的充排液处理时,应该参照维护手册进行并遵守相关规程,最大限度地降低容器或管路的对外裸露面积;36冷却液需存放在阴凉、干燥、通风处,避免长期敞开容器,不使用时需确保容器密封。每年按照数据中心总用量的3%—5%进行备液;冷却液废弃处置应按照当地相关法规,交由有资质的化学品处理机构或回收点完成。(3)冷却液泄漏应急处置要求如下:设备使用和维护过程中应尽量避免冷却介质溢出,针对冷却介质可能发生泄漏情况,应制定冷却介质泄漏应急处置方案;运维人员巡检发现冷却介质泄漏时,判断为轻度溢出时可以使用专用材料吸收,并对残留液体做清洁;对大量的溢出或泄露的冷却液,用泵抽回到专用容器中,交到专业机构进行回收或废弃处理,严禁直接使用或排放至外界环境中。(三)相变浸没式液冷技术1.技术原理相变浸没式液冷技术原理是指通过发热元器件与冷却液体直接接触进行散热,即将服务器的主板、CPU、内存等发热元器件完全浸没在冷却液体中,通过低沸点冷却液体相变换热实现热量转移(见图10)。图10相变浸没式液冷技术原理图37相变浸没式液冷技术基础设施系统工作原理如图11所示,冷却介质和发热元器件放置于特殊制定的密闭腔体中,低沸点冷却介质吸收发热元器件热量后升温汽化,通过相变换热带走发热元器件热量,冷却介质蒸汽通过分液单元汇集进入冷量分配模块(又称“CDM”),经CDM内冷凝器与一次侧室外冷源(常温冷却水)换热,换热后冷凝为液态的冷却介质通过分液单元再次被输送至刀片中;一次侧常温冷却水吸热后由循环泵输送到室外冷却装置中,最终将热量排放至室外环境中。图11相变浸没式液冷技术基础设施系统工作原理图2.关键技术与设备(1)机柜和服务器形态相变浸没式液冷服务器对设计要求很高,要满足与冷媒材料的互相兼容性、信号传输完整性、密闭性、运行环境的稳定可靠性和上下架运维的便捷性等。目前已实现大规模应用落地的相变浸没式液冷项目,其服务器系统采用刀片式服务器系统。该服务器系统将计算机主板及其所有电子元器件全部浸没在刀片内部的液体冷媒中,采用全密封结构,内部冷却液零泄漏。同时,为确保计算机的可维护性,采用刀片式热插拔设计,刀片内的计算节点在确保机械密封的同时通过各种快接头,实现38电气、高速信号、气、液的热插拔需求;此外,密封刀片腔体内设置了压强、温度、液位等传感器和控制装置,保证系统的稳定运行和实时监测。中科曙光推出的相变浸没式液冷服务器系统以计算机柜和冷量分配单元为一个液冷计算单元,每个单元内包含1台冷量分配单元和2台计算机柜,成为“一拖二”液冷计算单元(见图12)。在项目实际部署案例中,多套“一拖二”液冷计算单元通过并柜和背对背布局的方式,形成后部封闭的设备组。图12“一拖二”液冷计算单元(2)冷却液冷却液是浸没液冷系统的核心材料。碳氟化合物是适用于浸没式液冷技术的最佳冷却工质,材料成分也是浸没式液冷技术的核心技术之一。碳氟化合物冷却液具有以下特点:39——具有良好的化学稳定性和良好的热稳定性;——具备良好的绝缘性和电气特性;——具有良好的材料兼容性;——介电常数低,可保证高频信号在冷媒中的可靠传输;——安全性高,具有良好的热稳定性,ODP值为零,大气寿命较短,对臭氧层无破坏。(3)冷量分配模块(CDM)冷量分配模块(coolantdistributionmodule,简称“CDM”),是指用于二次侧冷却液蒸汽与一次侧冷源进行换热,并对液冷IT设备提供冷量分配和智能管理的模块。相变浸没式液冷CDM由冷凝器、循环泵、过滤器、储液罐,以及附件(阀门、管路、接头、传感器等)组成。相变浸没式液冷CDM工作原理示意图如图13所示。在CDM的二次侧循环中,CDM提供低温液态冷却液至分集液器,再通过分集液器平均分配到各浸没刀壳中,完成计算节点低温冷却液的供给,冷却液在刀壳中升温、沸腾,通过相变实现热量的转移,冷却液气体再汇集分集液器的回气管中,最终通过CDM的换热器与一次侧冷却水进行换热变成低温冷却液,然后CDM再次提供低温液态冷却液至分集液器,完成二次侧的循环。在CDM的一次侧循环中,在CDM换热器中升温后的高温水,由循环水泵输送到室外冷却塔中,通过冷却塔的鼓风或喷淋,将热量最终释放到大气中,变成低温冷却水,再回到CDM换热器中与二次侧冷却液进行换热,完成一次侧循环。40图13相变浸没式液冷CDM工作原理示意图CDM功能如下:(1)提供循环动力:为室内系统的冷却液提供循环动力,保证冷却介质持续循环,源源不断地带走负载热量;(2)自动监控运行状态:综合分析系统运行状态,自动监控、智能调节冷却液的压力、流量、温度,实时调配负载均衡,是整个系统的控制核心;(3)负责热交换:二次侧与一次侧通过CDU进行热交换,最终将负载产生的热量高效传递到室外;(4)其他:提供冷却液净化、储液等功能;支持刀片运维下架时的排液功能,可实现对单个刀片服务器的独立排液下架。3.解决方案相变浸没式液冷机柜通过“一拖二”冷却系统的解决方案,充分发挥了冷却液相变潜热的优势,在实际应用项目中,CDM额定制冷量高达340kW,单机柜额定功率高达168kW。相变浸没式液冷系统二次侧支持38℃~40℃以下供液温度,一次侧支持15~35℃供水温度。一次侧可选择开式冷却塔或闭式冷却41塔、干冷器,为保证进入冷量分配模块(CDM)的水质,采用开式冷却塔时还应在CDM和开式冷却塔之间增加一次板式换热。相变浸没式液冷系统无需冷水机组、风扇等高能耗制冷设备,实现PUE低至1.1以下,相比传统风冷方式节能30%以上。4.技术特点(1)高效散热浸没相变液冷技术可充分利用冷却液相变潜热大的优势,实现对所有发热元器件的高效散热,而无需配置任何风扇。(2)精确制冷计算节点主板全部发热元器件直接浸没于冷却液体中,通过对芯片封装表面进行强化沸腾处理,增加表面气化核心,增强相变换热效率,降低电子元器件封装罩表面的温度,使得电子元器件表面的温度场均匀分布。由冷却液体直接带走热量,实现芯片级精确制冷。(3)支持高热流密度散热和高密度部署相变浸没式液冷散热效率极高,可满足芯片热流密度高达100W/cm2~150W/cm2。满足计算节点紧凑化部署,单机柜功率高达168kW,缩短了节点间的通信距离,突破了大系统高速网络通信延时问题;另外得益于其高效散热性能,亦可通过调整芯片运行频率来提高计算的性能和系统资源利用效率;机房空间利用率更高,节约占地和建设成本。(4)机房噪声低无需配置任何风扇,噪音低至45dB,实现“静音机房”效果。(5)全年全地域自然冷却,更加节能42整个冷却系统采用中高温水作为冷却介质,不需要压缩机制冷,可充分利用自然冷源,实现全年全地域自然冷却,从而大大降低了冷却系统能耗。相变浸没式液冷CLF可低至0.04以下,比传统空气冷却机房节能30%以上。(6)总体TCO随运行时间增长而更凸显节能优势根据测算,浸没液冷方案初期总拥有成本(TCO)高于风冷方案,得益于浸没液冷数据中心优异的节能效果,3年后总拥有成本(TCO)将逐渐低于风冷方案,并且随着运行时间增长,总拥有成本(TCO)优势更加凸显。(7)自动排液设计,运维操作简便相变浸没式液冷由于沸点低,开箱维护难度较大,在实际部署应用时,通过密封刀片式服务器产品设计,支持热插拔,可实现单个刀片独立下架维护,而不需要整体停机维护;回收冷却液时可采用专业设备自动排液后开箱维护,因此相变浸没式液冷对服务器产品和维护设备的设计要求较高,成本略高,但实际运维操作简便(8)智能化运行管理相变浸没式液冷服务器系统具有监控刀片服务器刀壳内的气体压力、液体温度、液体液位等功能,与CDM设备联动控制CDM供液温度、压力等参数,并具备漏液故障告警和定位功能,服务器系统可靠性得到保障。5.适用范围相变浸没式液冷技术解决方案适用范围如下:(1)适用于全年全地域环境条件:相变浸没式液冷系统利用液43体作为传热介质带走服务器热量,利用室外侧常温冷却水即可完成热交换,因此无需压缩机、风扇等高能耗设备,完全满足全年全地域自然冷却条件;(2)适用于超高热流密度芯片散热:计算节点全部发热元器件直接浸没于冷却液中,可实现芯片级精准散热,满足芯片热流密度高达100W/cm2的散热需求,解决方案低至1.1以下,尤其适用于高密度计算、区块链、人工智能、云计算等对算力和绿色节能要求较高的新建大型、超大型数据中心;6.存在的问题相变浸没式液冷技术解决方案自2018年全球首个大规模相变浸没式液冷商业应用项目落地,至今应用总规模接近150MW,且均为高密度计算场景的大型、超大型数据中心。随着生成式AI技术在人工智能领域带来的革命性突破,未来算力需求必将迎来爆发式增长,芯片功率也呈持续增长趋势,具有高效散热和极致节能优势相变浸没式液冷技术应用前景广阔。但相变浸没式液冷技术解决方案目前尚存在成本高、产业链成熟度不足等问题,还需进一步扩大应用规模、打通产业链上下游衔接、形成行业统一规范。(1)成本高冷却液:用于相变浸没式液冷的进口低沸点碳氟化合物冷却液成本较高,是相变浸没式液冷解决方案整体成本偏高的主要原因之一。目前国内相关厂家通过大量投入实现了国产自主可控产品,完成各项参数的长周期测试,产品参数与进口碳氟化合物冷却液一致,甚至个44别参数(如温室效应值GWP)优于进口产品,见表8。在国内厂家、研发机构的共同努力下,国产产品成本较进口产品成本有较大幅度下降。随着应用规模的扩大,冷却液成本问题将得到解决。表8国内外主流碳氟化合物冷却液产品参数对比型号SFM-5016NFC-72Novec7100参数沸点℃(常压)505661密度kg/m3161816801510比热J/kg·K122011001183潜热kJ/kg9088112运动粘度cSt0.370.380.38介电常数1kHz1.91.87.4臭氧消耗潜值ODP000温室效应值GWP207400297系统设计及建设:相变浸没式液冷技术主要依靠冷却液的汽化、冷凝换热,系统中存在气态区压力的波动变化,对系统密闭性、控制要求较高;另外设计时兼顾运维便利性,可实现单刀片独立自动排液后下架维护,不影响其他服务器正常运行,不需要整体停机维护,对服务器系统的结构设计要求较高。因此相变浸没式液冷在设计和制定上的成本较高,但运行维护极为便利。(2)产业链成熟度不足相变浸没式液冷系统架构及产品标准化程度不足的问题同冷板式液冷技术,详见本白皮书冷板式液冷技术部分相关内容。7.运维要求相变浸没式液冷系统运维要求与冷板式系统要求基本相同,详见45本白皮书冷板式液冷技术部分相关内容。因刀片式设计和冷却液成分的不同,相变浸没式液冷系统运维区别要求如下:(1)刀片式服务器需要下架维护时,应按照流程要求正确使用自动充排液设备对刀片进行一键自动排液;新上架刀片(包括维护后刀片重新上架)应按照流程要求正确使用自动充排液设备进行一键自动充液。(2)冷却液泄漏时,对大量溢出或泄露的冷却液,用泵抽回到专业容器中,并由专业机构进行提纯、回收或废弃处理,严禁直接使用或排放至外界环境中。(四)单相浸没式液冷技术1.基本原理单相浸没式液冷是以液体作为传热介质,将发热电子元件直接浸没于冷却液中,通过冷却液与电子元件的直接接触进行热交换的液冷技术。在此热交换过程中冷却液进温度发生变化而不存在相态转变,过程中完全依靠物质的显热变化传递热量。单相浸没系统原理图如图14所示,单相浸没液冷是将服务器放置于密闭的浸没腔中,此时,服务器设备内所有发热电子元器件均需浸没在腔体的冷却介质中,服务器运行时发热器件会产生大量的热量,该热量会被冷却介质吸收并导致冷却介质的温度升高,在底部低温冷却介质的注入和对流现象的影响下,高温冷却介质会向上流动并被收集后送入CDU中进行热交换排出热量,使冷却介质恢复低温再次被注入浸没腔中,使得冷却系统中的服务器运行稳定。46图14单相浸没冷却原理示意图2.关键技术和设备(1)冷量分配单元(CDU)CDU常见为柜式结构,内设有循环泵、过滤器和换热器等。CDU的特点包括:——每个分配单元可支持1至4个Tank;——内置断路器,可防止电气过载;——设有主用泵和备用泵,因此可实现冗余运行;——主用泵和备用泵采用电气隔离设计,可独立运行;——支持2N冗余。备用泵水系统可以承担主泵的全部负荷;——双泵系统共用同一换热器,可实现主备泵无缝切换;——进出口采用软管宝塔接头,方便快捷。(2)液冷机柜(Tank)液冷机柜(Tank)采用优质冷板焊接成型,整体牢固可靠;采用旋开式顶盖设计,设可视透明窗,观察便捷;进/回液管采用特殊设计,确保Coolant的分配与汇流均匀;优化内部循环流场,确保服务器冷却均匀。47(3)冷却液单相浸没式液冷用冷却液特点如下:——兼容标准服务器的所有器件;——绝缘性好;——对人体及环境无害;——单相换热无挥发;——安全可靠,闪点237℃,凝点-60℃;——性能稳定,不吸水。3.解决方案系统主要由CDU、若干Tank、连接管道等组成。CDU内置有换热器和泵组,泵组、换热器壳程、Tank及其连接管道,充注有绝缘冷却液(Coolant),并形成冷却液循环回路;服务器浸没在Tank内的Coolant中;CDU需匹配外部冷源,如冷却塔等。一个CDU带1个、2个、4个TANK的系统示意图如图15所示。a)单TANK系统48b)双TANK系统c)四TANK系统图15系统示意图4.技术特点单相浸没式液冷具有以下特点:——没有空调、加湿的控制,没有压缩机,无需冷冻水机组;——无需架空地板;——服务器无需风扇,减载10%~20%;——接受不同形式水源;——运行环境要求低;——冷却液不挥发,并兼容标准服务器所有硬件;495.适用范围单相浸没式液冷适用范围广,基本不受地域的限制。6.存在的问题目前,单相浸没式液冷存在的主要问题是冷却液的成本较高,但随着应用规模的扩大,冷却液的成本有望逐步下降。7.运维要求(1)滤芯更换应每6~12个月更换冷却液的滤芯。(2)换热器锌阳极检查锌阳极应每6个月拆下并检查一次。如果明显磨损低于25%,则可以每年更换一次。如果在这些检查中发现明显磨损,应评估水的化学性质,并增加更换频率以避免阳极损耗超过70%。(3)CDU漏液维护检查泵模块集水池和周围区域是否存在冷却剂或水的积累。如果发现冷却剂或水,检查以下位置:——所有密封垫;——所有管道配件;——所有软管夹;——泵头到泵电动机的连接。(3)Tank定期巡检滤网维护要求:——应定期检查所有滤网是否存在阻塞和颗粒积累。50——需要时卸下清洗并重新安装任何积聚或被杂物堵塞的冷却剂滤网。——滤网如果损坏需及时更换。液位检查要求:——冷却液泵运行时,检查机架是否存在气泡。这是不平衡、冷却液不足或出现泄漏的迹象。——检查Tank下的防溢板(凸起的地板)是否有冷却剂积聚的情况,如果防溢板中存在过量冷却剂,则需要使用通用清洗技术进行清洗。——检查系统Tank内的液位是否足够。液面应在回液滤网固定螺栓顶部以上25mm处。(五)间接蒸发冷却技术1.基本原理间接蒸发冷却技术基本原理是通过水蒸发吸热降低空气温度来冷却换热器内的冷却介质,通过喷淋常温水,通过水与不饱和空气进行热湿交换降低空气温度,由于喷淋水或蒸发水没有与换热器内的冷却介质接触,称为间接蒸发冷却。利用间接蒸发冷却技术可为空气、制冷剂、水降温,因此按产出介质形式可分为风侧间接蒸发冷却技术、制冷剂侧间接蒸发冷却技术和水侧间接蒸发冷却技术。51图16间接蒸发冷却原理示意图2.关键技术和设备(1)间接蒸发冷却空-空换热机组间接蒸发冷却空-空换热机组为风侧间接蒸发冷却技术应用的一种形式,在空-空换热器位置设置喷淋装置,同时需要设置补冷盘管,可以送出满足要求的风量。间接蒸发冷却空-空换热机组为一体化设备,有3种运行模式:干工况模式、湿工况模式、混合工况模式。干工况模式:在室外环境温度低的情况下充分利用自然冷源,室外温度较低的冷空气与数据中心内温度较高的热空气通过空空换热器进行热量交换,热空气被冷却后送入数据中心。湿工况模式:室外环境温度较高的情况下,开启喷淋水循环系统,向外部空气侧喷淋,冷却外部空气到湿球温度,被冷却的室外侧湿空气通过翅片与室内侧热空气换热,增强换热效果。混合工况模式:室外空气温度过高,仅依靠蒸发冷却,制冷量达不到100%,需集成的机械制冷弥补冷量不足的部分。52干工况模式湿工况模式混合工况模式图17风侧间接蒸发冷却技术应用方式(2)智能热管全变频氟泵空调带有间接蒸发冷却功能的智能热管全变频氟泵空调为制冷剂侧间接蒸发冷却技术应用的一种形式,在风冷直膨式系统的室外冷凝器进风前增加雾化喷淋装置。蒸发冷却技术主要利用水蒸发相变时吸收的热量,达到降低空气温度的目的。在干燥地区,干湿球温差大,蒸发冷却效果更好。在空调冷凝侧,通过喷淋,利用蒸发冷却降低室外侧回风干球温度,从而强化冷凝侧换热,制冷系统可达到更高能效。此外,结合蒸发冷却,氟泵自然冷却的工作时间延长,也有利于节能。变频压缩机模式混合制冷模式全自然冷模式间接蒸发模式图18制冷剂侧间接蒸发冷却技术应用方式(3)间接蒸发冷却冷水机组间接蒸发冷却冷水机组为水侧间接蒸发冷却技术应用的一种形式,在有喷水室作为直接蒸发冷却的冷却塔基础上,在其前端加装间53接蒸发冷却器,对新风进行预冷,可以得到逼近湿球温度或者低于湿球温度的冷却水温。图19水侧间接蒸发冷却技术应用方式3.解决方案(1)间接蒸发冷却空-空换热机组间接蒸发冷却空-空换热机组可以安装在建筑物侧面或顶层,通常侧面安装用于一层的场景,顶层安装适用于多层建筑物最上一层的场景。a)侧面安装图20安装示意图b)顶层安装(2)智能热管全变频氟泵空调智能热管空调是一套由高效风冷变频压缩机+变频室外机+氟泵+全自动喷雾装置组成的一整套可利用蒸发冷却、氟泵、热管等技术的54机房专用空调系统。通过全新的控制逻辑和引入AI自我优化技术降低机房整体能耗,确保机房内每一台机房空调都处于最高能效运行。智能热管全变频氟泵技术具有广泛的适用性,可根据不同机房的建筑形式进行变化,使得其方案能够适应不同客户的实际需求。从应用场景上有房间级与列间级;从结构形式上有一体式和分体式;从连接形式上有单元式和多联式。图21智能热管全变频氟泵空调架构图(3)间接蒸发冷却冷水机组间接蒸发冷却机组主要是用在水冷冷水系统中,替代常规冷却塔作为空调系统的室外散热部分,如下图:图22空调水系统架构图4.技术特点间接蒸发冷却机组的技术特点主要有:55(1)具有较高的全年能效比。水汽化潜热大,蒸发冷却效果比风冷更好,可以适应更高的室外环境温度,或者在相同室外环境温度下得到更低的冷却介质温度。(2)需要耗水。间接蒸发冷却技术需要消耗水资源,一般是采用自来水(如当地自来水水质符合要求),或者经过水处理的软化水、纯净水。5.适用范围间接蒸发冷却空-空换热机组适用于场地水资源充沛、气候适宜、空气质量良好的场景,缺水干旱地区会受到限制。间接蒸发冷却空-空换热机组(AHU)为一体化设备,属于全空气系统,占地面积较大,可以满足低密度机柜机房,一般≤8kW/机柜。智能热管氟泵空调是在风冷直膨式系统的室外冷凝器上增加间接蒸发冷却功能,不受地域或水资源的限制,可在无水的条件下实现自然冷制冷,因此适用范围更广。部分城市智能热管全变频氟泵机组能效数据如表9所示。表9部分城市智能热管全变频氟泵机组pPUE与AEER[5]空调负载率100%空调负载率75%空调负载率50%北京pPUE0.1470.1070.085天津上海AEER6.809.3511.76广州pPUE0.150.110.08AEER6.679.0912.50pPUE0.170.120.10AEER5.888.3310.00pPUE0.200.160.1356重庆AEER5.006.257.69深圳pPUE0.190.140.10哈尔滨AEER5.267.1410.00长春pPUE0.210.170.14石家庄AEER4.765.887.14南京pPUE0.110.080.06杭州AEER9.0912.5016.67合肥pPUE0.120.080.06济南AEER8.3312.5016.67成都pPUE0.150.110.09武汉AEER6.679.0911.11南宁pPUE0.170.120.09海口AEER5.888.3311.11贵阳pPUE0.170.130.10怀来AEER5.887.6910.00pPUE0.170.120.09AEER5.888.3311.11pPUE0.160.120.09AEER6.258.3311.11pPUE0.170.120.09AEER5.888.3311.11pPUE0.180.130.10AEER5.567.6910.00pPUE0.200.160.13AEER5.006.257.69pPUE0.1930.1640.138AEER5.186.097.25pPUE0.1610.120.096AEER6.218.3310.42pPUE0.140.1060.083AEER7.149.4312.0557乌兰察布pPUE0.1040.0840.063中卫AEER9.6111.9015.87河源pPUE0.1330.1010.078清远AEER7.529.9012.82廊坊pPUE0.1870.1570.131张家口AEER5.356.377.63pPUE0.1840.1550.129AEER5.436.457.75pPUE0.1490.1140.090AEER6.718.7711.11pPUE0.1140.0840.063AEER8.7711.9015.87表格数据来源:ODCC《数据中心智能热管全变频氟泵技术白皮书》,参数基于室内回风温度35℃、送风温度20℃工况条件下计算得出间接蒸发冷却冷水机组适用于水资源充沛区域,通常作为水冷冷水系统的冷却塔使用,也可以在全年气候适宜区域直接提供冷水。6.存在的问题间接蒸发冷却机组存在的问题主要有:(1)空-空换热机组一般体积较大;(2)对水质的要求特别严格,水处理技术的应用特别关键。换热器容易结垢、脏堵、腐蚀,影响换热效果和制冷量输出。因此,机组同时应有水流量、水压、水电导率、水pH值监测仪器或传感器,对水质进行监测;(3)对日常运行维护提出更高的要求。解决建议如下:(1)进行严格的水处理,确保水质符合指标要求;58(2)节约用水,引入变频泵技术,水量按需供给。7.运维要求运维方面的要求主要有以下几点:(1)定期检查设备各部件是否运行正常,如有异常,进行相应故障处理。(2)定期检查程序控制是否运行正常,如有异常,进行相应故障处理。(3)定期检查水系统水质,集水盘定期清洗排污,喷嘴是否脏堵。(4)对制冷剂侧间接蒸发冷却机组,室外冷凝器定期清洗换热器翅片,每年至少清洗两次,当室外机应用在灰尘较为严重的场合(如中国的西北地区),建议每隔三个月清洗一次换热器。(5)对制冷剂侧间接蒸发冷却机组,室外冷凝器喷淋水系统定期监测出水硬度,及时添加工业盐和更换树脂。定期检查喷嘴是否脏堵。可比较喷嘴的水雾面积大小,如有水雾面积小或无水雾喷出的喷嘴,需对该喷嘴内过滤器件进行清洗,如有必要需更换喷嘴。(6)空调风系统要根据过滤网的脏堵情况检查更换,在使用期间过滤网必须每月检查一次并按要求更换。更换过滤网之前关闭电源。更换完过滤网后要将风机运行时间清零。(六)制冷剂自然冷却技术1.技术原理(1)氟泵技术59氟泵技术是在原直膨式空调系统中增加制冷剂泵及配套,制冷剂泵可以独立或者联合压缩机进行制冷,制冷剂泵简称氟泵。经过十几年发展,氟泵技术在数据中心的应用已经比较成熟。目前氟泵技术应用主要包括分体式氟泵空调、整体式氟泵空调机组、多联式氟泵空调等形式。氟泵空调系统可包含水喷淋或喷雾器件、室外风机、冷凝器(或冷却塔、干冷器等)、氟泵、节流阀(膨胀阀等)、制冷压缩机(涡旋压缩机、气悬浮压缩机、磁悬浮压缩机、正压液浮压缩机等)、换热器(可选)、蒸发器、室内风机等的不同器件组合,不同形式的氟泵空调,其基本原理大同小异,基本系统原理如下:a)单元式b)多联式图23氟泵制冷循环示意图根据室外环境温度,氟泵空调一般具备以下三种运行模式:自然冷却模式,压缩机停止运行,氟泵启动。在室外风冷冷凝器内完成制冷剂气-液转换,冷却的制冷剂液体通过氟泵推动,回到室内侧蒸发器,吸收室内热量后,液态制冷剂转变为气态,进入室外冷凝器,完成制冷循环。过渡季节制冷模式,泵循环提供的冷量无法满足机房换热量的需求,此时需启动压缩机进行冷量补充。60压缩机制冷模式,无法利用室外自然冷源,机组运行在完全压缩机工作模式下。(2)热管技术热管是一种具有极高导热性能的传热元件,通过在全封闭真空管内的液体的蒸发与凝结来传递热量,利用毛细作用等流体原理、热传导原理与制冷介质的快速热传递性质,通过热管将发热物体的热量迅速传递到热源外。空调系统中冷媒管路及内部的冷媒组合类似热管,能够不通过压缩机就可以将蒸发器的热量传到室外冷凝器,能够实现这个功能的空调系统称之为热管空调。热管空调在数据中心的应用分为重力热管和动力热管两种。重力热管空调是没有氟泵或压缩机提供动力的热管空调,有氟泵或者压缩机提供动力的则称为动力热管空调(氟泵驱动的为液动热管、压缩机驱动的为气动热管)。2.技术分类、适用范围及存在的问题制冷剂自然冷却技术可以有多种划分方式,具体见下表所示。序二级表10制冷剂自然冷却技术分类存在的问题类别适用范围号分体式氟泵空调就是通常说的氟泵DX空氟单元式分体式调,具备冷量颗粒度不大、灵活部署等特点,分体氟泵空调技术比泵氟泵空氟泵空单台制冷量30~400kW,有房间级、列间级较成熟,维护简单,投技调(一拖调空调,送风方式多样,适用于新建、扩建、资成本较低。新型室外术一)改造大、中小数据中心场景,可以适应不同冷凝器占地面积较小。机柜密度机房,可根据机房分期灵活部署。61可以配置冷凝器水喷淋来实现更好的节能效果,在北方冬季氟泵可发挥明显节能作用。增加热回收模块或水氟换热器可以实现热回收。整体式氟泵空调,单台制冷量100~400kW,整体式适用于新建、扩建、改造大、中小数据中心整体式氟泵空调一般氟泵空较高机柜密度机房,主要用于大型单层、双室外布置,需要较大的层、多层数据中心场景。可以配置冷凝器水室外面积或者屋面面调喷淋来实现更好的节能效果,在北方冬季氟积。多层应用需要用风泵可发挥明显节能作用。安装工程量较分体管散热,阻力较大。涡旋压式氟泵空调小,不需要现场安装冷媒管道。缩机相变多联整体式结构可以支持热回收。系统涡旋压缩机相变多联系统采用涡旋压缩机,磁悬浮相变多一台室外机拖多个室内机,室内机有房间空联系统调、风墙空调、列间空调、背板空调等多种分体氟泵空调技术比形式。单台压缩机制冷量15~120kW,适用较成熟,维护简单,投于新建、扩建、改造大、中数据中心场景,资成本较低。新型室外可以适应不同机柜密度机房,可根据机房分冷凝器占地面积较小。期灵活部署。可以配置冷凝器水喷淋来实现单台压缩机故障的影多联式更好的节能效果,在北方冬季氟泵可发挥明响面较小。氟泵空调(一拖显节能作用。增加热回收模块或水氟换热器多)可以实现热回收。磁悬浮相变多联系统采用磁悬浮压缩机,一磁悬浮压缩机属于离台室外机拖多个室内机,室内机有房间空心式压缩机,低部分负调、风墙空调、列间空调、背板空调等多种荷运行会导致喘振,不形式。单台压缩机制冷量100~1000kW,能在低负载下运行。采适用于新建、扩建、改造大、中数据中心场用风冷冷凝器占地面景,可以适应不同机柜密度机房,可根据机积较大,采用水冷冷凝房分期灵活部署。可以配置冷凝器水喷淋来器间接蒸发冷却方式实现更好的节能效果,在北方冬季氟泵可发耗水量大。目前磁悬浮挥明显节能作用。冷凝器也可以采用水冷冷压缩机成本高。单台压62凝器间接蒸发冷却。增加热回收模块或水氟缩机故障影响面较大。换热器可以实现热回收。气悬浮相变多联系统采用气悬浮压缩机,一气悬浮压缩机属于离台室外机拖多个室内机,室内机有房间空心式压缩机,低部分负调、风墙空调、列间空调、背板空调等多种荷运行会导致喘振,不形式。单台压缩机制冷量150~300kW,适能在低负载下运行。采气悬浮用于新建、扩建、改造大、中数据中心场景,用风冷冷凝器占地面相变多可以适应不同机柜密度机房,可根据机房分积较大,采用水冷冷凝联系统期灵活部署。可以配置冷凝器水喷淋来实现器间接蒸发冷却方式更好的节能效果,在北方冬季氟泵可发挥明耗水量大。目前气悬浮显节能作用。冷凝器也可以采用水冷冷凝器压缩机成本较高。单台间接蒸发冷却。增加热回收模块或水氟换热压缩机故障影响面较器可以实现热回收。大。气动热氟泵空调具备的功能,需要压缩机运行需要较大动力,能耗较热管大管运行模重力热氟泵空调具备的功能,冷凝段与蒸发段需有冷媒重力驱动,无需能技式管高度差耗术液动热氟泵空调具备的功能,需要氟泵运行需要一般动力,能耗较管小3.氟泵空调系统关键技术设备(1)分体式氟泵空调氟泵空调属于直膨式空调系统,氟泵节能技术是指在风冷空调制冷循环中加入制冷剂泵、压力传感器、储液罐、单向阀、控制板等部件,在控制器的集中调节下,充分利用室外低温环境,减少压缩机的运行功率及工作时间,达到节能的目的。(2)整体式氟泵机组除了分体氟泵空调以外,近几年又兴起了整体式氟泵机组方案,针对大型数据中心场景的制冷解决方案。整体式氟泵空调机组是通过63低功率氟泵充分利用自然冷源实现数据中心制冷的一体化设备,同样具备三种运行模式,通过对室外环境温度监测自动切换运行模式,能最大限度地提高制冷系统的能效比。(3)氟泵多联机系统可实现高效节能、分布式控制以及模块化部署,适应当下的数据中心建设趋势。除了以上三种形式的氟泵系统方案以外,为了适配室外机安装空间有限的数据中心场景,于是氟泵多联机系统应运而生,即由一个室外机拖多个室内机的氟泵系统,简称氟泵多联机。智能多联相变制冷技术(压缩机可采用涡旋、磁悬浮、气悬浮等不同种类),是基于全变频系统,独立开发基于末端需求的多联主机变冷量控制、多联末端控制技术、室内EC风机控制、室外EC风机控制、室外氟泵变频控制、EEV变流量控制器等硬件及上层软件,融合变频压缩机风控技术、送风控制技术、蒸发压力控制技术、群控分配负载技术、远程温度控制技术、氟泵变流控制技术、雾化蒸发喷淋技术等多项技术,从而实现的一整套硬件及软件完美结合的体系型先进技术,该技术开创了机房空调的全新方向,极大地颠覆了传统数据中心的冷却方式。模块化氟泵多联空调,是为了解决传统机房空调系统痛点而开发的一种高效节能、占地面积小、安装便捷、无安装限制、末端多样化的新型数据中心制冷解决方案。大部分地区的中小型数据中心机房制冷场景,尤其适用于通信机楼改造场景和长距离配管场景。气悬浮、磁悬浮压缩机系统属于无油系统,因运行压力较小,铜64管管径要求大一点,压缩机自身能效较高,但系统能效需要由第三方机构验证。涡旋压缩机系统属于有油系统,运行压力较高,铜管管径可以小一点,压缩机自身能效较高,但系统能效需要由第三方机构验证。(4)重力热管空调风冷直膨式空调系统中,室内热管中的液态制冷剂和机房内空气热交换后气化,受系统内压力推动上升到室外机,在室外机处与冷空气进行热交换,将热量释放到室外,同时制冷剂冷凝为液态。冷凝后的液态制冷剂在重力作用下又回到室内热管,形成热交换循环。室外侧用水冷冷却的水冷重力热管空调是采用水冷换热器进行水氟热交换,应用于热管背板。(5)动力热管空调动力热管空调是在热管系统上增加了制冷剂驱动泵,为制冷剂循环提供动力,在泵的前后,制冷剂的相态不发生改变。在应用上,动力热管系统可以扩展应用到液冷系统上,如双相相变冷板、单相冷板、相变浸没、单相浸没等。4.技术特点(1)分体式氟泵空调技术特点分体式氟泵空调最为常见,氟泵空调的制冷系统可以在室外环境温度达到设定值时自动调节接入氟泵运行模式,并停止压缩机运行,通过氟泵的动力带动整个制冷循环。氟泵的运行功率非常小,所以可以实现很大的节能效果。技术特点如下:651)全变频设计,节能效果显著压缩机、室内风机、室外风机、电子膨胀阀、氟泵等关键器件采用全变频设计,可根据机柜热负载自动调节,实现10%—110%冷量输出。2)三种运行模式、自动调节,适用各种工况环境当提高机房内回风温度,或者制冷设备处于部分负荷的情况下,氟泵循环工作时长增加,可以更多地利用自然冷。同时氟泵技术结合采用间接蒸发冷却技术及重力热管技术,可以延长利用自然冷时间。间接蒸发节能技术应用在风冷室外机上,采用高压喷雾的形式,一部分通过等焓的过程降低冷凝器周边的空气温度,使与冷凝器换热的空气温度从干球温度无限接近于更低的湿球温度,降低冷凝温度,提升换热效率;另一部分喷雾直接喷射到冷凝器上,常温的水蒸气与冷凝器直接换热,换热效率高。(2)整体式氟泵机组技术特点整体式氟泵主要是为了解决间接蒸发冷空调耗水的问题,集成了氟泵系统的原理,按照一体化机组设计,适合南北方地区,尤其在北方缺水的地区,整体式氟泵机组优势明显。整体式氟泵空调机组通过低功率氟泵充分利用大气自然冷源实现数据机房制冷的一体化设备,通常大型数据中心采用单机组冷量100kW~400kW,中小型数据中心或节能改造用机组冷量范围100kW~200kW。整体式氟泵空调机组具备如下特点:661)集成压缩机、氟泵制冷双循环采用压缩机、氟泵双循环系统,可在机械模式、自然冷模式、混合模式三种制冷模式下智能切换;最大限度利用自然冷源,显著提高机组全年运行能效。2)全变频设计压缩机、室内风机、室外风机、电子膨胀阀、氟泵等关键器件采用全变频设计,可根据机柜热负载自动调节,实现10%—110%冷量输出。3)整体式设计厂内完成整机装配、生产调试和性能测试。机组出厂后无二次安装,无需工程连管,降低现场调试风险,可靠性更高,进一步提高交付效率(预计节省工厂及现场安装工时≥5h)。4)模块化设计机组采用多模块设计,通过多个标准模块进行组合,方便根据客户需求进行快速配置。提高对客户差异化需求的响应效率,提升产品应用的可靠性。(3)氟泵多联系统技术特点氟泵多联空调,是为了解决传统机房空调系统痛点而开发的一种高效节能、占地面积小、安装便捷、无安装限制、末端多样化的新型数据中心制冷解决方案。应用场景为大部分地区的中小型数据中心机房制冷场景,尤其适用于机楼改造场景和长距离配管场景。全变频多联热管空调,单台机组制冷量范围50kW~400kW,为小颗粒度集67中式系统,适用于不同规模的数据中心。小颗粒度集中式系统规避了冷冻水系统这种大型集中式系统重要单点故障对系统的致命性影响。同时相比传统的单元式机房空调,减少了室外机占地面积、降低了管道安装工程量。涡旋压缩机氟泵多联空调的技术特点如下:1)新一代变频涡旋压缩机可靠与节能大幅提升新一代变频涡旋压缩机采用CoreSenseTM保护技术,通过将主动保护算法集成于电机控制变频器中,确保压缩机和变频器在各种异常工况运行的安全性,为系统的可靠运行全面保驾护航。优化变频技术:该变频压缩机技术可安全运行在1000-7200RPM的宽频率范围内,并能够提高部分负荷和除湿工况能效。永磁同步电机:永磁同步电机具有较高的运转效率和功率因数,且无转速差。永磁同步电机不需电励磁装置,简化了电机结构稀土永磁同步电机效率比同容量异步电机提高了3%~12%;而且在体积和最高运作转速与异步电动机一样的条件下输出功率也高出10%~30%。运作效率提升的同时减少了能源的消耗,低负载时能效更高。2)模块化多联式设计室外主机采用模块化集成紧凑式设计,压缩机制冷模块、自然冷却模块和氟泵动力模块三位一体集中设计,可大幅度节省室外占地面积、减少现场设备安装的工程量。室外主机和室内末端均采用多机并联设计,一套系统的所有室内外机只需1套主管道连接,可大幅度减少现场管线敷设的工程量;任一台主机和末端故障,同系统的其他机68组可投入运行或加载补冷,系统安全性更高。在同等性能配置下,与传统风冷机房空调相比,多联氟泵空调室外占地面积可节约30%~40%。3)双循环三模式设计采用独立双循环系统设计,室外主机集成2套独立的压缩机制冷循环系统和自然冷却循环系统,同时设计采用压缩机机械制冷、混合制冷、完全自然冷却三种运行模式,结合PID智能控制系统,可根据机房负荷和室内外环境温度自动判断切换最优运行模式,确保任何时候系统均可以最大限度优先利用自然冷源。4)高适应性和高可靠性末端冷媒循环采用氟泵驱动,不受室内外机高落差和长连管安装限制,系统适应性更好。室外机压缩机无长连管的回油风险、无低温启动和运行高压过低供液不稳定的风险;室内末端采用冷媒作为介质无水进入机房,系统运行更加安全可靠。气悬浮或磁悬浮相变系统技术特点如下:1)气悬浮或磁悬浮无油离心压缩机技术应用无油润滑磁悬浮技术可消除油系统维护、可消除摩擦损耗。永磁同步直流电机技术可消除齿轮箱带来的机械损耗,电机效率高达98%。变频技术可实现无级调速,启动电流低至2A、极高的部分负荷性能。69结合蒸发冷却技术的磁悬浮蒸发冷机组(磁悬浮蒸发冷机组特有)的室外侧利用水的汽化潜热进行换热,冷凝温度与湿球温度相关,相比于传统的冷凝器+冷却塔,蒸发式冷凝器可以降低6度左右的冷凝温度,能效可提高20%。蒸发式冷凝器配置的水泵只需进行内部的水流循环,输送距离短;且主要是相变蒸发换热,需要的循环水量更小,因此水泵相对于冷却塔水泵要明显更小,水泵功耗显著降低。2)系统控制高度集成化,方便运维管理系统控制由厂家集成提供,系统群控可实现统一管理室外机和室内机的启停、多台设备间最优运行分配、管理主备机切换等功能。统一的人机交互界面,方便整个系统的数据监控。3)多末端自由配置多联机搭配方式,兼容行级、背板、房级等多种末端形式,系统架构简单;设备放置于室外,不占机房空间;适用区域广泛,不分地域、不分新建或改造项目。5.运维要求运维要求如下:(1)定期检查设备各部件是否运行正常,如有异常,进行相应故障处理。(2)室外冷凝器定期清洗换热器翅片,每年至少清洗两次,当室外机应用在灰尘较为严重的场合(如中国的西北地区),建议每隔三个月清洗一次换热器。(3)定期检查程序控制是否运行正常,如有异常,进行相应故障70处理。(4)定期检查制冷管道是否牢固固定。制冷管道不能随墙体、地面或设备框架振动而晃动,否则应采用紧固物件对制冷管道进行加固。(5)定期检查所有制冷管道附件是否有油迹,以确保没有泄漏现象。(6)喷淋水系统定期监测出水硬度,及时添加工业盐和更换树脂。定期检查喷嘴是否脏堵。可比较喷嘴的水雾面积大小,如有水雾面积小或无水雾喷出的喷嘴,需对该喷嘴内过滤器件进行清洗,如有必要需更换喷嘴。(7)空调风系统要根据过滤网的脏堵情况检查更换,在使用期间过滤网必须每月检查一次并按要求更换。更换过滤网之前关闭电源。更换完过滤网后要将风机运行时间清零。(8)冬季应避免积雪堆积至冷凝器的周围。(七)全新风直接冷却技术1.全新风直接冷却基本原理新风直接自然冷却系统主要由室内机组,含新风阀、回风阀及防霜风阀的节能混风箱模块及排风口组成。当室外新风温度达到启动自然冷却启动设定温度,系统将进入自然冷却运行模式或混合运行模式。系统根据室外温度及室内回风温度,调节新风阀、回风阀及防霜风阀进行比例调节(见图24)。71图24新风直接自然冷却系统工作原理示意图直接通风系统运行模式通常包含压缩机补冷模式、混合运行模式、新风自然冷却模式:(1)当室外温度高于24℃时,机组在压缩机模式运行,机组运行方式为:压缩机运行+室内侧风循环。室内回风阀完全打开,排风阀关闭,新风阀关闭,通过压缩机运行,室内风循环来为机房提供冷量。(2)当室外温度在18℃~24℃范围内时,机组在混合运行,机组运行方式为:压缩机运行+全新风。室内回风阀完全关闭,排风阀打开,新风阀打开,压缩机间歇运行,降低新风温度,为机房提供冷量。(3)当室外温度不高于18℃时,机组运行新风自然冷却模式,压缩机不工作。室外新风风阀及排风风阀开启,回风风阀依据需要的混合的风量调整至相应开度。此时节能效果最显著。2.全新风直接冷却技术特点具体特点如下:(1)对空气质量要求较高。全新风直接通风系统仅适用于空气质量较高的地区。72(2)适用温度范围更加广泛。新风结构增加防霜混风箱等可以适应更低的室外温度。(3)运行成本进一步降低。运行新风自然冷却的时间更长,进一步减少压缩机能耗。(4)自然冷却节能效果更佳。相对于间接自然冷却,新风自然冷却无需冷液作为媒介无须水泵及室外风机的功耗节能效果更加显著。3.全新风直接冷却产品设备由于直接通风机组设备对使用地区的空调要求高,在数据中心使用案例不是很多,贵州、乌兰察布等地区有机房使用。具体产品形式根据不同厂商不同(不同形式见图25),大部分以客户实际机房定制为主。直通风设备机组可以直接把室外的空气经过过滤送进机房,在此过程还需对空调的温度、湿度进行调节,以达到机房的送风要求。直通风方案改变传统送风形式,采用风机矩阵式风墙送风,充分利用室外低温低湿空气给机房降温,节能60%以上,低压头风机矩阵采用EC风机送风。图25不同产品形式734.全新风直接冷却应用领域新风自然冷却系统应该在数据中心建设之前就考虑该方案,并围绕该制冷解决方案进行数据中心的选址、设计。特别是在前期选址及设计时,应着重考虑灰尘、烟雾、湿度范围、安全、楼层高度等因素。应用规模方面,新风自然冷却系统适用于中国大部分区域,且适用于中大型以及超大型数据机房。环境条件方面,全新风直接通风系统仅适用于空气质量较高的地区。图26新风自然冷却数据中心示意图(八)自然水冷源(海水、湖水、江河水)直接冷却技术1.基本原理自然水冷源是一种利用自然水体(如海水、湖水、江河水)作为冷却介质的技术,可以提高能效,降低能耗和碳足迹。将湖水、江河水或海水引入数据中心,通过直接与冷却设备接触,然后将升温的水排放回水体。2.关键技术和设备(1)散热设备。包括散热器或冷却塔器,用于冷却水和数据中心内的热量之间进行热交换。74(2)水泵。用于将冷却水从自然水源抽送到数据中心,并将升温的水送回自然水源。水泵确保水流稳定,以保证冷却系统的高效运行。(3)冷却水过滤器。在引入数据中心之前,冷却水通常需要经过过滤器,以去除可能对散热设备造成的颗粒、沉积物和其他杂质。(4)自动控制系统。控制系统用于监测和调节数据中心的温度和湿度。这包括传感器、自动化系统和监测设备,以确保冷却系统在不同工作负荷下能够有效运行。3.解决方案图27提供了一种湖水作为自然水冷源的解决方案,该解决方案中计算单元的热量通过液冷方式带走,并利用换热器与自然水冷源进行热交换;室内环境由水冷精密空调系统制冷。冷却水引入:系统首先从周围的自然水源(如河流、湖泊或海洋)中抽取冷却水。冷却水循环:冷却水经过过滤后由专门设计的管道系统被引入制冷单元。这个管道系统将冷却水传送到需要冷却的设备(换热器或精密空调)。热交换:冷却水在制冷单元内流经散热设备,如散热器或冷却塔。同时,数据中心内部产生的热量被传递到制冷单元中。冷却过程:冷却水在热交换过程中吸收了数据中心内的热量,导致冷却水的温度升高。冷却水排出:升温的冷却水通过管道系统被排放回自然水源。在自然水源中,冷却水再次冷却。75循环系统:这个过程形成了一个开放式循环系统,不断地将冷却水引入制冷单元,完成热交换,然后将升温的冷却水排放回自然水源。这样的循环系统降低机械制冷设备的投入和电力消耗,使得直接水侧自然冷却系统成为一种相对节能、环保的数据中心冷却解决方案。图27自然水冷源直接冷却系统4.技术特点(1)环保节能相对于传统的机械制冷系统来说,能够显著减少对电力的依赖,从而降低能源消耗。它利用周围环境的自然冷却水,减少了电力驱动的制冷设备的使用,有助于减少温室气体排放,从而降低对环境的负面影响。(2)运行稳定可靠直接水侧自然冷却系统通常不依赖于复杂的机械设备,因此在设计良好且得到良好维护的情况下,具有较高的可靠性。这有助于提高76数据中心的稳定性和可用性。(3)运行费用低与机械制冷系统相比,自然水源冷却系统降低了能源消耗,这种冷却系统通常在运行成本上更为经济。尤其是在气温相对较低的地区,其性价比更为明显。(4)降低水耗冷却水是通过热交换过程循环使用的,而不是直接消耗。与传统的冷却系统相比,直接水侧自然冷却系统通常可以实现较低的水耗。5.适用范围(1)靠近自然水源的地区直接水侧自然冷却系统适用于那些靠近河流、湖泊、海洋等自然水源的地区。这有助于减少冷却水的输送距离和能源消耗。(2)气候条件直接水侧自然冷却系统更适用于气温相对较低的地区。在寒冷的气候中,自然水源的温度通常足够低,能够有效地降低数据中心的温度。在炎热的气候条件下,这种系统可能效果较差,因为自然水源的温度可能较高,不足以有效冷却数据中心。(3)大型数据中心由于其相对较低的运行成本和高效的能源利用,直接水侧自然冷却系统在大型数据中心中更为适用,尤其是那些产生大量热量的数据中心。(4)对能源效率要求较高的场景77在追求更高能源效率、降低碳足迹的环境下,直接水侧自然冷却系统是一个有吸引力的选择,因为它减少了对电力驱动制冷设备的依赖。(5)适用于新建数据中心在规划新建数据中心时,可以在设计阶段考虑直接水侧自然冷却系统,以更好地利用周围环境的冷却能力。(6)地方性的小型数据中心在一些地方性的小型数据中心中,直接水侧自然冷却系统可能是一种简单、经济且环保的冷却解决方案。6.存在的问题(1)水质和水源稳定性。直接水侧自然冷却系统对水质和水源的要求较高。如果水质不稳定或水源在干旱季节可能减少,系统的性能和稳定性可能受到影响。(2)环境影响。数据中心排放的热水可能对周围的水生态系统产生一定的影响,特别是在冷却水排放进自然水源的情况下。这可能需要符合严格的环保法规和监测标准。(3)冬季问题。在极寒的冬季,自然水源可能会结冰,导致冷却系统无法正常运行。需要考虑采取额外的措施,如加热设备或备用冷却系统。(4)管道设计和维护。长距离的管道系统需要精心设计,以减小水的流动阻力,并确保系统的高效运行。此外,管道系统的维护也是一个挑战,需要定期清理和检查。78(5)微生物和生物污染。冷却水中的微生物和生物污染可能会在系统中产生问题,包括管道堵塞和设备损坏。因此,需要考虑防污染和抑制生物生长的方法。(6)地理位置限制。直接水侧自然冷却系统对地理位置和自然水源的依赖性较强,这可能限制了系统在全球范围内的广泛应用。在某些地区,水源可能不足或环境条件不适合使用这种系统。(7)初期投资和建设。在一些地区,建设直接水侧自然冷却系统可能需要较高的初期投资。这包括建设水管道、散热设备以及监测和控制系统。(8)安全性。在设计中需要考虑水源的安全性,以防止外部因素对水源造成污染或威胁。在部署直接水侧自然冷却系统时,必须综合考虑这些问题,并采取相应的措施来解决或减轻其潜在影响。系统设计、水质管理、环境监测和维护计划的制定都是确保系统稳定运行的关键因素。7.运维要求运维直接水侧自然冷却系统涉及多个方面,包括设备维护、水质管理、系统监测等。以下是一些典型的运维要求:(1)设备定期维护。散热设备、水泵、阀门等关键组件需要进行定期检查和维护,以确保其正常运行。这包括清理散热设备表面的污物、检查水泵的状态、紧固管道连接等。(2)水质监测和处理。定期对冷却水的水质进行监测,以检测潜在的微生物、生物污染和其他水质问题。必要时,采取适当的水质79处理措施,如添加防腐剂、抗菌剂等。(3)管道系统检查。定期检查冷却水的管道系统,确保没有泄漏、堵塞或腐蚀等问题。修复任何发现的问题,以保持系统的稳定性。(4)环境监测。监测数据中心的环境条件,包括温度、湿度和冷却水的温度。这有助于及时发现并解决潜在的故障或问题。(5)自动化控制系统。使用自动化控制系统来调整冷却系统的运行参数,以适应数据中心负载的变化和环境条件的变化。这有助于提高系统的效率和能源利用率。(6)备用设备和应急计划。部署备用设备,如备用水泵或备用散热设备,并制定应急计划,以应对可能发生的突发情况,如设备故障或水质问题。(7)定期清理。定期清理冷却设备表面的污物、沉积物和生物,以确保良好的热交换效率。这可能涉及清理冷却塔、散热器表面等。(8)培训人员技能。确保运维人员具有必要的培训和技能,能够有效地操作、监测和维护直接水侧自然冷却系统。(9)记录和报告。记录系统的性能数据,包括温度、水质、维护记录等。这些记录有助于追踪系统的历史性能,并在需要时进行故障排除。(10)合规性管理。遵循当地环保法规和水资源管理政策,确保冷却系统的运行符合相关法规标准。综合考虑这些要求,可以帮助确保直接水侧自然冷却系统的稳定、高效运行,并最大程度地减少可能的故障风险。80(九)冷却塔技术1.基本原理冷却塔是通过水与空气的热交换实现冷却效果的一种设备。基本原理是当水滴和空气接触时,一方面空气与水有直接传导传热,另一方面由于水滴表面和空气之间存在压力差,在压力的作用下产生蒸发现象,将水中的大量热量带走,从而达到为冷却水降温之目的。P’v——水面薄饱和层的蒸汽压力PaPv——湿空气中的水蒸汽分压力Pa图28冷却塔水蒸发过程工作原理图2.关键技术和设备冷却塔按通风方式分为:自然通风、机械通风和混合通风冷却塔。按冷却水和空气的流动方向,可分为:逆流式、横流式和混流式冷却塔。按照冷却水是否与外部空气接触,可分为:闭式塔、开式塔。数据中心常用的是机械通风闭式塔、开式塔,其中机械通风开式塔有常规开式冷却塔及间接蒸发冷却塔。(1)闭式冷却塔闭式冷却塔是一种密闭式的冷却设备,它通过在塔内安装管式换热器,并通过流通的空气、喷淋水与循环水的热交换来保证降温效果。这种冷却塔的优点在于,由于是闭式循环,它能够保证水质不受污染,81从而很好地保护主设备的高效运行,提高了设备的使用寿命。冷却塔的散热原理主要是通过水、空气两者进行热交换,通过水蒸发吸热的原理带走热量。理论上闭式冷却塔可以冷却到湿球温度,但是这个有一个前提条件就是需要无限的换热时间和无限大的闭式冷却塔。在实际使用当中,闭式冷却塔冷却的最低出水温度比湿球温度高3℃~5℃。图29闭式冷却塔示意图(2)开式冷却塔开式冷却塔是一种将水冷却的装置,水在其中与流过的空气进行热交换、质交换,致使水温下降,水与空气直接接触换热,将冷却水热量传给大气。通过开式冷却塔处理后的冷却水最低温度比湿球温度约高出3℃~5℃。82图30开式冷却塔示意图(3)间接蒸发冷却塔间接蒸发冷却塔是在常规开式冷却塔进风前端加装间接蒸发冷却器,对进风进行预冷,可以得到逼近湿球温度或者低于湿球温度的冷却水温。间接蒸发冷却作为蒸发冷却的一种独特等湿降温方式,其基本原理是:利用直接蒸发冷却后的空气(称为二次空气)和水,通过换热器与室外空气进行热交换,实现新风(称为一次空气)冷却。由于空气不与水直接接触,其含湿量保持不变,一次空气变化过程是一个等湿降温过程。图31间接蒸发冷却塔示意图833.解决方案(1)为集中式冷水机组提供冷却水冷却塔主要作用是将空调系统带走的热量散发到大气中,从而保证空调系统的正常运行。在室外湿球温度较高,冷却塔处理后的冷水温度较高时,不能直接给需要较低水温的空调末端提供冷量,可以为水冷式冷水机组冷凝器提供冷却水。图32空调冷却水系统示意图(2)直接提供冷水给末端在全年湿球温度较低的地区,或者其他地区湿球温度较低的时间段里,冷却塔处理后的冷水温度能满足空调末端的进水温度要求,闭式塔可以直接向空调末端提供冷冻水,开式塔则通过板式换热器向空调末端提供冷冻水。84图33空调冷冻水系统示意图4.技术特点冷却塔作为一种重要的冷却设备,具有以下几个主要特点:(1)高效冷却冷却塔通过增大冷却介质与空气之间的接触面积,利用热量传递和蒸发冷却的原理,能够有效地降低热介质的温度。填料层和喷淋系统的设计使得冷却水能够充分与空气接触,实现高效的冷却效果。(2)节能环保冷却塔能够回收和利用热能,将热介质中的热量传递给其他系统或过程,提高能源利用效率。此外,冷却塔使用水作为冷却介质,相对于其他冷却方式(如冷却剂)来说,更加环保和可持续。(3)多样化的应用冷却塔适用于各种行业和应用领域,包括空调系统等。无论是工业过程冷却还是商业建筑空调,冷却塔都能提供可靠的冷却效果。(4)可定制化设计冷却塔的设计可以根据具体的应用需求进行定制。尺寸、形状、材料和附件等方面可以根据项目要求进行调整。这使得冷却塔能够满足不同场景和要求的冷却需求。(5)维护和操作便捷冷却塔通常具有简单的结构和易于维护的设计。清洁和维护工作相对较简单,操作人员可以轻松进行日常维护和监控。855.适用范围冷却塔适用于各种行业和应用领域,包括空调系统等。适用范围广泛,不受地域与气候条件的限制,有水源的地方均可以采用。6.存在的问题冷却塔的冷却作用主要依据蒸发冷却的原理,耗水量大。循环冷却水系统在运行过程中,由于水分蒸发、风吹损失等情况使循环水不断浓缩,工业循环水水质常会发生一系列变化,会引发腐蚀、结垢、菌藻等现象。冬季温度较低的地区会出现冻结危险,需采取防冻措施。7.运维要求定期检查设备各部件是否运行正常,如有异常,进行相应故障处理。定期清洗冷却水塔,每月进行一次冷却塔清洗或者吸污处理。定期水质检测,水质检测是水处理的重要环节之一,水质的好坏关系到水系统的设备情况,所以每月取1次水样进行检测,以便及时发现问题,及时调整。定期排污处理,应至少每季度清洗一次冷却盘,若环境较差,则应增加排污次数。(根据日常水质分析化验而进行)(十)干冷器技术1.基本原理干冷器(DRYCOOLER),因为其工作过程没有水的消耗,所以称之为干式冷却器。其工作原理主要为:换热器的管内走液体(水或乙86二醇溶液),换热器管外的空气在室外风机的作用下形成强制对流,气流经过换热器,与换热管内液体进行热交换,冷却换热器管内的液体,降低管内液体温度,达到冷却的目的。图34干冷器基本原理示意图2.关键技术和设备干冷器主要部件包括换热器、风机、控制器、传感器、雾化喷淋系统(选配)等。其中,换热器位于机组内部,控制器位于电控箱内部。(1)换热器高效散热的翅片管式换热器,应用场协同理论及CFD优化流路设计,换热效率大幅提升。换热盘管设计承压能力不小于1.6MPa,具备优秀耐压能力。换热器采用防腐涂层铝翅片,保证换热性能,最大程度地减缓换热器的腐蚀问题。(2)高效轴流风机高效轴流风机,采用EC风机,实现无级调速。其可靠性高,使87用寿命长,EC风机比普通风机节能超过30%。通过显示屏可实时查看风机转速运行状态,可实时读取故障信息,有利于状态查看和状态定位。(3)控制器控制器对机组的电器件进行逻辑控制,实现出水温度的精确控制和调节需求。(4)温度/压力传感器温度传感器,可分别检测主循环进/出水温度、机组进/出风温度。压力传感器,可分别检测主循环进/出水压力和喷淋供水压力。(5)喷淋系统(选配)采用DC电机离心式雾化器,微雾蒸发技术,水雾化效率更高,更加节水。雾化器进水通道尺寸大于机械喷嘴水流通道尺寸,不容易被堵塞。3.解决方案干冷器用于水冷系统,室外侧采用干冷器取代冷却塔,系统示意图如下所示。作为水冷直膨空调冷却水系统的室外散热冷源,空调的冷凝器采用水冷形式,高温高压的气态制冷剂被冷却水冷凝成液态制冷剂,制冷剂通过冷凝器与冷却水进行热交换,然后冷却水通过干冷器将制冷剂侧传递过来的热量散到室外环境中,从而保证空调系统正常运行。88图35干冷器取代冷却塔干冷器用于自然冷源系统,室内机采用带FreeCooling自由冷却的双盘管系统,室外侧采用干冷器,室内机具有机械制冷模式、混合制冷模式、自然冷源模式三种运行模式。系统示意图如图36所示。具体模式如下:在夏季提供压缩机运行所需要的冷却水;在过渡季节优先使用自然冷源模式,当自然冷源模式不能提供足够大的制冷量时,采用机械制冷模式补充制冷量,此时干冷器提供混合模式所需要的冷却水和冷冻水;在冬季提供自由冷却所需要的冷冻水。图36干冷器用于自然冷源系统示意图三种运行模式的原理图如下:89a)机械制冷模式b)混合制冷模式c)自然冷源制冷模式图37三种运行模式原理图4.技术特点(1)节能节水采用雾化离心技术,无需单独配置增压水泵,水雾为平行水雾,雾化颗粒更小,换热效果更好。大部分运行时间不需要使用喷淋系统,有效减少水资源的使用和浪费。(2)维护成本低结构简单,故障率低,减少了维护和维修的工作量和成本。冬季无需喷淋,避免了喷淋系统中的水结冰的问题,冷却系统的结构简单,减少了维护和运营的复杂性。(3)高效可靠可实现365天×24小时不间断运行;采用高效EC风机,实现无级调节,启动无电流冲击;强大的智能控制系统,采用PID调节技术,同时具备完备的告警保护和专家级的自诊断功能。905.适用范围(1)干冷器用于空调的水冷系统和自由冷却系统时,适用于各种行业和应用领域。适用范围广泛,不受地域与气候条件的限制,特别适合北方限水、缺水地区。(2)干冷器作为液冷系统一次侧散热器使用时,适用北方限水、缺水且温度较低的地区。6.存在的问题(1)相对于冷却塔而言,干冷器的占地面积较大。同等换热能力的条件下,由于冷却塔自带喷淋水系统,且在高度方向上具有较大尺寸,相对占地面积较小。(2)换热器采用铜管铝翅片形式,换热器表面容易覆盖污垢、柳絮等脏的物质,严重影响换热效率。(3)如果机组或水管在环境温度低于0℃时,需要添加防冻液来保护机组和水管。如果系统没有使用防冻液,同时也不在冬季工况运行,必须排尽换热器和外部管路的水。7.运维要求(1)设备不需要特殊检修。然而,常规检查和保养可以保证设备无故障运行。保养时间间隔依照安装地点和运行条件来确定。保养检查期间,要特别注意检查设备是否有污物、白霜或结冰、泄漏、腐蚀和振动的情况发生。(2)定期检查设备各部件是否运行正常,如有异常,进行相应故障处理。91(3)定期清洗冷换热器表面,每月清洗一次换热器的外表面。(4)定期检查电气系统,建议每半年对电气系统进行一个维护检查。(5)定期水质检测,水质检测是水处理的重要环节之一,水质的好坏关系到水系统的设备情况,所以每月取1次水样进行检测,以便及时发现问题,及时调整。四、绿色低碳技术(一)AI能源管控技术当前数据中心的制冷系统大多采用制冷设备自带的基本控制方式,受限于制冷机组控制板接口能力,无法接入大量传感器,传感器的分布无法满足气流温度精确采集的要求,所以一般利用经验值来设定相关参数。此外,制冷机组内控制器采用传统控制算法,缺乏机器学习的智能性,无法达到精准化控制目的,尤其在同一数据中心机房,多台制冷机组“各自为政”,缺乏群控的智能性,从而增加了制冷系统整体能耗。人工智能(AI)控制方式可以解决上述问题,不同于制冷设备的基本控制方式,AI采用的智能采集器除采集大量温度数据之外,还可以采集制冷设备、供配电设备、IT信息设备的能耗数据供后台管理。人工智能控制方式基于人工智能技术,结合物理先验、大数据和物联网技术,借助历史数据、实时数据以及算法模型等,预测潜在风险,优化资源配置,达到预测温度、智能管理以及降低能耗的目的。92数据中心的AI智慧节能控制系统,通常具备AI寻优、数字孪生、感知系统,能精准测量和预测、全自动控制、监测能耗分布地图,从而既增强数据中心的安全性,又提升了节能水平。典型的AI能源管控系统架构示意图如下:图38典型AI能源管控系统架构示意图从上图可见,业务区、电力区和室外区的设备、温湿度传感器通过采集器、交换机接入AI系统,AI系统通过控制调节空调的送回风温度设定点,实现对机房温度的控制。在保障机柜进风温度的基础上,通过AI智慧节能探索,采用强化学习和回归预测,使机房空调系统运行在较好的节能模式下,从而达到较好的节能的效果。(二)余热利用为了符合《巴黎气候协定》“将本世纪全球气温升幅限制在2℃以内,同时寻求将气温升幅进一步限制在1.5℃以内”的条约,缔约各国迫切需要采取措施减少工业的温室气体排放。习近平主席在2020年9月22日第75届联合国在大会上提出:我国二氧化碳排放力争在932030年前达到峰值,努力争取在2060年前实现碳中和。随着“东数西算战略”“八大算力枢纽建设”的推进,超大型数据中心增长迅速,年复合增长率超过45%。与此同时,数据中心的用电量和二氧化碳排放量,增长势头非常迅猛,越来越受到各级政府和全社会的关注。在这样的背景下,数据中心的能效提升、可再生能源使用、余热回收利用等,引起了业界的极大关注。其中,针对数据中心的余热回收利用,大量相关国家标准规范及政策对其提出要求。表11余热回收利用相关政策序号政策/标准文件内容12《公共建筑节能设计标有可利用的废热或工业余热的区域,热源宜3准》(GB50189—2015)采用废热或工业余热4《数据中心设计规范》数据中心空调系统设计时,应分别计算自然5(GB50174—2017)冷却和余热回收的经济效益,并应采用经济6效益最大的节能设计方案住房城乡建设部《绿色数数据中心辅助区和周边区域有供暖或生活热据中心建筑评价技术细水需求时,宜设计能量综合利用方案,回收则》主机房空调系统的排热作为热源,宜采用热泵机组回收排热。工业和信息化部、国家机鼓励在自有场所建设自然冷源、自有系统余关事务管理局、国家能源热回收利用或可再生能源发电等清洁能源利局《关于加强绿色数据中用系统心建设的指导意见》工业和信息化部《关于加强“十三五”信息通信业推广绿色智能服务器、自然冷源、余热利用、节能减排工作的指导意分布式供能等先进技术和产品的应用见》国家发展改革委《全国一推动数据中心采用高密度集成高效电子信息94体化大数据中心协同创设备、新型机房精密空调、液冷、机柜模块新体系算力枢纽实施方化、余热回收利用等节能技术模式案》1.余热回收利用技术方案大型、超大型数据中心,甚至核心区域大型数据中心集群化,都为余热利用项目的大规模、高效化、低成本、远传输创造了越来越有利的条件。(1)冷冻水型机房空调系统的余热利用冷冻水型机房空调系统制冷流程为:冷冻水泵将机房内的热量通过水循环带入冷机蒸发器,压缩机在电力驱动下将蒸发器吸取的热量传递给冷凝器,冷却水泵推动水循环将冷凝器的热量换取并带入冷却塔,冷却塔通过直接或间接的方式将循环水内的热量通过强制换热散发到室外环境中去。如此往复循环。冷冻水型机房空调系统通常全年能源效率较低,一般多采用冷冻水侧余热回收,系统原理如下图(图39)。余热回收利用主要发生在冬季,通过余热回收机组进行热回收,进而为周围建筑物供暖。图39机房冷冻水侧余热回收供暖原理95图片来源:网络(2)AHU空调系统机房回风余热回收AHU空调系统是一种被大型数据中心机房广泛采用的温控方式,尤其是在北方地区,能很好地利用自然冷源,大幅降低全年运行PUE。其余热回收原理见下图(图2),从机房出来的38℃热风流过为余热回收而增设的热泵机组的蒸发器,温度被降低到26~28℃,此处热量品位较高,回收效果最佳。然后,通过AHU机组中的空-空换热器与室外空气换热,此时AHU可根据室内回风温度自动调节进入空空换热器的室外冷风。a)AHU空调系统机房回风余热回收原理b)AHU空调系统机房回风余热回收能流图图40AHU空调系统机房回风余热回收图片来源:网络经结合AHU产品的运行参数进行测算,该热回收方式只要在机房回风腔加装翅片蒸发器,回风进回热蒸发器的温度38℃,出蒸发器96的温度26~28℃,可利用温度达到10℃以上,而翅片风阻最高仅增加40Pa左右,造成的AHU风机总功耗增加约0.85kW,但余热回收热泵在此工况下的运行COP却可以达到6.31以上,使得四季制取45℃热水的单位耗能都可以降低到传统电暖设备的1/6以下,如充分加以利用,将取得非常好的经济和社会效益。(3)PHU全天候节能机组热回收PHU机组具有节约、增效、环境友好的特点。其中,带热回收的PHU机型,是能源技术与信息技术融合型产品,是为了推动行业向着“构建绿色、低碳数据中心”为目标的正确方向上发展而做出的努力和贡献。冬季采暖季节,PHU热回收机组可维持更高的蒸发温度,利用小压比压缩机,以极致的效率产出热能,整机制热能效比空气源热泵机组有显著提升,如下表所示:表12PHU热回收机组与空气源热泵对比项目PHU制冷运行空气源热泵PHU热回收300制冷量(kW)300-344.136制热量(kW)-344.13340热源温度(℃)--1220回水温度(℃)-331442.9供水温度(℃)-40蒸发温度(℃)20-25蒸发压力(kPa)1455329.497冷凝温度(℃)194545冷凝压力(kPa)14042726.12726.1压比-8.282.54压缩机功率(kW)0121.344.113.6131.356整机功率将数据中心制冷与办公区域采暖集成于一体,最大限度地实现能源的综合利用。其原理如图41,压缩机排气管路上并联一个热回收模块,通过电磁阀来控制热量的流向控制,回收排气热量,提供采暖热水。通过电磁阀与电动球阀调节整机供热量。A/B系统分级切入/切出热回收工况,避免水温剧烈波动。图41热回收型PHU整体氟泵机组原理以上展示的几种数据中心余热回收利用技术和产品,其共同的特点是:余热回收利用占全年总排热的比例还很低,热量利用的形式都是低温的热水,用途也受限于洗涤、供暖、养殖、印染等较小的领域。由于,低温热水的传输半径极其有限,一般受管网及泵送成本的制约,仅能覆盖在2-3公里范围内,而数据中心的选址有特殊需求,周边大概率缺少合适的热量用户,造成供需双方的错位。982.余热回收的供热半径扩展节约的能源和被回收的能源都是最“绿色”的能源。既然数据中心余热总量极大,目标需方距离较远,打通供需之间的输送瓶颈,就成了当务之急要攻克的难题。如何扩大用热范围?目前,与电厂废热、化工废热、热力公司余热相比较,50℃左右的热量有参考意义的热价为50-60元/GJ,热量的主要消费对象为:小区供暖、大宗热水用户(如:印染厂)、经济作物种植大棚等。这三大客户距离IDC的距离不受控制,供需建立关联必须先解决热量输送的问题。通常,50℃左右的热采用管道输送只适合2~3km半径内的距离,而更远距离则需要考虑其他转移方式。考虑到数据中心余热回收的热量成本极低,与市场热价间差额较大,完全有空间融入中间转运、经营环节,因此用“轮子”连接热源和用户,就成为可行的拓展方式。图42、图43所示为相变蓄热车扩展供热范围的原理图。图42相变蓄热车联通热源与用户、增加就业图片来源:网络99图43热转运扩大热量的利用范围图片来源:网络3.热回收的温域扩展工业蒸汽热泵技术已日臻成熟,是一种由电力驱动的高能源性的横切技术,可提供工艺热量取代大部分的化石燃料的工业过程加热。从能流图可以看出,热泵产生的过程热量是电能输入和废热源输入热量的总和,热输出通常是电能输入的2至5倍。高温蒸汽热泵,可以与PHU热回收机组、AHU空调系统中的热回收热泵系统紧密结合,基于超大型数据中及其集群提供的海量而稳定的低温热源,生产出高品位的工业蒸汽,并通过管网输送到半径15公里的工商业用户,获得三方共赢(见图44、图45):100图44采用PHU热回收机组的供蒸汽系统图片来源:网络图45采用AHU散热的数据中心的供蒸汽系统图片来源:网络现实案例证明,这种方式可以实现“产业共生”的美好愿景。在瑞士阿彭策尔,一个数据中心的余热被用作高温热泵的热源,高温热泵用于邻近的奶酪厂生产工艺热、热水和建筑物供暖。这为山区奶酪工厂每年节省了约1.5GWh的天然气。(三)绿电应用当今世界,百年未有之大变局加速演进,气候变化、局势动荡、国际能源价格高位振荡给全人类生存和发展带来严峻挑战。新一轮科技革命和产业革命深入发展,数字化、智能化方面的技术创新已经成为人所共知的大势所趋,加剧了能源供需版图深度调整。与此同时,全球能源产业链、供应链遭受严重冲击,能源电力系统的安全高效、绿色低碳转型同样势不可挡。其中,数据中心行业的异军突起所带来101的巨大电力消耗,对电力系统的影响越来越大。2021年3月15日,习近平总书记在中央财经委员会第九次会议上提出构建新型电力系统,为新时代能源电力发展指明了科学方向,也为全球电力可持续发展提供了中国方案——那就是,大力发展非化石能源发电(俗称“绿电”)。目前我国电力系统发电装机总容量、非化石能源发电装机容量、远距离输电能力、电网规模等指标均稳居世界第一。截至2022年底,我国各类电源总装机规模25.6亿千瓦,西电东送规模达到约3亿千瓦。2022年全社会用电量达到8.6万亿千瓦时,总发电量8.7万亿千瓦时。电力可靠性指标持续保持较高水平,城市电网用户平均供电可靠率约99.9%,农村电网供电可靠率达99.8%。电力绿色低碳转型不断加速。截至2022年底,非化石能源装机规模达12.7亿千瓦,占总装机的49%,超过煤电装机规模(11.2亿千瓦)。2022年,非化石能源发电量达3.1万亿千瓦时,占总发电量的36%。其中,风电、光伏发电装机规模7.6亿千瓦,占总装机的30%;风电、光伏发电量1.2万亿千瓦时,占总发电量的14%,分别比2010年和2015年提升13个百分点、10个百分点。图462022年全国各类电源装机和发电量占比图片数据来源:工业和信息化部102此外,我国是一个太阳能、风力、水力等可再生能源相对较为丰富的国家,可再生能源装备制造产业基础完备,技术自主化率高。近期喜讯频传,全球最大单机容量100万千瓦水电机组投入运行,单机容量16兆瓦全系列风电机组成功下线,晶体硅光伏电池转换效率创造26.8%的世界纪录,新型储能技术多元化发展态势明显。图47全国平均年水平面总辐照量年际变化图片数据来源:工业和信息化部电力体制改革成效突出,上网电价改革进一步深化,输配电价改革持续优化,分时电价、阶梯电价机制逐步健全。配售电业务加快放开,多元化市场主体参与的新格局正在形成。用电营商环境持续优化,一般工商业电价连续三年降低。综上所述,电力系统正在深度改革、不断完善,数据中心行业必须顺应形势,发展绿色数据中心成为必然方向。当前新能源电力的价格不断走低,价格矛盾正在消除,但新能源消纳形势依然严峻,其间歇性、随机性、波动性特点,快速消耗了电力系统的灵活调节资源,系统安全问题仍旧突出,造成数据中心在选择扩大采用“绿电”时心存焦虑。如何加速数据中心的绿色化步伐呢?方法只有一个——“双向奔赴”:电力系统发展向跨行业、跨领域协同转变;数据中心产业103用能方式向全面低碳化转型,积极迎合、主动适应,结合分布式电源、新型储能技术是不可或缺的手段。政策上,中央及地方政府应在加大东数西算推行力度的同时,结合资源禀赋和区域特点,引导和鼓励数据中心行业参与近端分布式电源、新型储能设施配套。其中安全高效是基本前提,清洁低碳是核心目标,储能协同是重要支撑,智慧监控是基础保障,共同构建数据中心集群以及区域内新型电力供应保障系统的“四位一体”框架。中央协调地方,纠正各地哄抢投资资源的短视行为,宏观规划,不断推动数据中心集群化和规模化,才更有利于新能源体系的多元化、储能设施的长时化,从而不断提升区域内新型能源体系的持续成熟完善,电能与氢能等二次能源深度融合,推进坚强局部电网建设,应对严重自然灾害等可能引发电网大面积停电事故的风险,彻底打破“绿电焦虑”。数据中心行业也应积极拥抱新能源变革,不断深入探索“新能源+”模式,创新多元化多维度的“新能源+数据中心”基地建设,海上风电与海上数据中心集约平台探索,环境修复与数据中心建设融合推进,人工智能与人脑智慧协同的数据小镇……为数据中心事业拓展出更宽的社会融入度和接受度。总之,数据中心行业作为面向未来的产业,必须积极拥抱绿色能源,主动承担社会责任,对于政策的引导,进行深入的领会、创造性的实践,为最终实现绿色数据中心常态化不断努力。104五、绿色冷却技术未来展望(一)跨季节冰蓄冷数据中心冷却技术1.永久天然冷源把寒区地区冬季的天然冷资源,包括:天然冰、冻土,用一系列控制手段转化为永久天然冷源体,每立方米天然冰和冻土可储能100千瓦时,用于数据中心冷却不消耗二次能源、绿色循环、无碳排放,是国家储能战略的新领域,是实现“双碳目标”的有效手段。在选址上,依托各地废弃矿山生态修复的迫切需求,仅黑龙江省目前公布的废弃矿山生态修复项目就有530个。采用本技术替代常规修复实施路径,将修复过程与功能性再利用相结合,即可节省大量宝贵的建设用地;又可诞生一批环境优雅的绿色数据中心小镇等社会财富;还可在投入使用后每年节省下巨量的数据中心冷却过程耗电;为绿电数据中心的绿色升级提供前提条件和动力。“永久天然冷源+绿电+AI先进计算中心=新型绿色数据中心”的模式创新,将为国家算力枢纽、集群战略提供更广阔的发展空间。2.原理和工艺在季节冻土区地面开槽或利用当地废弃的矿坑和山谷,在冬季冻土达到最大深度时,将天然冰开采存放于槽内构筑出风道,上方做密封隔热的承载结构。冰体四周的季节性冻土在天然冰的负温条件下转化为岛状永久冻土,整个冷源体的每立方米(天然冰和冻土)可以储存100kWh冷量。寒季,利用数据中心的排热形成“烟囱效应”,吸入自然冷空气105为“地下冰山”蓄冷;暖季,外部空气缓慢流经地下冰槽,杂质被净化,气温被降低,被风机引进机房取代现有的空调系统。由于进风温度远低于现有空调系统送风温度,因此结合定点精确送风,可满足更高功率密度的智算机柜的冷却需求。这种“人工地下冰山”循环蓄冷、供冷,自然转化为永久冷源,而且冻土体积逐年增大,相当于形成一个“北极圈微环境”,实现对用冷设施的终生供冷,构建成本低,经济效益显著,一般1~2年即可达到经济平衡点。占国土面积近10%的多年冻土区建造永久天然冷源,投资更少、“北极圈”效果更突出。占国土面积38.2%的季节冻土区,全年拥有取之不尽的冷源。3.优势AI智算中心的大功率机柜采用靶向精准风冷,可以大幅度降低设计、安装、运行、维护的成本,但没有全年自然冷源的支撑,是不可能实现的。以一个年消耗8亿度电的智算中心为例,电价0.6元/kWh的话,1年电费就高达4.8亿。20%的耗电用于制冷,电费高达0.96亿元,采用全年自然冷源,把制冷电费转化为利润,并大规模减少碳排放获得碳税收益。(二)远岸海上风力发电数据中心平台海洋是地球温度调节体系里最为重要的环节,对应不同的水深呈现明显的温度梯度,因此很容易想到利用海底环境的被动式冷却数据中心。海底数据中心的优点很多,单舱PUE低于1.1,20MW的典型规模情况下,海底数据中心TCO(十年)成本比陆上有14%的优势;不106需要冷却塔散热,WUE为零;离岸建站,距离沿海发达城市距离近,数据传输延时小,且陆上占地极小。缺点之一是:没有就近与海上能源系统相结合,全部耗电从陆站馈入。现有海底数据中心(简称“UDC”)。由岸站、海底光电复合缆、海底分电站及海底数据舱组成。海底数据中心主体结构为罐体结构,电气设备、冷却系统均布置在罐体内部,罐体顶部为海水冷却系统。图48现有海底数据中心解决方案[6]展望的远岸海上风力发电数据中心平台。将海洋被动冷却数据中心与漂浮式海上风电相结合,进行集中建设、集中管理、集中维护,平台级就近消纳可再生能源。可步入进行数据中心部署与运维,无需单独建设馈电海缆,数据中心充当了部分配重降低了风电平台的用材量。107图49远岸海上风力发电数据中心平台示意图图片来源:网络图50适应不同水深的海上风电基础结构示意图[7]目前,国内正在实施的漂浮式海上风电项目至少包括三个,分别是三峡阳江示范项目(已投运)、龙源福建南日岛示范项目和海装风电湛江示范项目,均为采用半潜技术方案。除了传统的发电央企,中海油等油气巨头未来也有望涉足漂浮式海上风电开发。表13国际上已建成投运的漂浮式海上风电场[8]浮式投运项目技术技术方基总容单机项目名称海域案础类量容量时间开发商开发者型Hywind2017EquinEquinorHywind立柱30M6MW英国or式WScotlandWindFlo葡萄2019EDPR,PrinciplWindFl半潜25M8.4Mat牙ENGIEePoweroatWAtlantic式W108Kincardi2021RepsoPrinciplWindFl半潜50M9.5M英国l,PPIePoweroatW式Wne8MNHywind2022EquinEquinorWindFl立柱88Moroat挪威式WTampen按照单机容量6~7MW估算,参考已投运漂浮式项目中的半潜平台参数,估计以钢结构为主的半潜平台重量达3000~4000吨。漂浮式海上风电正在经历快速发展,数据中心同样增速迅猛,两者都是奔着未来同一方向,笔者可以预言,两条发展轨迹绝不会是平行线,很快便会出现交点。(三)两相冷板式液冷技术两相冷板式液冷是指冷却工质在冷板式蒸发器内吸收热量后沸腾,产生的蒸汽流向冷凝器后冷凝,实现热量高效转移。无水两相冷板式液体冷却技术公司ZutaCore给出该解决方案的三大优势:——强大的冷却解决方案,超越了空气冷却的极限;——使用不导电的液体冷却剂NovecTM7000,将IT故障风险降至最低;——该两相液体冷却系统旨在为200W及以上的下一代处理器提供冷却。威图(Rittal)是世界领先的工业和IT基础设施解决方案系统提供商之一,ZutaCore是处理器和液体冷却领域的专家,两家公司合作推出高性能冷却和其他计算密集型场景创新解决方案。两家公司正在销售两种解决方案[9]:首先,节省空间、紧凑的后门冷却解决方109案。这包括威图LCP系统产品组合中的空气/制冷剂热交换器,设计为服务器机箱的后门,以及ZutaCore用于直接芯片冷却的HyperCool技术。其基本原理是液态制冷剂流入服务器处理器(CPU、GPU)中专门开发的“增强型成核蒸发器”。当它吸收来自处理器的热量时,制冷剂蒸发并转化为气体。然后,Novec制冷剂在热交换器中从气体转化为液体。气流的温度足以达到此目的。泵将液态制冷剂输送回冷却系统。由于几乎所有的冷却解决方案组件都集成在后门中,因此节省了大量空间。即插即用解决方案可轻松安装在数据中心,无需修改现有基础设施。第二种解决方案是机架内解决方案,可作为风冷和水冷两种版本提供。风冷解决方案借助机架内风冷冷凝器,每个机架支持高达20kW的散热。它可以安装在几乎任何环境中的任何机架中,并且旨在响应对“边缘”上冷却强大处理器的需求急剧增长。水冷式机架式版本采用水冷式冷凝器,支持每个机架散热高达70kW的节能冷却。它主要用于快速扩展处理器和服务器输出。图51机架内液冷解决方案110HyperCool冷板是一种直接接触式、自调节、基于池沸腾的蒸发器,可按需联网并同时冷却所有芯片。结构紧凑,易于安装,能够冷却1500W及以上的处理器。图52HyperCool冷板(四)高热流密度芯片级冷却技术随着ChatGPT引爆全球,带来AI算力需求爆炸性增长,在硬件领域高性能芯片的功率不断增大:——单颗CPU功率可以达到400~500W;——GPU芯片单颗功率直逼1000W。例如:英伟达的H100芯片功率目前已经达到700W;——交换机芯片单颗功率也在急剧提升。例如:博通Tomahawk的芯片功耗超过800W;——电源领域广泛采用的MOS、IGBT等大功率器件芯片,单颗热功率也迅速攀升。这些芯片的热流密度也已经达到50~150W/cm²,芯片级超高热流密度散热技术台阶已经形成,关键技术亟待解决。随着芯片封装技术的进一步迭代,解决芯片级超高热流密度散热的技术突破点聚焦到111了降低界面热阻问题上。根据经验,从发热体表面到散热体接触的散热介质间的温差每降低10℃,就需要这一过程的传递热阻减小至少0.01℃/W。另外,大型冷源设备制冷,然后通过分配冷媒介质到各个芯片的形式也会受到严重挑战,因为高热流密度芯片会在极端时间的散热不良情况下发生烧坏。因此,以芯片为对象并相互联动的超高热流密度散热装置成为必然。作为可能的技术手段之一,闪蒸喷雾制冷技术利用其复合换热过程,提高换热效率,可实现在高热流密度下,将芯片温度快速控制在较低的温度范围之内。西安交通大学周致富教授团队开展的研究显示,结合散热体与雾状介质接触面微结构的优化,热流密度180W/cm²时,芯片表面温度不超过60℃,闪蒸喷雾可以达到的传热系数高达60.545KW/(㎡·K)。图53闪蒸喷雾制冷技术原理图高压制冷剂液体经由喷嘴喷出瞬间进入低压环境,液体变为过热非平衡态,发生爆炸性破碎雾化,并伴随强烈相变闪蒸,产生大量蒸汽与低温的细小液滴;进一步,雾化的低温小液滴冲击在发热表面,发生相变沸腾与强制对流等复合传热,其传热系数高达11260545W/(m2·K)。吸热后的液滴转变成蒸气再通过压缩机、冷凝器转变为高压液体,从而实现循环利用。(五)探索散热与再发电结合如果计算机技术领域不再疯狂造就高热流密度的技术难题,转而向着更高芯片工作温度,或者较低热流密度大面积封装的方向发展,则在这种理想、和谐的场景下,就有机会结合TEG技术实现芯片发热的二次再发电和受控有序的散热过程。这种似乎过于理想主义的展望,有一个诱人的目标:通过先进的热管理方法可以使PUE值非常接近于1甚至小于1。中国科学院大学李骥教授团队开展了这一技术领域的研究,构建了一套小型实验装置[10]。结果表明,在结温度低于85℃的条件下,使用9个40mm的TEG模块,在雷诺数为930、热负荷为155W的情况下最小PUE可达0.997。图54热管与TEG发电结合的系统示意图目前背景技术条件下,研究表明:在CPU热负荷为100W、结温度低于85℃的条件下,Zhou等人证明了商业TEG在实际应用场景中113可以产生6.7MW的功率。目前已知这一研究领域中,没有考虑泵等部件的功耗,因此也没有报告提出过较大规模系统中的净输出功率的概念。114参考文献[1]中国信通院《数据中心白皮书(2022年)》[2]ASHRAEITEquipmentPowerTrends(3rdEdition)[3]张兴,李震.数据中心冷却技术发展[J].工程热物理学报,2017,38(01):226-227.[4]殷平.数据中心研究(7):自然冷却[J].暖通空调,2017,47(11):49-61.[5]ODCC《数据中心智能热管全变频氟泵技术白皮书》[6]https://www.highlander.com.cn/solution.aspx[7]https://wind.in-en.com/html/wind-2423809.shtml[8]https://wind.in-en.com/html/wind-2423809.shtml[9]https://www.rittal.com/cn-zh/Company/Presse/Pressemeldungen/Pressemeldung_200428[10]HaojieZhou,TongTian,XinyueWang,JiLi.Combiningloopedheatpipeandthermoelectricgeneratormoduletopursuedatacenterserverswithpossiblepowerusageeffectivenesslessthan1[J].AppliedEnergy,2023,332:1-18115

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

碳中和
已认证
内容提供者

碳中和

确认删除?
回到顶部
微信客服
  • 管理员微信
QQ客服
  • QQ客服点击这里给我发消息
客服邮箱