热će;ÿ浪滚滚,噪声隆隆,仿佛ƒ过火焰山般地煎熬,恐怕是很多进过机房的朋友共同的感受。如今,这样的局面正逐步得到改善。
在南京滨江中兴通讯的∫智能制造基地里,机房的几排服务器和通信设Œ备正在高效有"序的运转。然而,身处房间的人们却丝毫感受不到炎热与嘈杂。
设备机柜中°投射的点点蓝光,宛如沁人心脾的海水,诠释着其中的奥秘。这ó个名为全液冷数据中心的场所,就是∝中兴打造的通过液体环流实现降温的新一代数据中心。
P↵UE指标日趋严格,机房建设面临新挑战ß
若干年前,当数据作为一种新型生产要素被写⊆入中 ⁄央文件,数字化与实体产业融合的浪潮便开始席卷神州,为我国经济的蓬勃发展注入了强大的生命力。近日,国务院新∠闻办公室发布的白皮书显示,2021年我国数字经济规模达45.5万亿元,总量已居世界第二位。
随着海量数据以生产要素的ⓘ形态,向⇐社会经济领域渗透,各行各ਰ业对算力的需求正快速增长。数据中心作为可提供数据存储、处理、流通的算力基础设施,也迎来了大规模建设的发展机遇。
据中国通信院数据,按照标准机♫架2.5kW统计,预计2022年我国数据中心机架规模将达到670万架,近五年复合年均增长率超过30%。
今年初开始,国家层面又陆续Θ提出了“东数西算”全国一体化数据中心建设、全国ੋ一体化政务大数据体系建设、全民健康信息平台支撑保障体系建设等一系列数字化发展要求,Ù有望进一步加速全国数据中心的建设。
不‘过,数据中心在加速建设的同ì时,也面临着ષ高能耗的问题。
工信部数据显示,2021年我Υ国数据中心耗电量为2,166亿kWh,占社会总耗电量的2.6❄%,∈这其中除了设备自身的运行外,最大的用电来自于机房的散热系统。根据一些机构统计,传统数据中心用于散热的能耗占比,甚至能超过整个数据中心的40%。
从国家层面þ来看,散热能耗占比过高的传统数据中心,显然不符合“双碳”ⓐ目标的实现以及社会节能减排的大趋势。
2021年ß7月,工信部印发《新型数据中心发展三年行动计划(2021—2023年)》,针对⌈数据√中心耗能大的特点,要求新建数据中心能效水平稳步提升、PUE逐步降低,可再生能源利用率逐步提高。东数西算政策要求东部城市数据中心枢纽节点PUE在1.25以下,西部城市数据中心枢纽节点PUE在1.2以下。
为达到国家对新建数据中心的能ćd;耗é要求,如何减少机房的散热能耗,便成了各方急需解决的问题。૪
节ψ能效果提升明显,液્冷系统逐渐流ß行
目前,传统数据中心的散热方式,主要通过风冷手段进行,即以空气作为冷媒带走热量。这就需要配备大量的d3;机房空调和风机,不仅能耗高,还会带来⌋较大的噪声污染。根据CDCC的报告,Ü传统风冷数据中心的PUE仅能做到1.5-1.8,与国家要求的指标还有较大差距。
而且随着算力设备功率的提升,以及社会对高密度、超«高密度数据中心需ⓖ求的增长,风ૌ冷降温的手段正日渐式微。
作为近年来新出现的散热手段,液冷技术使用各类液体充当冷媒,与设备的发热部件进行热交→换,能为数据中心带来更高效的降温体⊂验,采用自然冷却无需机械辅‹助制冷,可有效降低散热系统的能耗,大幅提升设备运行的温控效率。
据中银证券测算,以单机房为例,假ੌ设200台服务器总功率为192kW,液冷方案比传统风冷方案可省电30%,虽然新投»入的液冷建设成本有所提升,但整体节约的运行成本随着使用年限的增长逐步增加,三年和五年的项目成本,液冷较风冷可减ω少7%和12%。
传统થ的风冷方式可以满足10kW/机柜以内的数据中心散热需求,但当功率密度继续升高,30kW♧/机柜是风冷散热能力的极限,而液冷方式可满足最高200kW/机柜的数据中’心散热需求。
从行业的技术路线来看,૯主流的液冷方案有冷板式、浸没式液冷两种,前者主要是通过在热源上覆盖水冷板,依靠流经冷板的液体将热量带走;后者则是将热源直接浸Ò没在ࣻ冷却液中,通过冷却液循环带走热量。
Ąf;尽管Ê从效果来看,直接接触液体可以更有效的利用液体的比热容,但考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多方面因素,当前液冷数据中心以冷板式液冷占据¼主流地位。
中兴一体化È液冷方案ત,实现机ટ房场景全覆盖
作为ICT赛道的重度玩家,中兴通讯在液冷技术领域有着丰富▧的技术积累和应用。目前,公司主攻冷€板式液冷,已完成单板级、插箱级、机柜级、机房级四个不Þe;同维度的液冷技术突破。
在近期召开的2022数据中心工程标准化建设年度论坛上,中ਫ਼兴通讯将自身在液冷技术方面的实践进行了商业化的方案包装推向市场,一经推出便收获了“数据中心科技成果奖”。这意味着公司滨江基ৄ地清凉机房的场景,有望在千行百业得到ö复制。
据公司的液冷技术白皮书介绍,中兴通讯本ù次推出的ICT液冷一体化解决方案,可实现DC液冷数据中心机房、IT液冷服务器设备ν、CT液冷路由交换设备的一体化集成开发、交付,有效½实现节能降本。
以公司建设的单机柜设计总功率密度20kW的数据中心为例,其中液冷૮散热比例70%,热管背板散热比例30%,水冷背板与冷板式液冷系统共▒用外部冷却水塔冷源,实测数据中心PUE值可小于1.15。指标数据完全满足国家级数据中心建设标准。
实际上੍,为确保能给客户提供更节能、更可靠、更省钱和更快速的液冷数据中心建设⁄方案。中兴通讯在方案的细节设计上,下了不少࠷功夫。
例如,系统层面,公司将液冷系统与ICT设备控制联动,通过AI实时调控运行参数保持最低运行能耗,并对系统进行全面监控,做出异常情况的提前预判、Å及时警告和处理。交付层面,公司则提供了产品及机房级的标准化和模块化设计,最大♧程度d0;促进组件共用和控制优化,实现低成本、高效率的建设。
此外,由于数据½中心实际建设中,液冷系统主要解决IT设备CPU、GPU、内存等主要发热元件产生≤的热量(60%-80%),IT设备内剩余的发热量(20%-40%)仍需要通过空调系统解决。
为适配不同d0;的应用场景和客户需求,中兴通讯的方案中,还提供了间接蒸发冷却空调、氟泵双循环空调、高效冷冻水系统等多种数据中心新型高能效空调系统解决方案,满足西部枢纽હ节点PΙUE<1.2,东部枢纽节点PUE<1.25的需求。
如今,“东数西算”战•略工程、一体化政务大数据体系建设等需求不断,作为算力基础设μ施的数据中心规模将不断扩大。在国家“双碳”目标以及自上而下节能减排的要求下,散热方面优势明显的“液冷时代”即将到来,或有望给像中兴一样的行业玩家带ćf;来新的机会。
“掌”握科技鲜闻 (微信搜索techsina或扫描左⌊侧二维码关☞注)
新浪♥科®技
新૩浪科技≅为你带来最Þ新鲜的科技资讯
苹ઘ果ý汇γ
苹果汇为࠷你带 来最新鲜的Θ苹果产品新闻
↵ 新浪众测â
Φ
新酷产品ćf;第一时ο间免费试玩
Υ新浪探索ÚΜ
®
提供最新的科学家新ℑ闻,精彩的震撼图片▣
ì„
新浪科技意见反馈留â言板
૪
All Rights Resεerved 新•浪公司 版权所有