“干盘管”在高密数据中心的应用前景-孙长青

“干盘管”在高密数据中心的应用前景

随着数据中心行业的发展,IT机柜的功率密度越来越高,传统的制冷形式越来越难以满足数据中心的需求。比如传统的精密空调形式,由于受到其尺寸和制冷量的限制,以及架空地板高度的受限,空间利用率不高,无法满足更高功率密度的需求。需要其他的系统形式来满足高密机房的制冷需求。

一、常用的高密数据中心制冷形式
为了满足更高功率密度的制冷要求,继精密空调后,又出现了一些新的制冷形式,比如:
1、背板式制冷

背板式制冷盘管直接贴附在机柜出风侧,贴近末端制冷,能够布置的盘管数量可以与机柜数等同,可以满足较高机柜密度的要求。但是,盘管贴近机柜的方式,需要消耗机柜风扇的能耗,另外,一旦泄露,后果将极其严重。
2、OCU制冷

OCU制冷盘管直接放置在IT机柜正上方,贴近末端制冷,可以满足较高机柜密度的要求。但是,盘管贴近机柜的方式,需要消耗机柜风扇的能耗,另外,一旦泄露,后果将极其严重。
3、列间空调制冷

列间空调放置于IT机柜列间,贴近末端制冷,可以满足较高机柜密度的要求。但是,空调贴近机柜的方式,会占用IT空间,浪费面积,在一般换算的情况下,行间空调或者微模块的形式对比传统的精密空调形式,同样的IT功率会占用更大的建筑总面积,气流组织也不均匀,且分散布置不利于维护管理,另外,一旦泄露,后果将极其严重。
4、微模块

微模块,是列间空调的一种集成化产品,其中包含了IT机柜、精密空调、PDU、CDU甚至包含电池柜和整流柜等,由微模块厂家一体化提供,列间空调的缺陷微模块均无法避免,之所以微模块能被BAT大规模采用,个人认为,通过垄断来控制产品产业链及占据市场应该是重要因素,真正在技术上的优势并不是那么突出。

以上这些解决高密机柜制冷的系统形式,甚至包括液冷等制冷形式,都将空调水管直接引入到IT机柜附近,以便实现更加贴近的制冷,来满足更高功率密度的散热。这些水管直接进入IT机柜附近,就给管道泄漏造成电气事故带来了安全风险。
那么,有没有更好的制冷形式来避开这种风险,同时满足制冷需求呢?
先来看看其他行业制冷形式,有没有成熟可用的方案可供参考。比如,电子洁净厂房行业,电子洁净厂房对制冷环境的要求,并不亚于IT机房对制冷环境的要求,其对温度波动范围、空气质量、洁净度控制都比IT机房要求要高,对安全可靠性的要求也不低。

二、“干盘管”在洁净厂房中的普遍应用
洁净厂房的单位冷负荷也较高,500w/m2以上的单位冷负荷也很常见,且一般情况下冬季也需要供冷;其对围护结构严密性要求非常高,并且要求结构尽量不产生尘、不积尘;循环风量大,气流分布要求均匀,对气流组织的要求比较高,特别是高洁净度要求的洁净室,需要单向流的风量进行控制;由于电子产品的制造工艺对温、湿度的变化极为敏感,所以空气参数的波动要控制在极小的范围内,因此,自控系统如DDC、PLC 等在洁净系统控制中有着不可忽视的作用。
举个对比的例子,《数据中心设计规范》中规定,主机房的空气含尘浓度,在静态或动态条件下测试,每立方米空气中粒径大于或等于0.5μm的悬浮粒子数应少于17,600,000粒。此含尘浓度的控制,换算到洁净厂房的洁净等级,刚好为8.7级,洁净厂房的最低等级为9级,此洁净度在洁净厂房等级中仅仅属于入门级要求。

另外,由于有相对接近的基础条件,《数据中心设计规范》便是由以洁净厂房设计为主的中国电子工程设计院主编,且中国数据中心的发展,中国电子工程设计院等培养的人员也做出了不小的贡献,其人员遍布数据中心全生命周期的各个阶段,推动了行业的发展。
可见,电子洁净厂房的制冷形式在一定程度上在数据中心行业是有借鉴意义的。
在电子洁净厂房的制冷形式中,有一种“干盘管”的制冷形式,所谓“干盘管”,是因为在这种系统中,冷冻盘管仅承担显热负荷,其冷冻水进水温度一般在13℃以上,也就是说在室内空气的结露温度以上,盘管一般不可能产生冷凝水,属于干工况运行,所以叫其干盘管。这种系统与传统型洁净室空气处理模式相比,系统可大大简化;机房面积、高度可大大减小;空气输送能耗显著降低。
洁净厂房干盘管制冷方式示意图:

由上图可知,FFU=EC风机+过滤器,而数据中心可以直接把过滤器去掉,把FFU换成EC风机即可。
洁净厂房干盘管制冷方式接管示意图:

这种干盘管的制冷形式,盘管尺寸、盘管制冷量和盘管数量可以根据需要调整,可以远离末端设备布置,能满足较大冷负荷的制冷需求。

三、“干盘管”在数据中心中的应用形式
在数据中心制冷方面,是可以值得借鉴的制冷方式,参照洁净厂房的干盘管布置方式,IT模块机房也可以做类似的布置。

1、干盘管设置在吊顶四周,EC风机设置在吊顶

2、干盘管设置在回风夹道,EC风机设置在吊顶

3、干盘管设置在架空地板下,EC风机设置在地板

4、干盘管设置在回风夹道,EC风机设置在地板

这种布置方式,就可以根据需要来布置干盘管的型号,可以满足较大功率密度的需求,避免了精密空调因为面积空间不够而导致的条件限制。
干盘管已经在洁净厂房行业大规模使用,市场成熟度很高,干盘管价格便宜,可以大规模布置。

四、“干盘管”在数据中心中应用的优势
干盘管制冷方式气流组织均匀,末端风量调节方便,可避免产生局部热点。
干盘管的控制,通过水量控制来实现室内温度控制,按照区域将吊顶内的干盘管分成固定的几组,根据室内温度传感器控制的结果来控制相对区域单组盘管的阀门开度,从而达到控制温度的效果。通过盘管进回风温差来控制EC风机转速,控制送风温差为12℃(可调),保持进出机柜的风量稳定,有局部热点风险的位置可灵活调整加大送风量。

干盘管在同样冷负荷的情况下,比精密空调占地位置要小的多,水温12/18℃,送回风温度22/34℃。2500*1500,如果4排管设置的话,175kw左右的干盘管的尺寸可以在2500宽的范围内实现,而精密空调在这个负荷下的宽度要3100以上,且盘管可以倾斜放置在回风夹道,可以做更大的尺寸和冷量。
价格方面,在上述条件下,干盘管的价格初步询价在9000元左右,

干盘管的冷负荷从数kw至数百kw都可以有灵活的选型容量,可以广泛应用。

五、“干盘管”与风墙送风的对比
另外,大家可能会拿此与曾经流行一时的风墙对比,虽然风墙也能提供较大的冷负荷,但是,其实风墙有其极大的劣势,就是送风口直接侧吹入冷通道,由于中间没有沿途的送风阀门调节,其沿程衰减特别严重,送风均匀性远不如架空地板。

干盘管制冷方式,EC风机直接在末端送入冷通道,气流组织均匀,末端风量调节方便,可避免产生局部热点。
六、“干盘管”配置的可靠性
在数据中心可靠性体系中,有《数据中心设计规范》的A、B、C三级,有Uptime的TierI、TierII、TierIII、TierIV四级,干盘管的数量和位置,均可以根据最高等级要求的A级或者TierIV级,进行物理隔离或者冗余布置的方式,达到各个等级的需求。而有些数据中心制冷形式,是无法实现最高等级要求的。在可靠性和制冷效果之间,干盘管都能做到很好的平衡。

原文地址:https://blog.51cto.com/14514357/2448100

时间: 2024-10-30 23:34:45

“干盘管”在高密数据中心的应用前景-孙长青的相关文章

PUE指标能准确衡量数据中心能效吗?-关于POE的设想-孙长青

中科仙络暨DCFF(中国数据中心设施论坛大会)于2019年7月24日在上海静安洲际酒店三层宴会厅成功举行了 "2019中国数据中心设施论坛- 数据中心建设管理者闭门研讨会". 中科仙络作为行业领先的数据中心机电顾问公司,与中国数据中心运营工作组合作,中国计量科学研究院,美国绿色建筑委员会(USGBC) <UPS应用>杂志社支持,特邀请数据中心用户参与盛会. 下面,来给大家介绍下中科仙络 规划设计部总工程师.注册暖通工程师.高级工程师 孙长青专家解读:PUE指标能准确衡量数据

绿色数据中心节能,值得探究的八大秘密

随着企业信息化建设的迅速发展,数据中心建设越来越重要,将直接影响企业信息系统的建设和应用效果.根据IDC的估算,从运行成本控制的角度看,在IT行业中,能源消耗成本已经达到企业硬件采购成本的25%.而数据却正以52%的复合年均增长率不断攀升.当企业面对不断变化的业务压力,以及呈指数级快速增长的数据时,需要对数据中心环保.节能方面的特性予以足够的考虑和重视. 如何在确保数据高度安全和高度可靠的前提下,最大限度地保证企业在数据中心建设中能够减少浪费和降低无效投入,打造一个真正"绿色节能"的数

[运维] 第三篇:漫谈数据中心运维自动化

运维自动化是从2010年以后起来的一个运维需求,10年之前,运维项目主要集中在监控和ITIL流程上,当时也有BMC Control-M等产品在推,但是客户接受程度和影响力不如监控和流程.10年之后,运维自动化提上日程,建行开始招运维自动化的标,IBM.BMC.HP都纷纷参与,测了三轮,最后HP opsware中标,只能说一句厉害!工商银行也在自己组织服务商做自己特色的运维自动化平台,做了3.4年,基本成型,服务商也做出了自己的运维自动化产品,正式推向市场.当时运维自动化的主要功能是五项:自动化巡

数据中心升级vsphere总结

实操高校数据中心vsphere6.0升级6.5,重新规划网络. 6月19日按照上面规划重新部署vsphere,由于需要重新规划网络,vcenter由windows版改为vcsa,所以我的方案基本上属于推到重来,整个部署还算顺利,只不过遇到一些小麻烦,浪费了不少时间. 整个升级过程持续了2天时间,除了两台虚拟机由于连接了usb加密狗需要长时间中断服务(也可以避免),整个升级过程业务是持续不中断的,另外升级结束后网络地址切换的时候会有几分钟业务中断. 遇到的问题: 一.HP BL460C GEN9刀

实操高校数据中心vsphere6.0升级6.5,重新规划网络。

现状如下: 硬件:2台HP C7000刀箱n个刀片,n台HP机架式服务器,n台物理机及其他设备. 存储:FC SAN存储 软件:vcenter是windows版6.0,vsphere也是6.0版本. 网络:三层结构,两个C类SUB地址,管理.业务.生产混在一起. 要做的事如下: 1.刀箱及服务器升级最新固件和驱动程序. 2.部署VCSA6.5,vsphere升级到6.5版本,部署vRealize Operations Manager Appliance 6.5,vRealize Log Insi

2017下一代数据中心网络研究报告zz

http://dy.163.com/v2/article/detail/CDG9CD7G05179LAH.html 2月2日,SDxCentral发布了2017下一代数据中心研究报告(2017 Next Gen Data Center Networking Report).这份报告系统介绍了下一代数据中心网络的发展趋势.关键功能.典型案例.行业标准以及热门产品. 下一代数据中心演进的四大驱动力 1.业务竞争驱动:企业提升自身竞争力,对敏捷性.差异化和成本节约提出了新要求 Increased Co

微模块化数据中心机房技术方案分享

模块化机房早些年就一直在提出,但在实际应用中一直没有得到广泛的推广,如今机房数据中心越来越集中,数据越来越集中,分布式,云存储,虚拟化,云计算,区块链,大数据,智能AI,无人驾驶等等都是目前比较新颖的词汇及未来发展的趋势,前端的应用及数据交付最终都离不开数据中心机房的硬件保障,一个整洁的,智能可管控的数据中心机房显得尤为的重要,所有的数据集中交付,难免不了运行维护,故障诊断,安全分析,数据可控,安全可观,随着数据量的不断增加,运维的成本也会随之而来,微模块化这个时候能有效的解决目前这个阶段需要迫

数据中心机柜的清理与保养工作不可忽视

运维是数据中心最重要的工作组成部分,但对于机柜的保养和清理往往被忽视.大部分运维工程师的精力都会被服务器.网络设备等占据,机柜安装好后,万事大吉不闻不问是常态.实际上,定期清理和保养机柜除了可以保障机房清洁外,还可以延长使用寿命.及时发现隐患.杜绝灰尘.杂物引起的故障等. 一.机柜除尘准备工作 1.设定合理的除尘周期 根据机房的具体情况设定合理的除尘周期,并按照机房内部.机房外部.机房设备内部三部分进行分别清洁.香港葵芳IDC小编以一个中等机房为举个例子,机房内部卫生应每三天清理一次,每半个月进

双活数据中心 是什么

出于灾备(Disaster Recovery)的目的,一般都会建设2个(或多个)数据中心.一个是主数据中心用于承担用户的业务,一个是备份数据中心用于备份主数据中心的数据.配置.业务等. 主备数据中心之间一般有三种备份方式. 的情况下,只有主数据中心承担用户的业务,此时备数据中心对主数据中心进行实时的备份,当主数据中心挂掉以后,备数据中心可以自动接管主数据中心的业务,用户的业务不会中断,所以也感觉不到数据中心的切换. 的情况下,也是只有主数据中心承担业务,但是备用数据中心不会对主数据中心进行实时备