数据中心机房冷却方式有几种? (数据中心机房冷却系统)
整理分享数据中心机房冷却方式有几种? (数据中心机房冷却系统),希望有所帮助,仅作参考,欢迎阅读内容。
内容相关其他词:数据中心机房冷却概念股,数据中心机房冷却系统能耗占比,数据中心机房冷却概念股,数据中心机房冷却系统能耗占比,数据中心机房冷热通道,数据中心机房冷热通道,数据中心机房冷却系统,数据中心机房冷却方式,内容如对您有帮助,希望把内容链接给更多的朋友!
为维持恒定的室内温度需要全年为之降温,由此带来了巨额的耗电量和电费,在节能减排和降低运营成本的双重压力,迫使人们不断地研究新的节能技术和产品,通过提升运行温度,利用环境空气和针对性的空气进行*,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。 数据中心机房几种*方式 1、免费* 更高的运行温度通常也会让免费**一起受益。在ASHRAE.1-指导文件中,免费*几乎是一项节约能源的强制要求,必将被普遍运用。节能改造的资本投入会部分地抵消运营成本节约的好处。但在改造或升级的同时实现免费*也是技术和投资上的挑战。估计未来两年内将出现新的标准,使免费*更具可行性。靠近水源的免费*将可能会更具优势,但我们将会看到更多相似日本KyotoWheel的空气*案例。最终,数据中心*将能够在超出以前估计的更多气候条件下采用免费*措施,这部分是因为更高运行温度的贡献。 2、密封* 密封措施也无法搞定由于错误的*规划、空气流动不充分或*能力引起的过热问题。最新的国家防火协会商业标准(NFPA-)可能会使密封*的方案更难实现。对喷淋和(或)气体灭火*的改造将大大增加成本。除了要尽力避免错误的实施外,日常优化也很重要:在未运用的机架空间一定要安装盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好清理。 3、后门*器 被人们接受的程度也非常高,部分也是因为水冷方式重新受到关心。如果将巨大的机房空调*取消,改用贴近设备的新型*方式的话,相信数据中心行业会运行得比现在更好。教育背景和希望与众不一样的个人意愿或许会促生新案例,但成本和电源可用性的矛盾将决定最终结果。 4、蒸发或绝热* 虽然运用蒸发方式制冷的科学原理简单,并正在慢慢流行,但它对于大多数数据中心*作人员而言依旧显得新奇。绝热*通过降低封闭环境中的某种物质运行的压力来实现*,让这些物质沸腾如同岩浆涌上火山表面,同时用风带走山峰上的高温。绝热*在温暖、干燥的气候中依旧有效,这大大拓宽了一年中能够“免费*”的有效期。其主要的缺点是用水量有些多,但在同等*量的情况下,它所需的*水依旧比标准*塔要少很多。 5、紧耦合或热源* 紧耦合*方式通过贴近热源来实现更有效的运作。这不算什么新东西——问问老的大型机*作员或任何笔记本电脑规划人员就知道了。虽然紧耦合*在数据中心里面还是“主流”,但是更新的方式在满足能源效率的需要方面往往做得更好,并获得更多关心。它的工作方式很简单:消耗能源来将大量的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。 更有前途的技术包括浸入式*:将服务器整个浸泡在矿物油里,以便运用最少的能耗获得极高的*效率。但是技术人员需要对内外布满了石油的服务器进行处理时,心里会怎么想?显然这种*方式并不是适合所有场景。 6、更高的运行温度 美国供暖、制冷和空调工程师协会(ASHRAE)在年就第一次发表了关于较高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度达到华氏到°F(摄氏至°C),这些设备依旧能维持良好运作。服务器制造商实际上已经扩展了产品的运行温度范围,而且旧设备其实也和新设备一样能够在扩展的温度区间内运行。提升运行温度可以大幅度节省能源消耗,但人们首先需要认可这种处理方式,然后同意让热通道变得更热——想像一下°F(°C)的温度怎样?这会*后门*器的使用和普及。 7、烟囱式机柜和天花板风道 运用天花板上方的空间形成的风道将空气传输给机房空调*,确保回风以最高的温度返回空调*盘管,可以显著增加精密空调*的*能力。结合了吊顶风道和热通道措施的最终设备形式就是烟囱式机柜,可以获得最大的*效率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接通过吊顶天花板上方的风道回到空调设备中。整个过程中热空气和冷空气保持分离,所以可以保持很高的能效比。 虽然效果显著,但是烟囱式机柜并没有获得大力推广或被广泛接受。这可能是因为全密封式的规划灵活性更好,可以运用更多的机柜实现相同的效果。然而,烟囱式机柜可以让整个房间维持冷通道温度,让工作环境变得更加舒适。 直接、间接自然* 数据中心利用自然冷源进行制冷的搞定方案主要有间接自然*和直接自然*两种方式。机房空调一年四季都需要制冷,过渡季节室外温度低于室内温度时,自然界存在着丰富的冷源,如何利用大自然的冷源进行*是机房空调节能减排的重点问题。 1、直接自然* (1)全新风自然* 直接引入室外新风、配合冷热通道隔离实现机房制冷,针对不一样地区的气候条件,新风进入机房前需要经过过滤、加湿、除湿、送回风混合等预处理。 (2)鸡舍式热压自然循环风* 不需要机械帮助,直接靠服务器散发的热能产生动力自然散热。把服务器散发的热量收集起来,利用空气膨胀后产生向上的动力,通过足够高的烟囱让热空气往上升带动空气流动,完成散热循环。 (3)转轮式热交换自然* 利用转轮内填料的储能功能,让转轮在两个封闭的风道内缓慢旋转,被室外空气*的填料*室内空气。 2、间接自然* (1)带自然*节能模块的风冷式冷水机组 春秋过渡季节和晚上,当环境温度达到比冷冻水回水温度低两度或以上时,开启自然*模块制冷,无压缩机功耗,自然*不够的部分,再由压缩制冷接力达到需要冷量。随着室外环境温度降低,自然*部分占的比例越来越大,直至达到%,完全自然*制冷,无压缩机功耗。 (2)水侧板换节能装置 由大型*塔、水冷型冷水机组、板式换热器组成,夏季采用冷水机组和*塔制冷,冬季采用板换将有杂质的*水转变为干净的冷冻水送入空调室内机,冷水机组停机。 (3)双盘管乙二醇自然* 在直膨蒸发器盘管上,再并一组冷冻水经济盘管,通过两套两通阀来调节水是经过板式热交换器的冷凝器还是经过冷冻水盘管。室外干冷器夏季提供*水给板换用于直膨制冷,冬季提供冷冻水给经济盘管用于冷冻水制冷。 (4)氟泵自然* 在夏季,制冷压缩机运行;当室外温度低于设定点时,自动切换为氟泵节能*运行,停止压缩机运行,保证全年机房空调安全可靠运行。氟泵不高于压缩机运行功耗的%,相对于水*空调,无需添加防冻剂,无水患忧虑。 (5)辅助蒸发自然* 空调室外机雾化水喷淋*将软化水进行增压后通过高速直流马达进行雾化处理,将每一滴水雾化成原水滴的体积1/左右直接喷洒在冷凝器翅片上实现辅助蒸发,使得冷凝器的整体散热量增大、功耗降低。这种通过室外机雾化喷淋延长自然*运行时间的方式,在干燥气候下最为有效,如中国西部和东北部。综上,对常见的几种自然*制冷方式进行综合比较: 数据中心*失效对机房温升有多大影响? 通过各自的实验研究得出了一些关于*失效引起的数据中心的温升曲线和基本结论,对数据中心**的不一样架构进行了研究,对于*式的**架构给出了不一样功率密度下*失效后服务器机柜平均进风温度的变化曲线,如下图所示,可以看出:在不一样的功率密度下,服务器机柜平均进风温度的温升速度不一样;功率密度越大,服务器机柜平均进风温度升高得越快。因此,对于高热密度的数据中心,有必要规划蓄冷罐来保障*连续性。 对不一样功率密度下数据中心*失效后的温升情况进行了研究,结果见下图*失效时间在s内,因此曲线比较平缓,并且不一样曲线的基准温度不一样。 通过研究数据中心*失效引起的机房温升问题,UI提出了*连续性的概念,并将数据中心**的可用性提到与供电可用性同样的高度,将数据中心的不间断供冷分为A,B,C3个级别,并分别与高热密度、中热密度和低热密度3种功率密度的数据中心使用场景相对应。 不一样功率密度下数据中心*失效引起的温升与时间的关系,结果见表1(基准温度为℃)。随着单机柜功率密度的增大,*失效引起的温升速率慢慢增大。对于功率密度为5kW/机柜的数据中心,*失效引起℃温升需要s。 温升速率(y)和功率密度(x)大致合理的最佳拟合关系式为y=0.x2+0.x+0.,如下图所示: 将拟合关系式改写成y=0.1x×0.x+0.x+0.,并对拟合关系式的多项式系数进行主因子分析,可以发现:当功率密度(x)等于kW/机柜时,二次项因子为0.1××0.×=0.,小于一次项因子0.×=0.。当功率密度(x)小于kW/机柜时,一次项系数为主因子,并决定整个多项式的值,因此可简化为一次多项式,即在功率密度小于kW/机柜时,温升速率(y)与功率密度(x)更接近线性关系:y=0.x-0.(如图5所示)。比较图4和图5拟合曲线的残差R2也容易看出,当功率密度(x)小于kW/机柜时,在现有试验数据条件下用线性关系式表达拟合关系更准确。 当功率密度(x)大于kW/机柜时,由于二次项系数为主因子,并决定整个多项式的值,因此温升速率(y)与功率密度(x)更接近二次多项式关系:y=0.x2+0.x+0.。根据多项式拟合关系式进行拟合数据外推,可以导出~kW/机柜功率密度范围内的温升速率。 研究结论各不相同,这是合理的也是正常的。首先,各自的测验环境和工况不一样;其次,影响温升的原因很多,比如功率密度、**架构、机柜数量、机柜布局、机房层高、架高地板高度、甚至机柜材质都会影响数据中心*失效后的温升。因此,不一样数据中心*失效后的温升情况不一样,不能一概而论。 当前,国内研究数据中心*失效引起的温升的有效手段之一是建模*分析。笔者建立了数据中心的传热模型,使用数据中心专用*软件对数据中心*失效的温升进行计算分析。 传热模型描述 简化的数据中心传热模型下图所示,以数据机房作为一个封闭的传热*,作如下假设: (1)数据中心**失效,但服务器因有UPS供电而继续运行并连续发热。 (2)数据机房是一个封闭*,只存在传热,不存在传质。 (3)服务器运行产生的热量通过以下几个途径散失:①热量被机房内的空气吸收;②通过机柜向空气传热;③通过建筑围护结构向室外环境散热;④通过架高地板向地板下环境散热;⑤通过楼板向邻近楼层传热。 (4)数据中心的冷热空气充分混合。 (5)机柜前门和后门通孔率为%,即认为机柜没有前后门。 (6)传热过程为一维稳态传热过程。 *建模分析 采用软件建立一个数据中心的简单物理模型,进行CFD建模分析,3D物理模型如图所示,模型的相关参数见下图: 通过对一个功率密度为4kW/机柜的数据中心进行*失效建模计算,使用软件可以快捷地给出不一样时刻数据中心的温度分布云图,如图所示: 对所建模型中的一个服务器机柜的平均进风温度进行分析,当*失效后该服务器机柜的平均进风温度曲线如图所示,可以看出,在服务器机柜的平均进风温度达到℃以前,其温度近似随时间线性升高,这说明:在一定的功率密度下(本模型为4kW/机柜),服务器机柜的温升速率为恒定值。这个结论与前文推导出的温升同,物理参数的不一样会影响*失效后的温升速度,但总体趋势是呈线性变化。