联系我们

Contact
唯友峰机电设备有限公司
电话:0592-2205670
传真:0592-2202290
营销部:18965130041  (王先生)
地址:厦门市软件园三期诚毅北大街51号302单元
邮箱:xmwyfjd@163.com

当前位置:首页> 新闻资讯

从制冷系统的演变谈数据中心基础设施整体解决方案的发展

* 来源: * 作者: * 发表时间: 2020-08-06 5:26:04 * 浏览: 13
随着云计算和大数据的快速发展,数据连接已成为未来的趋势。作为信息传输的物理载体,数据中心在各行各业中扮演着越来越重要的核心角色。数据中心配备了大量IT设备,例如服务器和交换机。为了确保IT设备的稳定运行,需要使用环境控制系统来提供稳定的运行环境,以确保数据中心的温度,湿度和清洁度保持在较高水平。波动幅度很小。 var_bdhmProtocol =((“ https:” == document.location.protocol)?” https://”:“ http://”),document.write(unescape(“%3Cscriptsrc ='” + _bdhmProtocol +” hm.baidu .com / h.js%3F83e8d4ba8c3dd1c5d05a795e63a2d7b4'type ='text / javascript'%3E%3C / script%3E”))),随着云计算和大数据的快速发展,数据连接已成为未来的趋势,数据中心作为信息,传播的物理载体在各行各业中起着越来越重要的核心作用。数据中心配备了大量IT设备,例如服务器和交换机。为了确保IT设备的稳定运行,需要使用环境控制系统来提供稳定的运行环境,以确保数据中心的温度,湿度和清洁度保持在较高水平。波动幅度很小。 1.为什么数据中心需要冷却?数据中心使用许多IT设备,例如服务器。它的核心组件是半导体器件,会产生大量热量。以主计算芯片CPU为例,其开发速度遵循著名的摩尔定律,即在半导体芯片上。晶体管的数量(密度)大约每两年翻一番。除了CPU外,其他计算机处理芯片(例如总线,内存,I / O等)都是高温设备。目前,一个1U高(约44.4mm)的双核服务器可以产生大约1000W的热量,并且一个装有刀片服务器的机柜在满负荷运行时,可以达到20KW以上。以服务器为例。在过去的十年中,它的功率密度增加了10倍。该数据基本上意味着单位面积的热量也增加了10倍。 IT设备继续运行并产生热量,因此需要冷却设备以确保环境稳定性。随着数据中心的发展和单位面积功率的增加,数据中心的冷却方法也得到了发展。 2.环境对数据中心IT设备的影响(1)温度过高:一些数据表明,环境温度每升高10℃,组件的寿命将减少约30%到50%对于某些电路,可靠性几乎是完整的。这取决于热环境。 (2)温度过低:低温还会引起IT设备操作,绝缘材料和电池等问题。如果机房温度过低,某些IT设备将无法正常运行。 (3)高湿度:数据中心的高湿度很容易引起“导电路径”或电弧,这将严重降低电路的可靠性。 (4)湿度过低:空气湿度过低时,很容易产生静电。 IT设备由许多芯片和组件组成。这些组件对静电非常敏感。根据英特尔发布的信息,这是造成计算机故障的众多因素之一,静电放电是一种隐患。将近一半的计算机故障是由静电放电引起的。静电对计算机的破坏作用具有隐蔽性,潜在性,随机性和复杂性。 (5)灰尘清洁度:除温度和湿度外,数据中心中的小颗粒污染物还会腐蚀电路板,降低绝缘性能并影响散热。灰尘是IT设备的更强大杀手。 3.选择传统的数据中心冷却方法。传统的数据中心使用房间级制冷。所谓的机房级冷却是指空调单元与整个计算机机房相关联,并且并行工作以处理计算机机房的总热负荷。通常看到的布局是sho如图1和图2所示:图1自然供气模式图2地板下供气模式传统的数据中心计算机室设备少,功耗低且布局分散。没有空气管理和设计,空调直接布置在计算机室内。内部,计算机室内的气流通常是湍流的(如图3所示),并且容易出现局部热点和冷点。但是,鉴于传统数据中心的功率密度低,在正常情况下,通过增加空调配置,计算机房也可以长时间稳定运行。但这造成了巨大的能源浪费。图3传统计算机机房气流云图在此阶段,数据中心的回风通常是空调下部和地板下的空气以及上部回风。在许多情况下,这种送回空气的方法无法充分利用空调的全部制冷能力。当空调单元发送空气时,很大一部分冷空气绕过IT负载并直接返回空调。没有采用风法进行空气分配的规划和设计。冷热气流容易混合。这些绕过空调的气流和混合气流对负载的冷却没有帮助,实际上降低了总的冷却能力,从而导致了空调的使用。而且冷却效率较低。随着数据中心功率密度的增加,传统的数据中心回风法(见图1)已无法满足供暖设备的散热要求。在传统的“机房级”制冷方案中,为了减少冷热混合并提高空调和制冷的利用率,通常使用的解决方案是在数据中心机房中铺设静电地板。静电地板的高度为20-100cm,有的甚至高达2m,计算机房专用空调的冷空气被送到静电地板的下侧,形成一个大的静压箱(图2)。静压箱可以降低送风系统的动压,增加静压,稳定气流,减少气流的振动,然后通过通风地板将冷空气送至服务器机架(如图4所示)。 ),回风可以通过计算机机房地板上的空间或专用回风管返回。图4地板供气图为了避免地板供气阻塞的问题,有两种方法:一种是确保合理的地板高度。许多计算机房已将地板高度从原来的300mm调整为400mm甚至600-1000mm。附有合理的风量,风压配置,合理的地板下布线方法,可以保证良好的空调系统效率,其二是使用地板下供气和布线架。与自然送风方式相比,这种气流组织管理使送风效果和机房整体结构得到了进一步改善。但是,仍然存在混合空气问题,这也将限制单个机柜的功率密度布局。 4.选择数据中心的封闭式冷通道冷却方法。随着数据中心功率密度的增加,机房级制冷使用冷(热)通道气流遏制来管理气流,以防止冷空气不通过服务器直接返回空调。问题发生了。热通道和冷通道都可以减少数据中心中的气流混合,但是建议采用冷通道密封,因为它易于实施。冷通道密封技术:冷通道密封技术是在机柜之间建立专门用于机柜设备冷却的通道,并将冷通道与计算机机房环境中的热空气完全隔离,从而将冷空气限制在机柜中。机柜,避免了冷热空气的混合,提高了冷空气的利用率,提高了机房空调的制冷效率和制冷效果,降低了PUE,节约了能源。如f所示下图:图5封闭的热通道图6封闭的冷通道图7封闭的冷通道气流云图封闭的冷通道特征:(1)封闭的冷通道技术将冷空气限制在机柜环境中,冷空气必须通过内阁。释放到机房内实现空气流通,有利于机柜内所有设备的散热,可以完全解决机柜内局部过热的问题。 (2)封闭式冷通道技术完全隔离了冷热气体,提高了回风温度,解决了机房环境温度过低和机柜设备温度过高的难题,避免了无效的空调,提高了制冷效率和冷却效果。 (3)封闭式冷通道技术可有效降低机房能耗率的PUE值,提高数据中心效率,增加机柜设备的存储密度,并提高IT设备在机柜中的功率密度。数据中心。图8 Esset封闭式冷通道解决方案图9河源电子政务冷通道数据中心(Esset冷通道解决方案)5.数据中心行之间的冷却方法选择行级冷却:使用行级冷却配置时,空调单元与一排机架相关联,在设计上,它们被认为专用于一排机架。与传统的非封闭式房间级制冷相比,气流路径更短,专用度更清晰。另外,气流更可预测,可以充分利用空调的额定制冷量,并且可以实现更高的功率密度。图10行间冷却气流云图行级冷却特性:(1)行级冷却对静电地板没有要求,甚至没有静电地板。 (2)空调靠近热源,供气路径最短,冷风压力大,冷风利用率高,制冷效率高。 (3)支持高密度散热,服务器电源可以放在一个机架中。随着云计算和大数据应用的促进,数据中心建设迎来了新的建设高潮。功率密度较高的建筑,传统的数据中心部署速度慢,密度低,难以扩展,并影响到整个身体。在后期,随着业务的发展和应用的增加,数据中心系统需要更多的管理软件,并且系统变得越来越冗余。配电和冷却不再能满足需求。此时,必须重新设计整个系统。扩展。在这种情况下,就形成了使用行级冷却的数据中心整体解决方案(微模块),即整个数据中心被划分为几个独立的区域,并且每个区域的规模,功率负载,配置等按照统一标准设计。在真正的微模块数据中心中,冷却,电源和管理系统应该是区域性的,微模块彼此独立,可以独立运行,并且没有共享部件。图11 ESP微模块数据中心基础设施解决方案图12广州百度数据中心(ESP微模块解决方案)6.结论在以前的空调系统设计中,“房间级”制冷系统主要是采用的制冷方式属于集中式制冷方式,将空调房间视为统一空间,并根据现场需求进行考虑。然而,这种模式忽略了空间的每个部分的需求,并且缺乏考虑冷却效率和冷却成本的意识。随着数据中心中数据量的增加,加热功率急剧上升,需要更大的冷却能力和冷却效率才能满足需求。这时,各种数据中心制造商都推出了诸如封闭之类的解决方案。当前,随着科学技术的发展和高密度大型数据中心的建设需求,人们逐渐认识到集中制冷的弊端和按需制冷的必要性。按需冷却是基于C中热源各部分的即时需求电脑室。送到最靠近热源的地方。此阶段的典型制冷解决方案是行级制冷,水冷空调和冷冻水空调的应用。它的特征是制冷方法的量化和精确度,随着数据中心的发展,从“房间级”制冷变为“行级”制冷,最终转变为“机架级”和“芯片级”制冷。