加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 服务器 > 系统 > 正文

高密度主机托管和企业数据中心的冷却系统考虑因素

发布时间:2018-07-13 13:49:12 所属栏目:系统 来源:站长网
导读:当前,在计算机技术领域的最新进展以及高性能CPU和GPU的日益普及使得企业用户们能够在计算机分析方面达到新的高度,包括使用大数据分析、人工智能、高频交易、石油和天然气研究以及网络规模化商业模式。对于这些技术普及采用的快速增长已经超过了大多数主

在采用片上冷却系统时,还需要考虑数据中心内部实际基础设施的需求,以及更重要的服务器机架内部的需求所提出其他方面的挑战。为了使温水冷却到芯片水平,必须通过许多小软管将水输送到机架内部,然后这些软管又将直接输送到芯片热交换器/泵。虽然这些安装的规模很小,但是需要IT人员来管理装满大量软管的机架背面,以及用于连接冷却系统入口和出水的分配头。

直接芯片冷却系统直接连接到HPC集群的主板,设计或多或少是永久性的。通常根据需求或预算,HPC群集平均每3到5年需要进行更新(或替换)。考虑到这一点,如果在托管环境中使用,则每次实施更新或客户端重定位都需要为冷却系统基础结构的更改准备好设施规划。

直接芯片冷却在高效冷却当今高密度计算机集群方面取得了显着进步,但是一旦进入更大的计算机房或建筑物环境,就必须考虑整体的建筑性能,基础设施成本影响和在其整个使用寿命周期内总的投资回报率了。

4

图二:直接片上冷却方案

3、具备密封容器系统的机架行级冷却方案

在2000年代初,冷却开始向数据中心内的服务器机架靠近,主要是由于服务器热负荷的快速增加,以及传统CRAC和CRAH空调系统无法推动足够的冷空气来满足服务器的冷却散热需求。早期推出的方案之一便是机架行级冷却(In-Row Cooler)技术,其是传统CRAC和CRAH的变体,但重新设计了不同的外形,夹在相邻的服务器机架之间。

机架行级冷却方案为较高密度服务器机架提供了却管理冷能力,只需将冷却部件放置在靠近热源的位置即可。来自热通道(服务器机架后部)的暖空气通过机架行级冷却器吸入,由冷水或制冷剂冷却,然后排放到冷通道(服务器机架前部)。通常,服务器的热负荷决定了两种最常用的机架行内冷却器的尺寸分别为12英寸宽或24英寸宽。机架密度越高,服务器机架和行内冷却器之间的比例就越接近。每台5x服务器机架的低密度数据中心可以使用1x 12英寸规格的机架行内冷却器,而对于其他服务器机架的更高密度系统,可能需要1x 24英寸规格的机架行内冷却器。

尽管将机架行内冷却器定位在服务器机架附近可以实现冷却效率的提高,但是曾经占据数据中心周边空间的大型CRAC或CRAH单元则需要被转移到服务器机架之间的可能更有价值的空间。

对于主机托管设施而言,其机架空间与企业的净利润直接相关,因此这种进行成本的权衡变得至关重要。许多大型企业和托管设施还在可重复的网格模式上加载空白区域,从而允许在IT和基础设施设计布局上逐步扩展和统一。如果按规模化部署,可以以这种方式管理机架行内的系统,但是如果用作高密度区域的补充冷却技术,或者在集合的情况下用于支持本地化高密度客户端的冷却,则机架行内系统可能会破坏整个空白区域的一致性,并为负责部署的MEP站点团队带来额外的挑战。

4

图三:具有热通道密封遏制方案的行内冷却器

密封遏制系统,无论其是热通道还是冷通道,都为行内冷却策略增添了另一种巧妙的方案。热通道密封系统最常用于热通道,旨在将热空气夹在服务器机架后部的过道中。关于设施基础设施所面临的挑战的讨论将被排除在该讨论之外,许多企业已成功克服这些挑战。与本文所探讨的更相关的是热通道密封系统对更高密度IT设备的性能影响,这是经常被企业数据中心管理人员们所疏忽的重大问题。

从热力学的角度来看,密封遏制的热通道有助于实现热通道中的热空气温度的最大化,从而使得在机架行内系统进入行内热交换器的热空气与冷水或制冷剂之间具有更大的ITD(初始温差),以便用来去除热量。这增加了机架行内冷却器系统的性能和效率。然而,这种策略未能解决当今最新的密集型IT设备的极其重要的气流要求。每千瓦计算功率的空气流量可以从80cfm到130cfm不等,这不仅仅是由于计算机制造商的不同,而且还会因CPU和GPU制造商的不同而变化。目前可用的大多数(如果不是全部的话)行内冷却器在这些情况下均会存在气流不足的情况。

通常,在部署完成之后所发现的问题往往是热通道中的热空气的热堆叠效应。看到热通道的目的是捕获热空气似乎是很明显的。然而,更重要的关键点则是行内系统必须能够移动服务器排放到热痛到的相同流量的空气。任何不足都会导致服务器风扇的背压,以前称为堆叠。热堆叠往往会在服务器风扇上产生过多的工作负载,尽管更有问题的情况是芯片级产生的过热。热堆叠迫使CPU和GPU退回,限制了计算级别的性能,实际上会破坏计算机的设计性能。即使安装后的纠正不是不可能的,这种情况也会相当困难。在高密度IT设备上部署带有密封系统的行内冷却器之前,企业数据中心的MEP团队,IT运营团队和客户(如果适用的话)应共享设计成功的行内冷却策略所需的相关数据。

背板换热器

在制造和使用HPC集群和高密度服务器机架的过程中,背板换热器(Active Rear Door Heat Exchangers,ARDH)越来越受欢迎。ARDH能够在几乎没有基础设施变化的情况下从服务器机架中移除100%的热量,从而提高系统效率和便利性。这些系统通常与机架无关,并能够取代任何行业标准服务器机架的后门背板。他们利用一系列高效风扇和冷却水来消除计算机系统的热量。电子换向(EC)风扇用于匹配CFM中的服务器空气流量,以确保从服务器中移除所有热量。

一款ARDH在57F-75F之间使用清洁水或乙二醇混合物,这在大多数数据中心通常都很容易获得,如果没有的话,可以利用冷冻水厂,闭式冷却系统如冷却塔,干式冷却器或这些系统的组合来生产。利用ARDH允许将高密度服务器机架安装在现有计算机房中,例如主机托管设施或传统数据中心,并且几乎不需要改变基础设施,对周围的计算机机架也没有任何影响。

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读