数据中心水冷为何没有普及?

数据中心水冷为何没有普及?

从我读到和听到的有关数据中心的信息来看,使用水冷的服务器机房并不多,而且最大的数据中心都没有使用水冷(如果我错了请纠正我)。此外,购买使用水冷的普通 PC 组件相对容易,而水冷机架服务器几乎不存在。

另一方面,使用水可能(在我看来):

  1. 降低大型数据中心的功耗,特别是如果可以创建直接冷却设施(即设施位于河流或大海附近)。

  2. 减少噪音,使人们在数据中心工作时不那么痛苦。

  3. 减少服务器所需的空间:

    • 在服务器层面,我认为无论是机架式服务器还是刀片式服务器,通过水冷管都比浪费空间让空气通过内部更容易,
    • 在数据中心层面,如果仍然需要保留服务器之间的通道以便维护服务器,则可以移除用于空气的地板下和天花板水平的空白空间。

那么为什么水冷系统没有普及,无论是在数据中心层面,还是在机架/刀片服务器层面?

是不是因为:

  • 水冷在服务器层面上几乎不存在冗余吗?

  • 与普通数据中心相比,水冷设施的直接成本是否太高?

  • 这样的系统维护起来很困难(定期清洁使用河水的水冷系统当然比仅仅用真空吸尘器清洁风扇要复杂得多,而且成本也高得多)?

答案1

水 + 电 = 灾难

水冷比空气冷却具有更高的功率密度;因此,计算出额外密度的成本节省(除非空间非常有限,否则可能没有)。然后计算水灾风险的成本(例如 1% * 您的设施成本)。然后进行简单的风险回报比较,看看它是否适合您的环境。

答案2

因此,我将把我的答案分为几个部分:

  • 水与空气和矿物油的物理特性
  • 用水风险和历史不良经验
  • 冷却数据中心的总成本
  • 传统液体冷却系统的弱点

水与其他物质的物理特性对比

首先是一些简单的规则:

  • 液体比气体能传输更多的热量
  • 蒸发液体提取更多热量(用于冰箱)
  • 在所有液体中,水的冷却性能最好。
  • 流动的流体比非流动的流体更能有效地吸收热量
  • 湍流需要移动更多的能量,但提取热量的方式比层流更好。

如果将水和矿物油与空气进行比较(相同体积)

  • 矿物油比空气好 1500 倍
  • 水比空气好 3500 倍

  • 油在任何条件下都是不良电导体,用于冷却大功率变压器。

  • 油,取决于其确切类型,是一种溶剂,能够溶解塑料
  • 如果水不纯净(含有矿物质……),那么它是良好的电导体,否则不是
  • 水是良好的电解质。因此,与水接触的金属在一定条件下可以溶解。

现在对我上面所说的内容发表一些评论:比较是在大气压下进行的。在这种情况下,水的沸点为 100°C,高于处理器的最高温度。因此,当用水冷却时,水保持液态。用矿物油或氟利昂(冰箱中使用的)等有机化合物冷却是某些应用(发电厂、军用车辆……)的经典冷却方法,但 IT 部门从未将油长期直接接触塑料。因此,它对服务器部件可靠性的影响尚不清楚(Green Evolution 对此只字未提)。让液体移动很重要。依靠非移动液体内部的自然运动来散热效率低下,而且正确引导没有管道的液体也很困难。出于这些原因,浸入式冷却远非解决冷却问题的完美解决方案。

技术问题

让空气流动很容易,泄漏不会对安全(对效率)构成威胁。它需要很大的空间并消耗能源(桌面消耗的 15% 都用于风扇)

让液体流动很麻烦。你需要管道、连接到每个要冷却的部件的冷却块(冷板)、水箱、泵,甚至可能还有过滤器。此外,维护这样的系统也很困难,因为你需要移除液体。但它需要更少的空间和更少的能量。

另一个重要点是,关于如何基于带冷却风扇的空气系统设计主板、台式机和服务器,已经进行了大量研究和标准化。而最终的设计并不适合基于液体的系统。更多信息请访问formfactors.org

风险

  • 如果设计不当,水冷系统可能会泄漏。热管是液体冷却系统的一个很好的例子,它没有泄漏(点击此处了解更多信息
  • 普通水冷系统仅冷却热部件,因此仍需要气流来冷却其他部件。因此,您拥有 2 个冷却系统而不是一个,并且会降低空气冷却系统的性能。
  • 采用标准设计时,如果水泄漏并接触到金属部件,则很有可能造成严重损坏。

评论

  • 纯净水是电的不良导体
  • 电子元件的几乎每个部分都涂有非导电涂层。只有焊盘没有。因此几滴水是无害的
  • 现有的技术解决方案可以降低水风险

冷却空气会降低其容纳水(湿度)的能力,因此存在凝结的风险(对电子设备不利)。因此,当你冷却空气时,你需要去除水。这需要能量。人类的正常湿度水平约为湿度的 70%。因此,冷却后可能需要将水重新放入空气中供人们使用。

数据中心的总成本

当您考虑数据中心的冷却时,您必须考虑它的每个部分:

  • 调节空气(过滤、去除多余湿气、移动空气......)
  • 冷空气和热空气绝不能混合,否则会降低效率,并且存在热点风险(冷却不足的点)
  • 您需要一个系统来提取多余的热量,或者您必须限制产热密度(每个机架的服务器更少)
  • 你可能已经有管道来将房间内的热量散发出去(并将其输送到屋顶)

数据中心的成本取决于其密度(每平方米的服务器数量)和功耗。(其他一些因素也会被考虑,但不属于本讨论范围)数据中心总面积分为服务器本身使用的表面积、冷却系统使用的表面积、公用设施(电力……)和服务室使用的表面积。如果每个机架的服务器数量更多,则需要更多的冷却设备,因此需要更多的冷却空间。这限制了数据中心的实际密度。

习惯

数据中心非常复杂,需要很高的可靠性。数据中心停机原因统计表明,80% 的停机都是由人为错误引起的。

为了达到最佳可靠性水平,您需要采取许多程序和安全措施。因此,从历史上看,在数据中心,所有程序都是针对空气冷却系统制定的,水被限制在最安全的用途,甚至在数据中心不被禁止的情况下也是如此。基本上,水不可能与服务器接触。

到目前为止,还没有一家公司能够提出足够好的水冷解决方案来改变这一事实。

概括

  • 从技术上讲,水更好
  • 服务器设计和数据中心设计不适合水冷
  • 当前的维护和安全程序禁止在服务器内部使用水冷
  • 没有哪种商业产品适合在数据中心使用

答案3

虽然我们确实有一些水冷机架(实际上是 HP 的,不知道他们是否还在生产),但直接水冷如今有点过时了。大多数新的大型数据中心都建有吸气隧道,您可以将机架推入其中,然后吸入环境空气,并在设备中移动时排出或捕获收集的热量以供再利用。这意味着根本不需要冷却,并且可以节省大量能源、复杂性和维护,但它确实限制系统只能使用非常特定的机架/尺寸,并且需要在前面“空白”备用机架空间。

答案4

数据中心冷却不应使用水,而应使用与电能很好地混合的矿物油。参见http://www.datacenterknowledge.com/archives/2011/04/12/green-revolutions-immersion-cooling-in-action/

尽管解决方案是新的,但技术却相当古老,然而,将这种类型的改变引入现有数据中心变得非常困难,因为您需要用新型机架替换现有机架......

相关内容