域名频道资讯站
我们一直在努力制造惊吓

SC19:我们再次见到了两相浸入式液冷方案

SC19:我们再次见到了两相浸入式液冷方案

(题图 via AnandTech)

芯片在使用时发热,然后导致周围的散热液沸腾。常见的有 3M Novec of Fluorinert 的变体(沸点在 59 ℃ 左右)。

液体气化过程会上升并带走热量,使得散热液在两种相态之间进行对流、冷凝(通过冷却板或水管)、循环。

SC19:我们再次见到了两相浸入式液冷方案

这些非离子液体不会导电、粘度和相对适中,能够有效促进自然的对流。如果芯片的热设计功耗太高,亦可加入促进对流的主动式散热方案。

厂家显然希望让这套方案在服务器或高性能 PC 领域实现广泛的运用,在将所有配件保持在合理温度下的同时,还支持超密集的设计。

SC19:我们再次见到了两相浸入式液冷方案

比如外媒 AnandTech 报道过的 TMGcore 的 OTTO 系统,就采用了 2PILC 技术。其能够在 16 平方英尺(约 1.5 ㎡)的空间内,放置高达 60kW 的数据中心单元。

客户只需为设备供电、供水和网络连接,在需要维护的时候,这套方案还支持自动取放功能。该公司称,在受控环境下,2PILC 技术能够有效延长硬件的使用寿命。

SC19:我们再次见到了两相浸入式液冷方案

去年,这项技术的主要方向之一,是用于加密系统或超密集协处理器。不过在 SC19 上,我们并没有见到那么多,更别提任何面向 5G 边缘计算的 2PILC 服务器了。

有趣的是,一些组件公司(比如 VRM 制造商),正在验证其用于 2PILC 环境的硬件。通常数据中心会根据电源使用效率(PUE)来讨论能效,比如 1.50 就意味着耗电 1.5 兆瓦,实际功效 1 兆瓦。

SC19:我们再次见到了两相浸入式液冷方案

标准的风冷数据中心,其 PUE 在 1.3 ~ 1.5 之间。一些专有的风冷数据中心,可能会低至 1.07 。液冷的数据中心,也在 1.05 ~ 1.10 PUE 左右(具体取决于不同的构造)。

我们今年在超算环境中见到的独立 2PILC 单元的最低 PUE 值为 1.028,但若成本仅为标准风冷机架的 1 / 10,相信还是有不少企业愿意去采用的。

本文素材来自互联网

赞(0)
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

中国专业的网站域名及网站空间提供商

买域名买空间