国内精品人妻无码久久久影院蜜桃,久久发布国产伦子伦精品,强壮公让我高潮八次苏晴,无码日韩精品一区二区免费暖暖,夜夜爽www

瑞技科技

重磅消息

 
AI 数据中心液冷未来:直接芯片液冷技术解析
首页 > 网站博客 > AI 数(shu)据中(zhong)心液(ye)冷未来:直接芯片(pian)液(ye)冷技(ji)术解(jie)析

AI 数据中心液冷未来:直接芯片液冷技术解析

AI 热浪来袭,液冷势在必行

在(zai) AI 算力(li)狂飙的(de)(de)今天,数据(ju)中(zhong)心(xin)(xin)正面临前(qian)(qian)所未有(you)的(de)(de)“热力(li)挑(tiao)战(zhan)(zhan)”。传统风冷(leng)已力(li)不从心(xin)(xin),而直接(jie)(jie)芯片(pian)液冷(leng)(Direct-to-Chip Cooling,D2C)正成(cheng)为下一(yi)代 AI 数据(ju)中(zhong)心(xin)(xin)的(de)(de)“冷(leng)静”之(zhi)选。瑞(rui)技(ji)全球系统与(yu)制冷(leng)方(fang)案售(shou)前(qian)(qian)工程经理 Curtis Breville 将在(zai)本文深入剖析 D2C 直接(jie)(jie)芯片(pian)液冷(leng)的(de)(de)技(ji)术原理、优(you)势、部署方(fang)式、现实(shi)挑(tiao)战(zhan)(zhan),与(yu)其在(zai) AI 数据(ju)中(zhong)心(xin)(xin)的(de)(de)未来前(qian)(qian)景。

原文作者:

Curtis Breville 是瑞技全球系统与制冷(leng)方(fang)(fang)案售前工(gong)程经(jing)理,在 IT 行业(ye)拥有(you)超过 34 年的(de)(de)从(cong)业(ye)经(jing)验,并(bing)在数(shu)(shu)据中心基础设(she)施领域深(shen)耕超过25年。他在液冷(leng)、数(shu)(shu)据存(cun)储、系统集成,以及 AI 就(jiu)绪环境建设(she)等(deng)方(fang)(fang)面积累(lei)了深(shen)厚的(de)(de)专(zhuan)业(ye)知识(shi),曾先后在 CoolIT Systems、AHEAD 和戴尔等(deng)全球知名企业(ye)担任领导职(zhi)务,致力(li)于(yu)推动高性能计(ji)算(HPC)和 AI 工(gong)作(zuo)负(fu)载的(de)(de)先进制冷(leng)解决方(fang)(fang)案。Curtis 对直接芯片液冷(leng)(Direct-to-Chip Cooling)和下(xia)一代热管理技术(shu)的(de)(de)深(shen)刻理解,使他成为数(shu)(shu)据中心效率与可持续发展领域备(bei)受推崇的(de)(de)权威专(zhuan)家。

全球系统与制冷方案售前工程经理 Curtis Breville
瑞技全球系统与制冷方案售(shou)前工程经理(li) Curtis Breville

液冷需求日益增长

AI 数据中心的硬件性(xing)能正以惊人速度提升,散(san)热问题已成为(wei)行(xing)业发展的瓶颈。以英伟(wei)达(da) Blackwell GB200为(wei)例,这款由双 Blackwell B200 GPU 和 Arm Grace CPU 组(zu)成的处(chu)理器,在 1750 亿参数的 GPT-3 基准(zhun)测试中,性(xing)能是 H100 的 7 倍,训练速度提升 4 倍。然而(er),性(xing)能跃(yue)升的同时(shi),其散(san)热需求(qiu)也水涨船高——GB200 NVL72 机(ji)柜(ju)功(gong)率高达(da) 120kW,远超传(chuan)统风冷应对极(ji)限。

英伟达 Blackwell GB200 超级芯片
英伟达 Blackwell GB200 超(chao)级(ji)芯片
英伟(wei)达 Blackwell GB200 NVL72

数据中心制冷技术必须不断发展,才能满足其所支持的 IT 系统日益增长的需求。过去,风冷系统通过优化冷源位置,和密封冷热通道的方案,来适应更高的热密度散热需求。但是,当机架密度超过 20kW 时,传统方法的收益逐渐减少。像广受 AI 数据中心青睐的英伟达 NVIDIA Blackwell GB200 这样的高性能芯片,它们产生的热量使传统风冷技术无法提供足够的散热支持。液冷技术,已从“可选升级”变为“生存刚需”直接芯片(D2C,direct-to-chip)单相液冷技术也成(cheng)为(wei)高(gao)性能 AI 数(shu)据中心的首选(xuan)解决(jue)方案。

当机架密度超过20kW时,风冷系统会失去有效性,此时推荐采用液冷方法
当机架密度超过20kW时,风冷系统会(hui)失去有(you)效性,此时推荐采用液冷方法(fa)

直接芯片液冷的工作原理——精准散热的“冷静哲学”

直接芯(xin)片(pian)(pian)(pian)液(ye)冷(leng)(leng)(D2C, direct-to chip),也就是芯(xin)片(pian)(pian)(pian)冷(leng)(leng)板(ban)液(ye)冷(leng)(leng),其(qi)核心(xin)在(zai)于将冷(leng)(leng)板(ban)直接安装在(zai)发(fa)热(re)组件(如 CPU,GPU,内存模块)上,通过单相冷(leng)(leng)板(ban)或两相冷(leng)(leng)板(ban)来吸收并带走(zou)芯(xin)片(pian)(pian)(pian)的热(re)量。专用冷(leng)(leng)却液(ye)在(zai)冷(leng)(leng)板(ban)内高速(su)循(xun)环(huan),精准吸收热(re)量,随后流(liu)入(ru)冷(leng)(leng)却剂分配(pei)单元 CDU 进(jin)行散热(re),再循(xun)环(huan)利用。而(er) CDU 主要分为(wei)两大类型(xing):

  • 液-气 CDU(L2A,liquid to air CDU):通过风(feng)扇将冷(leng)却液降温(wen)后循(xun)环使用,适用于缺乏(fa)水冷(leng)基础(chu)设(she)施(shi)的数(shu)据中心。 

  • 液-液 CDU(L2L,liquid to liquid CDU):利用数据(ju)中心(xin)现有的冷却水进行散热(re),效率更高,但需要对传(chuan)统数据(ju)中心(xin)进行适应性改造。 

 

单相液冷两相液冷的一个关键区别在于是否会产生相变,单相液冷的冷却液始终保持液态,而两相液冷的冷却液会汽化再凝结成液体。虽然两相液却效率更高,但其成本和复杂度较高,因此目前大多数 AI 数据中心选择 D2C 单相直接芯片液冷技术。

直接芯片液冷的工作原理

CDU 的规模与部署方式——“量体裁衣”的散热方案

数据(ju)中(zhong)心(xin)可(ke)根据(ju)工作负载的(de)强度、场地布局和现有制冷基(ji)础设(she)施,选择不同尺寸和部署方(fang)式的(de) CDU,主(zhu)要类型包(bao)括:

  • 机架式 CDU:通常是一个 4U 大小的紧凑型单元,部署在服务器机架内,通过歧管系统为机架内所有服务器分配冷却液散热。
  • 行式 CDU:安装在机架行末或行中,通过二次流体网络(SFN)为多个机架散热。
  • 设施式 CDU:大型数据中心制冷解决方案,部署在独立的机房中,支持多兆瓦级散热。需要强大的 SFN 设计来有效分配冷却液。
  • 后门热交换器(RDHx):挂载在服务器机架的后门,使用冷却水或特制的冷却液吸收机架排出的热空气,达到局部散热效果。

D2C 直接芯片液冷优势——更快,更省,更绿

AI 负载比传(chuan)统(tong)数据中心服务器要求更高的功率(lv)密度(du),因此制冷效(xiao)率(lv)是(shi)一个(ge)重要因素(su)。直接芯片液冷相比传(chuan)统(tong)风冷和浸(jin)没液冷方案,具有以下几个(ge)明显优(you)势:

  • 高效散热:通过直接将热量从处理器传递给冷却液,显著降低热阻,提高冷却效率。
  • 节能降耗:传统风冷系统需要大量的风扇和散热器来保持最佳温度,而 D2C 液冷能显著降低能耗,从而节省长期的运营成本。
  • 灵活扩展:通过模块化的 CDU 设计,数据中心可以在不大规模改造设施的情况下,逐步升级制冷基础设施。
  • 节约用水:与传统的蒸发制冷不同,D2C液冷系统采用闭环冷却液循环,最大限度地减少用水量,更加绿色环保。

液冷普及的挑战与未来趋势

尽管液冷前景光明,但它的(de)推广仍面临一些(xie)挑战:

  • 老旧设施改造:为风冷设计的老旧数据中心,需要进行基础设施升级,才能支持 L2L 液冷,初期成本较高。
  • 冷却液选择:需要选择兼顾热导性、耐腐蚀性和耐久性的理想冷却液。
  • 标准化难题:虽然行业内有推动液冷标准的声音,但 CDU 型号、管路设计和冷却液配方的差异仍然带来兼容挑战。

AI 数据中心液冷的未来

随着(zhe) AI 工作负载越(yue)(yue)来越(yue)(yue)密集,耗(hao)电量越(yue)(yue)来越(yue)(yue)大,液(ye)冷(leng)技(ji)术也会不断进步。行业正(zheng)朝着(zhe)混(hun)合制冷(leng)解(jie)决方案转型,将 D2C 直接(jie)芯(xin)片(pian)液(ye)冷(leng)与(yu)后门热交换器(qi)结合,来实(shi)现最大化(hua)制冷(leng)效率。同时,如果数据中(zhong)心(xin)能(neng)有(you)足够水源,L2L CDUs(液(ye)-液(ye)单(dan)相(xiang)制冷(leng)单(dan)元)也会更受欢迎,进一步提(ti)升性(xing)能(neng)和可持续性(xing)。

瑞技:您的“冷静智囊”——助力 AI 数据中心高效运行

直接芯片液冷已成为 AI 数(shu)据(ju)中心的(de)首选解(jie)决方(fang)案,它能(neng)提供卓越(yue)的(de)效(xiao)率、可扩展性和长期成本效(xiao)益。随着处理器性能(neng)不(bu)断提升,散(san)热(re)需求日益增长,数(shu)据中心必须采用创新型制冷技(ji)术来(lai)保持(chi)高性能(neng)与可持(chi)续发展。深入了解(jie) D2C 直(zhi)接芯片液冷技(ji)术及(ji)其部署(shu)策略,对于在现代 AI 基础(chu)设施(shi)种做出明智决策至关(guan)重要。

瑞技(ByteBridge)专注于为客户提(ti)供量(liang)身定(ding)制(zhi)的(de)高效制(zhi)冷解(jie)决方(fang)案,精准(zhun)满足(zu)您(nin)的(de)独特需求。我们在(zai)液(ye)冷领(ling)域,尤(you)其(qi)是 D2C 直接芯片液(ye)冷解(jie)决方(fang)案,拥有深(shen)厚的(de)专业知识(shi),能(neng)够助力客户设计并(bing)(bing)实施优化、高效且节能(neng)的(de)系统,帮助数据中心(xin)实现无缝扩展并(bing)(bing)充分(fen)释放(fang)其(qi)潜(qian)能(neng)。选择(ze)瑞技,您(nin)将拥有一个(ge)值(zhi)得信(xin)赖(lai)的(de)合作(zuo)伙伴,与您(nin)携手(shou)应对 AI 数据中心(xin)的(de)制(zhi)冷挑(tiao)战,共同打(da)造面向未来的(de) AI 就绪(xu)数据中心(xin),为 AI 工(gong)作(zuo)负载提(ti)供坚实支持。

延伸阅读