随着AI等技术的大幅增长,用于收集数据的数据中心数量也同步增长。数据中心的 设备元件运行时会导致温度显著上升,为了确保运行的安全稳定,厂商们需要采取 一些降温措施。UQD作为液冷服务器的关键元器件,是英特尔倡议的一种开放标准, 旨在为数据中心的液冷系统提供无泄漏的快速连接解决方案。应用领域主要有数据 中心、高性能计算机、网络交换机等。 液冷服务器市场规模快提升,带动UQD快速增长。据IDC预测,2022年到2027 年,我国液冷服务器市场规模大约能达到682亿元。2022年到2027年,年复合增 长率为56%。市场调研公司Global Market Insights预测,全球数据中心液体冷却市 场规模将从2022年的超20亿美元增长到2032年的超120亿美元。每台服务器需 要使用2对液冷快接头,万创研究测算2023年-2025年液冷快接头单价分别为480 元/对、450元/对、400元/对。 液冷服务器渗透率快速提升,国产UQD快接头有望快速起量。在地域分布方面, 根据Cognitive Market Research,目前北美占据快速接头市场主要份额,欧洲其次, 亚太地区所占市场份额相对较少。在主要参与者方面,目前快速接头主要参与者集 中在欧美(Parker、Eaton、Staubli、Festo等),国内中航光电(军工电子联合覆盖) 为首的企业已经突破海外垄断。在当下缺货阶段,国产UQD供应商有望导入海外供 应链,实现超预期进展。 投资建议:UQD连接器供应商海外主要以史陶比尔Staubli、Parker-HANNIFIN、 Danfoss、CPC等为主,看好国产供应商,有望导入海外供应链,国产供应商重点推 荐工业富联、中航光电(军工电子联合覆盖),建议关注永贵电器 风险提示:液冷渗透率提升不及预期、国产厂商导入不及预期、竞争加剧导致价格 下降 1.UQD在数据中心的应用 1.1.液冷系统成为数据中心新选择 随着AI等技术的大规模发展,风冷将会无法满足大规模降温需求,液冷成为数据中心新的选择。随着要储存的数据量的快速增长,用于收集数据的数据中心数量也同步增长。数据中心的设备元件运行时会导致温度显著上升,为了确保运行的安全稳定,厂商需要采取一些降温措施。 图1: 相比于风冷系统,液冷系统已成为更加有效的措施,原因有以下几点:一是散热效率高,液体的导热能力是空气的15~25倍,相比之下空气往往需要更长的时间来散发热量;二是低噪声,采用液冷方式不会产生空气流动所带来的噪声,使数据中心更加安静;三是灵活性强,液冷的设备体积较小,占用的空间也少,提升数据中心灵活性;四是稳定性强,能够更快速、有效地将芯片产生的大量热量传导到冷却系统,降低芯片温度,减少因温度过高导致的故障,保持芯片工作稳定。目前数据中心温控仍以风冷为主,但随着AI的大规模发展,带动算力需求提升,芯片和服务器功率逐步升级,将超出风冷散热能力范畴。液冷则为冷却需求带来了新选择。 图2: 液冷技术成本较之前大幅降低。在成本方面,之前市场普遍认为液冷数据中心初期投入和运营成本较高,但伴随液冷技术的发展以及算力需求的激增,形势发生了变化。一方面,冷板液冷数据中心初始建设成本已经低于风冷数据中心;另一方面,浸没式液冷虽前期投入较高,但每年可以大幅降低运营成本(主要为电费),迅速回收投资,数据表明,浸没式液冷数据中心运行4.5年后,TCO将出现拐点并且低于风冷数据中心。 1.2.冷板式液冷为最主流方案 多个数据中心已采用液冷系统。液冷系统分为三种形式:冷板式、浸没式、喷淋式。目前冷板式液冷是最主流的液冷方案,IDC发布报告称,2023全年中国液冷服务器市场规模达到15.5亿美元,其中95%以上均采用冷板式液冷解决方案。冷板式液冷的技术原理即利用工作流体作为中间热量传输的媒介,将热量由热区传递到远端后再进行冷却。其系统主要由换热冷板、热交换单元和循环管路、冷源等部件构成。百度阳泉数据中心、北京大学“未名一号”、莱布尼兹超算中心均采用冷板式液冷。 除此之外,阿里巴巴张北数据中心、阿里巴巴仁和数据中心、乌镇超算数据中心则采用了浸没式液冷系统;雄安液冷示范应用测试数据中心采用了喷淋式液冷系统。 1.3.UQD在液冷系统中的应用 1.3.1.UQD液冷快接头介绍 UQD(Universal Quick Disconnect)是一种通用快速接头,主要用于液冷系统中,特别是在数据中心和超级计算机的热管理应用中。UQD是一种全球标准,用于快速断开的耦合器,开发于OCP(开放计算项目)。它是英特尔倡议的一种开放标准,旨在为数据中心的液冷系统提供无泄漏的快速连接解决方案。应用领域主要有数据中心、超级计算机等 。 液冷连接器的核心参数是通径和最大工作压力,直接关系到液冷系统的安全性。通径决定了连接器能够通过的液体流量大小。最大工作压力是液冷连接器能够承受的最大压力,这对于保证液冷系统的安全运行至关重要。超过这个压力,连接器可能会发生泄漏或损坏,从而影响整个系统的稳定性和安全性。 图3:UQD结构示意图 1.3.2.UQD在液冷系统中的作用 UQD应用于液冷系统以方便回路断开,防止冷却液泄漏。液冷系统由尽可能靠近电子元件的冷却液循环回路组成热交换系统。但这也意味着电子元件靠近水,一旦液体泄漏会造成安全事故。因此在对冷却回路进行操作时就需要大量的UQD来方便回路的断开以保证安全。 表1:UQD技术及功能技术 1.4.应用优势 UQD液冷快接头的无滴漏技术主要通过以下几个方面实现,并且与传统接头相比具有显著的优势: 推锁式软管和软管倒钩:UQD标准中规定的软管连接为推锁式软管-倒钩型。使用推锁式软管,无需套箍或软管夹即可实现快速、可靠和无泄漏的连接。软管倒钩经专门设计,只需将软管推到倒钩上即可锁定软管,塑料止动环确保软管正确安装在软管倒钩上,以实现安全无泄漏的连接。 图4: 安全无泄漏连接:UQD接头能够提供安全、可靠的连接,最大限度降低连接时的空气侵扰,有效防止液体泄漏。 热插拔功能:UQD接头支持热插拔,这意味着可以在承压情况下进行连接或断开操作。 优化的流速和压降:保证了最大的流量和最小的压降损失。快速连接器可以实现快速维护,并节省能源。通过减少压降,回路需要的压力更小,从而将冷却所需的能源降至最低。 防污染技术:用平头防污染设计,在保证完美密封的同时,还能保证操作员和设备的安全。 在连接过程中,不会有杂质进入回路,在断开过程中,也不会对工作环境造成污染。 2.液冷连接器应用设计 2.1.设计要求 2.1.1.额定值要求 对于快插接头的要求如下:1)流体快插接头位于挡片侧,进水口位于出水口上方。快插接头和冷板连接的地方,需要做凸台,凸台高度与机箱后窗结构相关,宜高度不小于3mm,以方便密封和在服务器侧的插拔;2)两个快插接头公头中心点之间距离大于等于24mm,以满足快插接头母头能支持正常的插拔操作,且无结构干涉;3)加速卡快插接头母头最大直19.5mm,宜小于18mm,以满足两张相邻的加速卡之间快插接头正常的插拔操作;4)进水口快插接头中心点距离挡片最上方距离大于等于50mm,以避免加速卡插入后挡片和板卡结构干涉,确保快加速卡插接头可以从服务器后窗推出;5)快插接头的外径需要小于机箱后窗开口的宽度,最大不超过12.06mm;6)快插接头的左边缘距离挡片右边缘应小于等于15.23mm。 流体快插接头选型主要考虑结构兼容性,需要保证在加速板卡侧面正常连接冷板和封装,同时组装在服务器上不发生结构干涉。 图5: 服务器系统设计宜有漏液检测装置(例如采用漏液感应线),每个业务单板提供一个监控连接器接口(服务器系统来定义),检测范围覆盖冷板易泄漏点,比如:焊接部位,管链接位置等。 表2:液冷连接器应用的额定值要求额定值选用原则规格 2.1.2.锁紧方式要求 液冷连接器锁紧方式有:1)卡扣锁紧;2)钢珠锁紧;3)螺纹锁紧;4)按压式;5)无锁紧。在应用中,更推荐的是钢珠锁紧,它和锁紧槽结构重新设计,使得结构更加紧凑,通过推拉实现锁紧与断开。其优点是操作简单,但其不适用于高振动冲击环境,满足地面、车载的场景要求。 2.1.3.密封形式应用 UQD液冷快接头推荐应用球面密封和平面密封的形式。球面密封性能较优,适用于主回路。 平面密封提供了较强的密封性,使液体难以泄漏,同时使空气难以进入,其性能最优也提供了更强的安全性。 2.1.4.材质外观要求 冷板基板和流道宜采用铜或铝合金材质,一个系统中冷却工质直接接触的部件不应有两种电极电位差较大的金属;冷却工质的选用应考虑与二次侧循环回路中所有直接接触的固体表面材质间的相容性; 图6:UQD具体应用材质 冷板外观要求:冷板冷板散热盖板应光滑,不应变形,散热基板底部表面不应有裂纹,划痕,变形、污点等缺陷;冷板散热基板散热面形状宜为方形或八边形;固定模块表面锐边倒钝,无毛刺,外表面无划痕、脏污,明显色差和花斑、裂缝、变形等缺陷,涂覆层无起泡、堆积、龟裂和脱落现象。 在不同的安装部位上,有不同的安装接口要求,如图7。 图7:UQD不同部位安装接口要求 2.2.液冷接头应用具体场景 UQD技术在液冷中扮演关键角色,是板级散热与机架级散热的连接纽带。以冷板式液冷为例,服务器芯片产生的热量首先传递到冷板,热量再通过UQD被输送至manifold,最终由manifold排出机架,实现高效的热管理。在数据中心的液冷系统中,manifold(集分水器)指一个分配或收集流体的管道系统,通常用作冷却液的分配器,将冷却液均匀地分配到各个服务器组件上,以实现高效的热交换。UQD作为液冷系统中的进/出液接头标准,实现了冷板模组和液冷机柜集分水器之间的水路连接。UQD技术标准确保了液冷接头的密封性和可靠性,有助于克服该元件一直以来防止泄漏方面的技术挑战。 UQD与服务器2:1对应,需求或随服务器出货增加而增加。manifold与服务器通常成对存在,分公头、母头使用。每台服务器配备一对UQD母头,需与ma nifold上的一对UQD公头进行耦合,因此UQD与服务器存在2:1数量关系。未来伴随高功率服务器出货量不断增加,UQD需求有望持续扩大。 2.2.1.板级芯片散热应用,液冷冷板散热为主流 数据中心散热以板级为最小单位,核心是液冷冷板。液冷散热分冷板式散热和浸入式散热两种,目前基于成本考虑,以冷板式为主。液冷冷板由进液接头、出液接头、上盖板与底板组成,上盖板与底板通过真空钎焊工艺紧密连接,形成一个密封的液体换热腔体(图8)。 腔体内部又分为分液腔和导流槽,确保液体流动得到精确节流控制。液冷冷板的进液、出液接头与外界,即manifold连接,将服务器芯片产生的热量从冷板中导出。 图8:液冷冷板剖面图 UQD快速接头作为冷板关键组件,其设计和性能直接影响系统散热效率和可靠性。液冷计算型服务器的快速接头采用UQD04型号母头,与机柜和集分水器Manifold的UQD04公头兼容,实现紧密耦合。接头在投产前需经过5000次插拔循环测试和0℃至80℃高低温运行验证,以确保稳定性。液冷水管以颜色区分,进液冷水为蓝色,出液热水为红色 。 图9:液冷冷板与进出水接头示意图 2.2.2.机架级液冷散热,数据中心IT设备布置单位 机架是数据中心服务器布置的单位,进一步热管理板级散热传出的热量。在板级散热层面,单个IT设备的热量被带出;而在机架散热层面,热量被汇集并传递到室外。机架级液冷散热系统的主要组成部分包括进出水manifold、监控单元、温度传感器、电磁阀与单向阀等,如图所示。进出水manifold对外连接到机房级的液冷分配单元,对内通过快接头连接到液冷冷板的进液接头与出液接头。由此,系统热量通过manifold传递到机架外侧。 图10:机架与UQD 图11:机架级液冷系统示意图 UQD标准高规格、技术要求,有助于解决冷板散热系统泄漏难点。液冷