证券研究报告2023年6月1日行业:通信 增持:(维持) 人工智能提振增长空间,光模块开启新周期 ——光模块行业研究报告 分析师:刘京昭SAC编号:S0870523040005 光模块市场持续演进,海外云厂商占据重要地位 光模块市场经历多年演进,形成了数通市场规模大于电信市场的格局。其中,海外云厂商对数通市场的持续增长贡献较大。海外云厂商的需求直接影响光模块厂商对上游的议价情况,进而对光模块行业整体毛利率产生影响。 行业龙头绑定下游优质客户,国内厂商市占率持续突破 下游云厂商自建云基础设施的过程中,旭创、Finisar、新易盛等行业头部公司与谷歌、亚马逊、微软等优质客户建立了较强的绑定关系,结合自身技术能力及产品验证情况,形成了一定的壁垒。此外,国内厂商市占率也不断提升—2022年光模块市场份额前十的公司,国内厂商占据五席。 人工智能模型训练和推理算力需求攀升,扩大光模块市场增长空间 近期人工智能大模型持续落地,催化了市场对人工智能板块的关注。随着模型训练和推理的算力需求不断增长,与高性能的服务器与网络交换机配套的高速光模块需求也同步攀升,促使下游云厂商和设备商持续增加800G光模块订单。考虑到1.6T光模块尚未实现量产,不同于100G和400G光模块,800G光模块的出货量将更长期处于高位水平。 未来十二个月内,维持通信行业“增持”评级。 风险提示:新技术落地和商业化不及预期;下游需求不及预期;行业竞争加剧;国际形势变化等。 中际旭创行情回顾(单位:元) 收盘价 67.02X 54.61X 42.20X 29.80X 17.39X 800G光模块新周期即将开启 400G数通市场需求攀升 100G数通和电信市场同时放量 120.00 100.00 80.00 60.00 40.00 20.00 0.00 资料来源:iFinD,公司公告,上海证券研究所 看点一:800G光模块的周期与100G、400G周期有何不同? 看点二:如何看待AI算力需求攀升对800G光模块出货量的影响? 目录 SECTION Content 一、产业:上游国产化替代进行时,下游海外客户持续放量二、市场:数通市场份额高,人工智能发展扩大增长空间三、竞争格局:国内头部厂商占据行业龙头地位 四、投资建议 五、风险提示 光模块在光纤通信中用于电信号和光信号之间的互相转换,在发送端实现电/光转换,在接收端实现光/电转换。 由于应用场景中传输距离、带宽、适配光纤等存在差异,光模块的封装方式近年来快速迭代,促进了差异化定制的发展。 光芯片是光模块的核心组件,主要功能是产生持续的激光束,驱动其他的硅光子器件。随着传输速率的增加,光芯片在光模 块成本中的占比逐渐增大。 图1光模块的主要作用是将电信号和光信号互相转换 图2光模块结构示意图(以SFP封装为例)图3光芯片成本占比随传输速率增大而增加 高端光模块 中端光模块 低端光模块 光芯片成本占比 0%10%20%30%40%50%60% 资料来源:华为官网,上海证券研究所资料来源:华为官网,上海证券研究所 资料来源:头豹研究院《2022年中国光模块行业研究报告(独占 版)》,上海证券研究所 光模块行业以按订单生产模式为主:行业的上游主要是光芯片、集成电路芯片、结构件和PCB行业,下游客户主要是云厂商 、通信系统设备商和通信运营商。光模块行业通常根据下游客户需求制定生产计划,再根据生产计划提前向上游供应商采购原材料,上下游存在协作关系。 上下游集中度较高:上游中高速率光芯片供应商和下游云厂商、通信运营商客户集中度较高,上下游均有一定的议价能力,头部公司的采购量较大,具备一定的上游议价能力,降低了其采购成本,体现出较高的毛利率。 图4光模块行业处于光通信产业链中游 资料来源:源杰科技招股说明书,剑桥科技招股说明书,上海证券研究所 光芯片细分品类多,EML突破高速限制:激光器芯片中,包括VCSEL芯片,以及FP、DFB和EML等边发射芯片。其中 ,EML激光器芯片将DFB与电吸收调制器芯片技术进行集成,以此突破高速限制。 中高速率光芯片的国产化替代正在进行时:25G光芯片国产化率近年来有所提高,但25G以上光芯片的国产化率仍有较大的上升空间,目前中高速率光芯片的供应以海外光芯片厂商为主。100G光模块主要使用4颗25GDFB激光器芯片方案或1颗50GEML激光器芯片方案(PAM4调制)。200G及以上速率光模块主要使用的EML激光器芯片方案,国产化率较低。 图5光芯片可分为激光器芯片和探测器芯片图6中高速率光芯片国产化率仍较低 100% 80% 60% 40% 20% 0% 25G以上25G10G2.5G及以下 201920202021E2022E2023E2024E 资料来源:源杰科技招股说明书,上海证券研究所资料来源:ICC,源杰科技招股说明书,上海证券研究所 CPO技术:使用射频基板做交换芯片和光引擎的共同封装,优点是能够降低电信号的高频损耗,但无法进行热插拔,在一定程度上影响设备的维修性。 LPO技术:基于线性驱动芯片技术实现可插拔光模块,线性度更优,整体上降低系统功耗,并移除DSP。 硅光技术:采用激光束代替电子信号传输数据,将光学器件与电子元件整合在微芯片上,提升芯片间的传输速率。 薄膜铌酸锂调制器:具有体积小、带宽高、半波电压低的优点,与硅光技术结合能够有效提升光模块的性价比。 图7CPO缩短了交换芯片和光引擎的距离 图8硅光技术将光学器件和电子元件进行整合图9铌酸锂直接光电系数较磷化铟高(单位:pm/V) 电光系数 35 30 25 20 15 10 5 0 硅磷化铟铌酸锂 资料来源:Broadcom,上海证券研究所资料来源:Intel,上海证券研究所资料来源:菲魅通信,上海证券研究所 光模块主要有以下应用场景:连接器、FibreChannel、以太网、CWDM/DWDM、有线接入、无线接入。 根据应用领域进行划分,主要有数通市场(Datacom)和电信市场(Telecom)。根据Yole预测,数通市场、电信市场预计将在2027年分别达到168亿美元和79亿美元的市场规模,CAGR预计分别为19%和8%。 以太网场景对中高速率光模块需求量大,预计以太网场景下对400G/800G的需求将持续增长,且可能以400G与800G光模型同步导入的方式进行。 图10光模块细分应用 图11数通市场规模长期超越电信市场(单位:亿美元)图12光模块行业营收预测(单位:亿美元) 数通市场 数通市场-YoY 60 50 40 30 20 10 0 电信市场 电信市场-YoY 50% 40% 30% 20% 10% 0% -10% -20% 201720182019202020212022 资料来源:头豹研究院《2022中国光模块行业研究报告(独占版)》,上海证券研究所 资料来源:LightCounting,源杰科技招股说明书,上海证券研究所 资料来源:LightCounting,上海证券研究所 数通市场与下游算力和流量需求强相关:光模块与规划建设的数据中心总算力以及流量规模相关。目前线上办公等场景的使用量逐步减少,但人工智能新技术落地和商业化带来的增长空间仍对未来的算力和流量需求有持续的支撑。 海外云厂商在云基础设施方面较国内云厂商投入大:2022年微软、谷歌、亚马逊等海外云厂商在包括光模块在内的云基础设施领域较国内云厂商投入大,也从侧面反映了海外云厂商对光模块市场的影响力。 800G光模块的周期与400G/100G的不同点:目前人工智能模型训练量快速增长,催生高性能AI服务器集群的建设需求,而集群内部通信对800G光模块存在确定性需求。我们认为:1.6T光模块尚未量产,下一代高性能计算设备对通信带宽的要求使云厂商无法回避对800G的采购需求,从而使800G较400G和100G更长时间处于采购的高位水平。 图13海外云厂商在云基础设施上投入大(单位:亿美元) 2022年云厂商基础设施投入2895亿美元 图14人工智能模型训练所需算力仍在攀升 23% 35% % % % % 10% AmazonMicrosoftAzureGoogle 1AlibabaCloud 2 2HuaweiCloud 4TecentCloud BaiduAICloudOthers 25% 资料来源:Canalys,上海证券研究所 资料来源:NVIDIA,上海证券研究所 目的:测算明年(2024年)由AI模型训练直接产生的800G光模块需求。 结论:2024年800G光模块出货量空间大概率在290-430万块。 核心假设: (1)假设800G光模块技术成熟后,主要的AI计算设备厂商会对自身产品进行升级。考虑到软件层面CUDA架构在AI模型训练中的不可替代性,我们直接以NVIDIA最新一代产品HGXH100和NVIDIAQuantum9700为原型,对升级后的服务器平台和网络交换机配置进行预测。 (2)HGXH100系统采用Fat-Tree网络架构,我们假设:HGXH100之后会部分使用4个800G光模块,对应的 NVIDIAQuantum交换机之后会使用32个800G光模块,且PCIeGen6的带宽高于NVLINK的单向带宽。 (3)考虑到云基础设施投资集中在头部的四家企业,以及大模型加速落地的迭代需求,我们假设:在2024年,四家企业在建的AI服务器集群,应满足同时训练4-6个GPT-4量级的大模型,且训练周期不大于14天。 测算过程: (1)以4层堆叠的HGXH100系统计算,1套以HGXH100为原型的下一代服务器平台对应127台下一代服务器和64台下一代光纤交换机,共计2556个800G光模块。 (2)根据参考文献[2],我们推算:GPT-4的Token数量为14000B,参数数量为650B;根据参考文献[3][4][5],我们 推算:下一代计算设备的单卡吞吐量是840TFLOP/s;根据假设(3),使用70个下一代服务器平台参与训练。 (3)根据参考文献[3]中的半经验公式(4),新建高性能AI数据中心所使用的800G光模块,在满足同时训练4个GPT-4量级的大模型的情况下出货量为290万块,满足同时训练6个GPT-4量级的大模型的情况下出货量为430万块,出货量空间为290-430万块。 参考资料: [1]NVIDIADGXSuperPOD:NextGenerationScalableInfrastructureforAILeadership [2]TrainingCompute-OptimalLargeLanguageModels [3]EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM [4]NVIDIAA100TensorCoreGPUDatasheet [5]NVIDIAH100TensorCoreGPUDatasheet [6]ScalingLanguageModelTrainingtoaTrillionParametersUsingMegatron 图15HGXH100使用64台QM9700交换机 资料来源:NVIDIA,上海证券研究所 图16DGXH100适合于网络计算 资料来源:NVIDIA,上海证券研究所 11 电信市场光模型的使用场景主要为:5G前传、中传和回传,以及城域网、骨干网和核心网的传输。 我国是全球最大的5G市场,近年来随着5G基站建设逐步完善,5G基站新建数量的增长呈现稳健增长的趋势,也进一步带动光模型电信市场保持平稳发展。 三大运营商资本开支稳健,共建共享在一定程度上缓解了运营商在资本开支上的压力,但同时也相对降