您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[东吴证券]:高端光模块全球头部厂商,深度受益AI算力建设浪潮 - 发现报告
当前位置:首页/公司研究/报告详情/

高端光模块全球头部厂商,深度受益AI算力建设浪潮

2023-07-17张良卫东吴证券无***
高端光模块全球头部厂商,深度受益AI算力建设浪潮

公司是全球光模块龙头厂商,产品结构不断优化。根据LightCounting,2022年中际旭创为全球最大光模块厂商,公司2022全年及2023年一季度营收分别为96.4/18.4亿元,同比+25.3%/-12.0%,归母净利润分别为12.2/2.5亿元,同比+39.6%/+15.0%。公司坚持高端化路线,2022年高速光模块营收占比进一步提升,从2021年的82.7%提升至2022年的90.7%,全年综合毛利率也相较2021年提升3.7个百分点至29.3%。 光模块是光通信核心器件,行业空间将随着AI算力建设快速增长。根据OpenAI,2012-2018年AI计算量每年增长10倍,虽然之后增速会逐渐放缓,但增速仍远超“摩尔定律”,华为预测2030年全球AI算力将超105ZFLOPS(FP16精度),2020-2030年增长500倍,同时IDC预测中国AI算力将从2022年的268EFLOPS增加至2026年的1271 EFLOPS,期间CAGR=47.6%。在AI算力爆发背景下相应数据的传输硬件需求的快速增长也是必然趋势,我们测算得到直至2030年,在不同情景下全球AI算力相关光模块累计市场空间或超过700亿美元。 公司在高端光模块布局领先,AI浪潮下有望抢先受益。在AI等应用推动高速光模块不断增长的背景下,公司的高速光模块以领先身位推出供应,抢占市场先机,公司分别于2020年及2022年推出业界首个800G可插拔OSFP和QSFP-DD800G系列光模块,及基于自主设计硅光芯片的800G可插拔OSFP2*FR4和QSFP-DD800GDR8+硅光光模块。公司长期向北美重点客户批量供应高速光模块产品,与下游客户及上游光芯片、电芯片厂商均形成了较稳定供应关系,并逐渐积累出稳定快速的交付能力,公司能够紧跟产品更新迭代周期,快速响应客户需求,有望抢先受益于AI算力建设。 盈利预测与投资评级:我们看好公司随着海内外厂商AI算力扩张不断成长,预测公司2023-2025年归母净利润分别为16.0/36.2/45.0亿元,同比增长30.9%/125.8%/24.4%,当前市值对应PE分别为79.0/35.0/28.1倍,首次覆盖给予“买入”评级。 风险提示:高速光模块需求不及预期;客户开拓与份额不及预期;产品研发落地不及预期;行业竞争加剧。 1.中际旭创:全球高端光模块头部厂商,财务表现持续提高 1.1.公司专注光模块及器件,覆盖中高端光模块产品 中际旭创主要产品为光模块及光器件,全资子公司苏州旭创负责光模块业务,控股子公司成都储翰负责光电组件业务。 公司光模块产品覆盖中高端型号, 可实现100/200/400/800G光模块批量供应,是全球高端光模块头部企业。 表1:苏州旭创光模块产品(部分) 表2:成都储翰光组件产品 1.2.营收稳定增长产品结构优化,费用率控制效果显著 公司营收增长稳定,净利润增速得到修复。近几年公司营收增速稳定在20%左右,2022年总收入96.42亿元,同比增加25.29%,毛利率相比2021年提升3.7个百分点至29.3%。2022年公司归母净利润12.24亿元,同比增加39.57%,增速也从2021年恢复接近2020年水平,归母净利率达12.7%;23Q1总收入18.4亿元,同比减少12.0%,毛利率29.6%,实现归母净利润2.5亿元,同比增加15.0%,归母净利率13.6%。 图1:中际旭创营收及同比增速 图2:中际旭创归母净利润及同比增速 产品结构持续优化推动盈利水平提升。从下游行业看,2022年公司90%以上的收入来自于数通市场,近10%来自电信市场;从产品看,2022年公司高速光模块收入占比90.7%,中低速光模块收入占比6.9%,其中100G以上收入占比70%以上。高速光模块产品结构及毛利率不断优化提升,推动公司盈利水平不断提高,2022年公司毛利率达29%,提升3个百分点,归母净利率达13%,提升2个百分点。 图3:中际旭创毛利率及净利率 图4:中际旭创高速及中低速光模块销售额(亿元) 图5:中际旭创高速及中低速光模块毛利率 图6:中际旭创高速及中低速光模块平均单价(元) 公司不断增加研发投入提高竞争力,费用率控制得当。光模块产品更新迭代持续进行,公司也不断提高研发费用开发产品,建设自身壁垒,与此同时,公司合理控制其他三费,近三年总费用率不断降低。 图7:公司研发费用 图8:公司费用率 2.光模块:数据光通信核心器件,深度受益于AI算力建设 2.1.光模块核心元件为光电芯片,产品有多种分类方式 光模块是光通信系统中实现信号电光/光电转换的核心器件,根据功能的不同主要可分为光发送模块、光接收模块、光收发一体模块、光转发模块,目前光模块主要指光收发一体模块。 图9:典型光通信传输系统 光模块主要由光发射器件(TOSA)、光接收器件(ROSA)、电芯片、PCB、结构件等组成,其中光发射器件及光接收器件等光器件为光模块核心部件,光器件的核心元件为光芯片。以2022年中端光模块硬件成本结构为例,光器件占比在70%左右,发射及接收器件则是光器件最重要成本来源,越高端的光模块光器件成本占比越高。 图10:中端光模块典型成本结构(2022年) 图11:越高端光模块中光芯片成本占比越高(2022年) 图12:光模块产业链 光模块可按照传输速率、复用技术、封装方式等进行分类,其中400G及800G光模块主要用QSFP-DD、OSFP封装方式。 表3:光模块的分类 2.2.竞争格局:全球前十中国厂商占半数以上,云厂商控制供应商数量 光模块市场中国厂商占据主导,根据LightCouting,2022年全球前十大光模块厂商中中际旭创(Innolight)、华为、光迅科技(Accelink)、海信、新易盛(Eoptolink)、华工正源(HGG)、索尔思光电(Source Photonics,被华西股份收购)七家公司为中国大陆厂商,其中中际旭创为高端光模块市场龙头,400G光模块全球份额在50%左右。 图13:全球前十大厂商变迁过程(截至2022年) 云厂商倾向控制光模块供应商数量,切换新产品时优先考虑已有供应商。云厂商在导入新的光模块供应商时,均会对潜在供应商的光模块进行对传等测试,由于会在同一计算中心混用不同厂商的光模块,需对各厂商的光模块进行组合测试。云厂商选择的供应商越多,测试的工作量呈几何级增长,测试及日常运行中出错概率也相应增加,因此云厂商往往会将光模块供应商数量控制在3个左右。同时,由于云厂商对已有供应商的产品工艺稳定性、批量交付能力充分了解,因此在导入800G、1.6T光模块等新产品时,一般会优先考虑已有供应商。 2.3.市场前景:电信与传统数通市场为基,AI拉升高速光模块需求 2.3.1.AI市场:高算力需求推动800G光模块结构性增长 模型迭代数据量扩张,算力需求持续增加。历代GPT的参数量呈现指数级增长,ChatGPT的总算力消耗约为3640PF-days(每秒计算一千万亿次,需要计算3640天);GPT-4在ChatGPT的基础上增加了图像、视频等交互信息类型,内容容量扩大到2.5万字,所需的算力规模远大于单纯的文字交互。OpenAI首席执行官Sam Altman接受公开采访表示,GTP-5在2024年底至2025年发布,它的参数量为GTP-3的100倍,需要的计算量为GTP-3的200-400倍。随着ChatGPT的用户和应用范围的持续扩大,数据处理的压力增大,将带来庞大的算力需求。 AI算力增速远超“摩尔定律”,硬件需求空间增势确定。根据OpenAI,2012-2018年AI计算量每年增长10倍,虽然之后增速会逐渐放缓,但增速仍远超“摩尔定律”,华为预测2030年全球AI算力将超105ZFLOPS,2020-2030年增长500倍,同时IDC预测中国AI算力将从2022年的268EFLOPS增加至2026年的1271EFLOPS,CAGR=47.6%。 在AI算力爆发背景下相应数据传输硬件需求的快速增长也是必然趋势。 图14:训练Transformers的算力要求(2022年6月) 图15:模型算力预测(2022年4月) 硬件算力提升,高速率传输拉动800G光模块需求。英伟达于2020年5月发布A100,双精度浮点运算速度从7.8TFLOPS提升至9.7TFLOPS,8块A100训练速度是8块V100的3.5倍;2022年3月英伟达发布的H100双精度浮点运算速度则又相比A100在8位浮点运算能力上提升约6倍。快速提升的算力需要高速率传输架构与之适配,800G等高速光模块的需求进而提升。 以H100组成的DGXH100 SuperPOD为例,8张H100 GPU组成一个H100System,每个H100System都是一个节点,32个H00System节点组成一个可拓展单元(Scalable Unit, SU),目前最多由4个SU组成DGX H100SuperPOD,加上ConnectX-7网卡及QM9700交换机组成DGXH100 SuperPOD的网络架构。按照最大SU计算,单个H100 SuperPOD用到的GPU数量为1016片(对应4个SU×32个H100System节点×8片H100GPU,其中一个节点空间用于安装网络监控单元未放置GPU),脊交换机和叶交换机数量则分别为32和16个。 每个SU分配8台叶交换机,计算节点和叶交换机间共建立1024个双向连接(4个SU×32个H100System节点×8个叶交换机),叶-脊交换机间共建立512个双向连接(32个叶交换机×16个脊交换机)。最初版本的DGX H100SuperPOD在节点-叶交换机间以400G传输,根据我们调研,后续网络架构中有望陆续换用800G及以上速率光模块,据此计算,后续节点-叶交换机间或将使用2048个800G光模块,叶-脊交换机间或将使用1024个800G光模块,800G光模块与H100GPU数量关系约为3:1。 参考DGXA100 SuperPOD的架构设计,当SU为4个时,采取双层架构,当SU为7个时,则采取三层架构,通过与上文中相同的计算过程可得到此时光模块与GPU数量比为6:1左右。随着之后对算力需求的提升,DGX H100SuperPOD或将同样推广至7个SU三层架构,届时800G光模块与H100数量关系则或提高至4:1至6:1。 图16:DGXH100SuperPOD计算-路由网络架构图 表4:DGXH100SuperPOD计算-路由网络架构部件需求 图17:4个SU的A100SuperPOD采用双层网络架构 图18:7个SU的A100SuperPOD采用三层网络架构 按照以下假设,我们测算截至2030年全球AI光模块总存量市场空间: 2030年全球AI算力将达105ZFLOPS; 单片H100算力为2E+15FLOPS; 等效800G光模块与H100数量比不同情境下为4/5/6/7; 单G价格0.6美元 经我们测算,当等效800G光模块与H100数量比分别为3/4/5/6时,直至2030年全球AI光模块累计存量市场空间分别为720/960/1200/1440亿美元。 表5:至2030年全球AI光模块累计市场空间测算 2.3.2.传统数通市场:云厂商资本开支稳步提升,800G光模块落地正当时 全球数据量快速增长,云厂商提升资本开支。全球每年产生的数据将从2018年的33ZB增长到2025年的175ZB,CAGR为26.9%。数据量爆发带来高数据处理需求,总体上看,北美头部云厂商脸书、谷歌、亚马逊及微软的单季度资本开支在近五年实现倍增,2022年四大厂商的资本开支达约1502亿美元,同比提升18.5%,虽然受当地经济环境影响2023年一季度其总资本开支同比减少3.0%达约343亿美元,但各厂商均对AI算力建设持积极态度,AI算力支出有望出现结构性可观增长。 图19:全球