您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[安信证券]:通信行业深度分析:AI产业热潮带动服务器、交换机、光模块及相关芯片行业蓬勃发展 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业深度分析:AI产业热潮带动服务器、交换机、光模块及相关芯片行业蓬勃发展

信息技术2023-09-13张真桢安信证券杨***
通信行业深度分析:AI产业热潮带动服务器、交换机、光模块及相关芯片行业蓬勃发展

海外大厂AI资本开支持续上行,人工智能快速发展拉动AI相关产业链深度受益: 当前AI行业发展以海外科技巨头为首,几大巨头的投资与发展方向引领者全球AI行业技术趋势与发展方向。目前海外巨头一方面纷纷布局自研大模型,同时不断加大AI方向资本开支。根据亚马逊、微软、谷歌、Meta、苹果均2023年半年报,虽然有些公司Q2资本开支有所下降。但从细分结构上看,AI方向投资力度仍在加大。同时2023下半年、2024年AI相关资本开支预计将持续上行,奠定了AI行业未来长久发展的基础。根据弗若斯特沙利文、头豹研究院数据,2022年中国人工智能行业市场规模为3,716亿人民币,预计2027年将达15,372亿人民币,CAGR达34%。渗透率有望从2022年的10.2%提升至2027年的39.5%。人工智能快速发展拉动AI相关产业链:服务器、交换机、光模块及相关芯片深度受益。 2023年全球AI服务器市场规模预计将达248亿美元: AI大模型的训练和应用将带动算力需求急速提升。AI服务器作为承载和支持人工智能应用设计的关键设备,其需求将受到算力需求的拉动大幅增长。根据立鼎产业研究网,通用服务器价格一般为几千美金/台,而主流AI服务器价格多在10-15万美金/台,单价提升近20倍。同时随着AI大模型应用加速落地、智算中心建设加速,国内外厂商算力需求提升,AI服务器需求量大幅增加。IDC预计2023年市场规模将达248亿美元,同比增长27%。根据北京研精毕智信息最新数据,2022年全年,全球AI服务器行业市场出货量达到85万台。 根据TrendForce预估,2023年全球AI服务器出货量将接近120万台,同比增长38.4%。到2025年将增长至近190万台,2022-2025年CAGR达41.2%。量价齐升将带动AI服务器行业蓬勃发展。 AI快速发展带动芯片需求增加,国产替代逻辑加强: Frost&Sullivan预计2023年全球AI芯片市场规模将达到490亿美元,到2026年则将增长至920亿美元。研究机构IDTechEx预测到2033年,AI芯片市场将增长至2576亿美元。美国对我国芯片出口的封锁将加强我国芯片行业发展动力与迫切性,有望加速我国人工智能芯片产业发展步伐和国产替代进程。信创政策同样将促进我国人工智能芯片国产替代进程加速。Frost&Sullivan预计2023年我国人工智能芯片市场规模有望突破500亿元,2026年有望达到1675亿元。国内AI芯片以寒武纪思元系列、华为昇腾系列等为代表,产品性能已达到较高水平。其余代表企业包括百度昆仑芯、景嘉微、龙芯中科、海光信息、壁仞科技、沐曦、天数智芯、登临科技、摩尔线程等厂商。 业有望充分受益 预计2026年我国交换机市场规模将达48.1亿美元: 创维数字PANCAKE产品技术领先,有望受益内容端放量 2022-09-21 在AI建设推动下,海量数据高速传输需求驱动400G/800G交换机结构性升级,高速以太网交换机细分市场继续保持强劲增长。2022年全年,200/400 GbE交换机市场收入增长超过300%;100GbE交换机市场收入增长22.0%;25/50 GbE交换机市场收入增长29.8%。根据Dell'OroGroup报告,预计到2025年,800 Gbps将超过400 Gbps; 预计到2027年,400 Gbps及更高速度的交换机将占数据中心交换机销售额的近70%。高速率交换机占比的提升将带来产品单价提升、毛利率提升,带动交换机行业新一轮快速发展。以盛科通信为代表的第三方国产交换机芯片厂商有望打破海外厂商高端交换芯片的封锁,实现国产替代。根据盛科通信招股说明书,公司拟于2024年推出Arctic系列,交换容量最高达到25.6Tbps,支持最大端口速率800G,面向超大规模数据中心,交换容量基本达到头部竞争对手水平。 服务器需求放量,拉动配套光模块、光芯片需求显著提升: 一方面,AI的发展将带来算力需求的大幅提升,进而带来服务器需求量大幅提升,拉动配套光模块数量增加。另一方面,AI服务器对高端光模块需求相较普通服务器提升,服务器与光模块配套比例提高拉动光模块需求增加。近期海外大厂频繁加单800G光模块,人工智能发展带动算力需求进而带动光模块需求快速提升逻辑得到验证。目前800G光模块已有部分厂商实现批量交货,其余厂商也在研究、测试阶段,未来发展前景广阔。政策支持有望充分促进光芯片国产化率提升。目前源杰科技800G高速光模块的100G光芯片产品研发进展顺利,主要的核心工艺难点、设计难点已经实现突破,目前与正客户对标送样准备中;索尔思光电53G光芯片可以用于400G/800G光模块产品,未来国产高速率光芯片发展空间巨大。 相关标的: 建议关注服务器相关标的紫光股份、中兴通讯、工业富联、中科曙光、浪潮信息、共进股份、烽火通信;AI芯片相关标的寒武纪、海光信息;交换机相关标的锐捷网络、菲菱科思、共进股份、中兴通讯、紫光股份、裕太微、盛科通信;光模块相关标的中际旭创、新易盛、天孚通信、源杰科技、长光华芯、仕佳光子、德科立、剑桥科技、华工科技、光库科技、光迅科技、华西股份、博创科技。 风险提示:AI商业价值不及预期、技术发展速度不及预期、运营成本过高、供应链集中度过高、行业监管加剧、市场竞争加剧、假设不及预期的风险。 1.海内外大厂布局及未来发展展望 1.1.GPT迭代速度加快,GPT-4于2023年3月发布 2022年11月,美国OpenAI公司在GPT-3.5的基础上推出聊天机器人ChatGPT。相比于之前的主流AI模型,ChatGPT通过采用Transformer算法以进行自然语言处理。模型通过连接大量语料库进行预训练以获得海量参数,并针对不同的语言场景使用不同的特定数据集对模型进行微调(Fine-tuning)。最终训练所得ChatGPT模型不仅具备聊天问答功能,还能实现各类语言相关任务,如帮助撰写论文、翻译、编写代码等。ChatGPT一经发布,便受到了用户的狂热追捧,引爆人工智能热潮。 在ChatGPT发布不到四个月后,2023年3月,OpenAI公司应势推出新的GPT-4。GPT-4是对ChatGPT的重大升级迭代,不仅具备更加强大的语言理解能力,还能够处理图像内容。GPT-4可以生成更长、更复杂、更准确、更多样化的文本字符串,并在人们输入图像时做出响应,可以更好地避免GPT-3.5在处理某些问题时可能出现的错误,保证问题解决过程的规范和准确。 图1.GPT发展时间线 截至目前,GPT经历了从GPT-1发展至GPT-4的迭代升级。从GPT-1到最新的GPT-4,模型可采用的预训练数据量得到质的提升,使用海量参数可以完成自然语言处理的绝大部分任务、极大地提高了模型的精确度,语言模型领域有了显著的突破。 表1:GPT各代模型对比 自ChatGPT推出以来,国内外各企业纷纷入局,大模型发展如火如荼。根据中国经济周刊,李开复在2023中关村论坛·人工智能大模型发展论坛上表示“AI大模型是绝对不能错过的历史机遇。因为这将是有史以来最大的平台革命”,根据《中国人工智能大模型地图研究报告》,截至2023年5月底,截至2023年5月,美国已发布100个参数规模10亿以上的大模型,国内10亿级参数规模以上基础大模型至少已发布79个。据国外风投数据分析公司PitchBook的数据,2023上半年,全球人工智能领域共计发生融资1387件,筹集融资金额255亿美元,平均融资金额达2605万美元。根据脉脉高聘近日发布的《2023泛互联网行业人才流动报告》显示,今年上半年,泛互联网行业最紧缺的岗位主要集中在AI方向。算法研究员以0.47的人才供需比位居人才紧缺度榜首,平均两家公司争夺1位人才。AI技术的爆发也推动了人工智能工程师、自然语言处理、深度学习等AI方向人才的招聘需求,这3个岗位的人才供需比分别为0.61、0.66、0.73,人才供小于求,昭示着AI发展的持续与火热性。 1.2.英伟达——AI市场引领者 英伟达逐步发力计算专用芯片领域,从传统的显示卡硬件供应商逐步转型为高性能并行计算芯片及解决方案提供商。目前市面主流的AI服务器配备Nvidia Ampere架构的计算卡A100。 A100的性能比上一代产品V100提升高达20倍,可划分为七个GPU实例,根据变化的需求进行动态调整。A100的单精度浮点计算能力峰值可达19.5TFLOPS,双精度浮点算力可达9.7TFLOPS。相比V100,A100 80GB可针对大型模型提供高达三倍的AI训练速度;相比CPU,A10080GB可提供高达249倍的AI推理性能。OpenAI公司在推出GPT-3和ChatGPT时即使用英伟达的NVIDIA A100 GPU来训练和运行。 图2.NVIDIAA100训练速度 图3.NVIDIAA100 AI推理性能 针对算力需求巨大的ChatGPT及其他大模型,英伟达推出NVIDIA H100 NVL。NVIDIA H100 NVL是具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案。H100的单精度浮点计算能力峰值可达34TFLOPS,双精度浮点算力可达67TFLOPS。与NVIDIA A100 GPU相比,NVIDIA H100在大型语言模型上具有高达9倍的训练速度和30倍的AI推理性能,进一步巩固英伟达在AI芯片市场的领先地位。 图4.A100 VS H100训练速度 图5.A100 VS H100 AI推理性能 在2023年台北电脑展会COMPUTEX上,英伟达推出了新的GH200超级芯片,从底层设计上出发,将英伟达自研的基于ARM架构的72核Nvidia Grace CPU芯片和Nvidia H100 Tensor Core GPU两者相整合,两者之间通过NvidiaNVLink-C2C技术互联,实现了超高带宽和低延迟、低能耗密度的高度整合。新的架构能提供900G/s的带宽,相比于目前最新的PCIe Gen5技术约快7倍。NVLink-C2C还能实现GPU对系统内所有内存的高效访问,并能实现底层硬件级别的CPU-GPU内存/显存共享。 图6.GH架构同X86+H100/A100高性能计算性能对比 图7.GH架构同X86+H100/A100AI性能对比 在AI服务器方面,英伟达在GTC大会上发布最新AI服务器系统Nvidia DGXH100及NVLink架构。其中DGX H100将配备8个H100 GPU模组和Transformer引擎,总GPU显存高达640GB。每个H100GPU配备18个NVLINK,确保GPU之间双向带宽高达900GB/s。DGX H100服务器可利用NVLink来提高可扩展性,进而实现超高速的深度学习训练。性能方面,DGX H100系统的AI算力高达32PFlops(每秒3.2亿亿次),浮点算力FP64 480TFlops(每秒480万亿次),FP16 1.6PFlops(每秒1.6千万亿次),FP8 3.2PFlops(每秒3.2千亿次),分别是上代DGX A100的3倍、3倍、6倍,并且新增支持网络内计算,性能可达3.6TFlops。 图8.英伟达计算卡及解决方案发展过程 1.3.海外巨头争夺AI领域主动权 微软在人工智能领域深入布局,在2019年就向OpenAI投资了10亿美元,并不断扩大与OpenAI的合作关系。2023年2月,微软携手OpenAI推出嵌入了ChatGPT功能的必应(Bing)搜索引擎,用户可以直接提出问题并通过搜索引擎生成答案。3月16日微软推出AI版Office“全家桶”:Microsoft 365 Copilot。2023年7月18日,微软于Inspire合作伙伴大会上宣布,面向Office365E3、E5、商业标准版和商业进阶版的订阅商户,Microsoft365Copilot的定价为每个用户每月30美元。 2022年,谷歌推