AI服务器直接受益于需求端增长,Nvidia高速互联助力AI运算。2018年至今,模型升级带来参数量指数级增加,AI训练+推理段模型需求催生AI服务器海量需求(训练阶段算力需求=6×模型参数数量×训练集规模),按照A100 640GB服务器参数假设,据测算,训练端需要服务器数量为3423台/日,推理端按照1亿活跃用户测算对应成本为4000万美元,并随着用户量和访问互动量上升,算力需求持续提升。此外,Nvidia高速互联助力AI运算,800G交换机陆续发布,下一代超宽互联蓄势待发。 AI重塑服务器行业格局,ODM模式/厂商受益于AI服务器增长。根据Statista数据,2021年全球服务器市场规模达到831.7亿美元,同比增长6.97%,其中AI服务器市场达到156.3亿美元,同比增长39.1%。AI服务器有望成为增速最快的细分板块,预计AI服务器市场将在2026年达到347.1亿美元,5年CAGR达到17.3%。ODM模式/厂商受益于CSP客户增量,2022年出货的服务器中ODM生产的市占率或达50%。全球ODM厂商竞争格局集中度高,CR5高达94.4%,分别为鸿海/工业富联(43%)、广达(17%)、纬创(14%)、英业达(12.8%)和超微(7.6%)。 AI服务器放量预期利好上游核心部件。AI服务器销量增加将拓宽上游核心零部件的增量市场,尤其是AI芯片(GPU、ASIC和FPGA)、存储器、固态硬盘等。其中,国内上游环节的国产替代程度不一。我们认为国内处于乐观机遇期的有AI服务器制造厂商、服务器用PCB厂商、DRAM厂商和散热厂商,PCB和DRAM的服务器领域均是行业实现扩产和开拓市场的重点所在; 制约瓶颈为人工智能芯片,仍被国外厂商垄断,有望实现突破的环节为先进封装Chiplet,或成为我国算力困境的关键转折点。 投资建议:建议关注AI服务器及上游产业链相关标的:1)AI服务器龙头:工业富联;2)服务器PCB:鹏鼎控股;3)服务器线束与连接器:电连技术、兆龙互连;4)算力芯片:寒武纪、海光信息(天风计算机团队覆盖)、景嘉微(天风计算机团队联合覆盖);5)存储供应链:兆易创新、北京君正、江波龙(天风计算机团队联合覆盖)、澜起科技、雅克科技、鼎龙股份(天风化工团队联合覆盖)、华懋科技(天风汽车团队联合覆盖)、华特气体;6)边缘AI:瑞芯微、晶晨股份、全志科技、恒玄科技、富瀚微、中科蓝讯、乐鑫科技;7)AI to B/机器视觉:大华股份、海康威视、鼎捷软件(天风计算机团队覆盖)、凌云光、天准科技、舜宇光学、海康威视、奥普特(天风机械军工团队覆盖);8)Chiplet:长电科技、通富微电、华天科技、长川科技(天风机械团队覆盖)、华峰测控(天风机械团队覆盖)、利扬芯片、芯碁微装、伟测科技 风险提示:中美贸易摩擦导致上游原材料断供、AI服务器出货不及预期、技术瓶颈仍未摆脱 1.人工智能服务器为算力支撑,助燃AI产业化 1.1.从通用服务器到AI服务器的过渡 AI服务器在众多服务器中脱颖而出源于其架构优势。AI服务器是承载智慧计算中AI计算的核心基础设施,是一种能够提供人工智能的数据服务器,既可以用于支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务,通过异构形式适应不同应用范围以及提升服务器的数据处理能力,异构方式包括CPU+GPU/TPU/ASIC/FPGA。 图1:AI服务器的CPU+架构 AI服务器的发展脱胎自通用服务器的性能提升需求。复盘主流服务器的发展历程,随着数据量激增、数据场景复杂化,诞生了适用于不同场景的服务器类型:通用服务器、云计算服务器、边缘计算服务器、AI服务器。随着大数据、云计算、人工智能及物联网等网络技术的普及,充斥在互联网中的数据呈现几何倍数的增长,使得以CPU为主要算力来源的传统服务器承受着越来越大的压力,并且对于目前CPU的制程工艺而言,单个CPU的核心数已经接近极限,但数据的增加却还在继续,因此服务器数据处理能力必须得到新的提升,在这种环境下,AI服务器应运而生。面对ChatGPT所引出的大规模预训练模型,AI服务器以其架构优势带来的大吞吐量特点,有望在一众服务器中脱颖而出。 表1:主流服务器类型(不完全统计) 1.2.AI服务器与普通服务器相比有着明显的性能优势 AI服务器相较于传统服务器算力上大幅跃升。AI服务器利用CPU+的架构模式,CPU仍作为CPU的数据处理主要模块,同时植入并行式计算加速部件,如ASIC、FPGA、GPU等,负责人工智能计算负载加速。总而言之,在CPU+架构下,AI服务器的技术选型和部件配置针对不同的业务场景做相应的调整优化,通过合理的负载分担实现计算能力的提升。 表2:AI服务器与普通服务器相比具有更好的技术优势 1.3.AI服务器的进步源于芯片,未来将关注更多功能性 我们认为AI服务器的技术迭代取决于硬件中AI芯片的选择。传统普通服务器数据处理核心单一,以CPU为主,AI服务器则采取CPU+的异构方式完成数据处理能力提升。参考英伟达HGX的产品迭代路径,核心差异在于搭载的GPU,HGX-1、HGX-2和HGX A100分别对应TeslaP100GPU、TeslaV100和A100,在深度学习和高性能计算领域都展现出更高的性能。因此,我们认为可以从AI芯片发展窥见AI服务器的技术迭代历程,主要以CPU+GPU为主的AI服务器,结合云服务趋势发展至CPU+GPU/ASIC/FPGA的多功能+优性能+灵活性+高性价AI服务器。 表3:AI服务器的技术迭代核心在于硬件架构 结合整个人工智能技术和服务的发展,未来人工智能服务器将重点发展软硬件平台融合、低功耗设计、智能边缘计算等领域。特别是随着量子计算、类脑芯片等新一代人工智能计算加速技术的兴起,人工智能服务器的设计与实现可能会产生颠覆性变化。总之,人工智能服务器作为提供计算能力的核心要素,都是人工智能研发应用体系中不可或缺的组成部分,它的良性发展势必会为整个人工智能产业的成长奠定坚实的基础。 表4:AI服务器未来发展方向 2.庞大算力需求是AI服务器未来放量的关键驱动力 2.1.AI模型优化迭代引发算力缺口,未来推理功能将需更多算力 计算力是人工智能研究的生产力。在当今以深度学习为中心的人工智能发展中,AI模型的进步主要依赖于模型的规模化扩展。在AlexNet网络模型出现后,ResNet、Transformer、BERT等优秀模型也在不断涌现,尤其在图像、语音、机器翻译、自然语言处理等领域带来了跨越式提升。AI模型智能程度不断发展的同时,AI模型的数据量、结构的复杂程度也在不断增加,其带来了模型的参数量增长,模型尺寸呈指数级增加。随着模型尺寸不断膨胀,实现高效AI模型训练的重要支撑即更快的算力,即在短时间内完成大规模AI计算。 表5:2018-2020年模型升级带来的参数量激增 AI训练模型的需求或将释放AI服务器海量产能。根据OpenAI在2020年发表的论文,训练阶段算力需求与模型参数数量、训练数据集规模等有关,且为两者乘积的6倍:训练阶段算力需求=6×模型参数数量×训练集规模。 GPT-3模型参数约1750亿个,预训练数据量为45 TB,折合成训练集约为3000亿tokens。 即训练阶段算力需求=6×1.75 ×1011 ×3 ×1011 =3.15 ×1023 FLOPS=3.15 ×108 PFLOPS 依据谷歌论文,OpenAI公司训练GPT-3采用英伟达V100 GPU,有效算力比率为21.3%。 GPT-3的实际算力需求应为1.48 ×109 PFLOPS(17117 PFLOPS-day)。 假设应用A100 640GB服务器进行训练,该服务器AI算力性能为5 PFLOPS,最大功率为6.5 kw,则我们测算训练阶段需要服务器数量=训练阶段算力需求÷服务器AI算力性能=2.96 ×108 台(同时工作1秒),即3423台服务器工作1日。 表6:训练所需服务器测算 后期推理侧算力需求将成为主力。据IDC数据,2021年中国人工智能服务器工作负载中,57.6%的负载用于推理,42.4%用于模型训练,预计至2026年AI推理的负载比例将进一步提升至62.2%。具体落到ChatGPT的算力需求场景中,可以将预训练、Finetune归类为训练,日常运营归类为推理。ChatGPT的更新迭代已展示出对算力的高需求:从训练端来看,GPT1-3经历了从1.5亿到1750亿参数的增长过程,预计需要3640PFlop/s-day;从推理端来看,据SimilarWeb数据,2023年1月ChatGPT官网日访问量突破千万级别,1月31日达到2800万访问量,以3.4%的日增速度持续扩展,其中独立访客数量为1570万。据CNBC,达到1亿级别活跃用户将产生成本约4000万美元,则该1570万用户所耗费互动成本约为628万美元,推算得相对算力处理量为5714.8 PFlop/s-day,随着新用户不断进入并多次访问,该算力需求将不断推高,是未来算力的重点需求端。 表7:以ChatGPT产品测算所需算力 国内大厂在AI元年坚定入局+国内算力基建化,或将成为国内AI服务器需求来源。在ChatGPT带动的浪潮中,国内大厂开始密切发布类ChatGPT产品,3月16日百度正式推出国内首款生成式AI产品“文心一言”、3月30日腾讯推出“混元”AI大模型、4月7日阿里的“通义千语”开启内测邀请,华为4月8日推出盘古大模型等。据IDC数据,2021年中国智能算力规模为155.2 EFLOPS,随着AI模型日益复杂、计算数据量快速增加、人工智能应用场景不断深化,未来国内智能算力规模将持续增长,预计2026年智能算力规模将达1271.4EFLOPS,5年CAGR达到52.3%。对于国内人工智能算力需求的高增长,我国正牵头东数西算、智能计算中心,通过算力基础设施完成从点到网的升级,据IDC观点,中国市场的人工智能硬件支出占人工智能总支出的比例将在未来5年保持在65%左右,其中服务器是硬件中的重要部分。我们认为,AI服务器作为智能算力运算的主要载体,看好未来持续放量的高预期走势。 图2:中国智能算力规模 2.2.AI服务器作为承载算力主体将受益,成服务器市场的增长主力 AI服务器市场扩张表现亮眼,中国市场领跑全球。根据Statista数据,2021年全球服务器市场规模达到831.7亿美元,同比增长6.97%,其中AI服务器市场达到156.3亿美元,同比增长39.1%,在整体服务器市场中占比18.79%,同比提升4.34pct,这主要系随着人工智力所需算力扩大,AI服务器作为新型算力基础设施的主体将直接影响AI创新迭代和产业落地,我们认为市场将需更多、更强算力的AI服务器作为核心解决方案,据IDC与浪潮信息,预计AI服务器市场将在2026年达到347.1亿美元,5年CAGR达到17.3%。再看中国市场,2021年国内服务器市场规模达到250.9亿美元,同比增长15.9%,高于全球增长速度;其中AI服务器市场达到59.2亿美元,同比增长68.2%,在国内服务器市场中占比23.6%,这主要得益于国内人工智能应用的加速落地,浪潮信息、新华三、宁畅等厂商助推人工智能基础设施产品的优化更新,IDC调研显示,超过80%的中国厂商表示在未来将增加人工智能服务器的投资规模,预计在2026年中国AI服务器市场规模将达到123.4亿美元,5年CAGR为15.82%。 图3:全球服务器市场规模及增速 图4:中国服务器市场规模及增速 图5:全球AI服务器市场规模及增速 图6:中国AI服务器市场规模及增速 全球服务器行业生产模式趋向白牌化,ODM厂商市占率集中。服务器厂商可分为ODM厂商和品牌厂商两种类型。品牌服务器厂商以浪潮、华为、新华三为代表,ODM厂商以超微、广达为代表,根据品牌服务器厂商的委托完成硬件生产,加贴委托方商标并交付给品牌持有者进行销售,近年不少客