您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:国产AI服务器专家交流纪要–20230412 - 发现报告
当前位置:首页/会议纪要/报告详情/

国产AI服务器专家交流纪要–20230412

2023-04-13未知机构偏***
国产AI服务器专家交流纪要–20230412

国产AI服务器行业专家交流纪要20230412 核心要点: 1、服务器市场需求: 1)AI服务器,截止4月,浪潮AI服务器接单已经达到120亿左右,整个行业接单Q1同比 增长40%左右,历史上每年Q1(Q1是淡季)同比增长16%-20%,今年AI服务器的市场需求很大,全年40%增长是比较保守的 2)通用服务器,浪潮X86服务器Q1同比增长18% 3)去年浪潮AI服务器出货量280亿元,通用X86服务器出货量400亿元,信创服务器出货量10亿元,23年整体出货量预期目标同比增长40% 2、服务器供货商结构: 1)服务器方面,英特尔出货量占80%,AMD出货量占10%,剩下国产占10%; 2)信创服务器出货量比较大的是飞腾和海光,海光占60%,飞腾占40%,目前供应的全都是海光3号,价格比海光2号涨了15%-20% 3、AI服务器的交货周期: 1)目前交货周期2-3个月,排单排到6月了,正常情况下交货周期20-25天,一定程度受上游供应商影响; 2)训练方面主要采用英伟达、AMD处理器,上游的交付在3周左右,线下训练场景以英伟达A800为主,线上推理场景以英伟达T4为主 4、AI服务器的出货价格和备料: 1)Q1价格没有太大变化,目前新接订单会涨价约20%左右,之前AI服务器卖80万左右,现在会卖到100万; 2)定价主要受上游供应链涨价(英伟达)影响,是全行业的普遍上浮; 3)锁料周期三周左右,在涨价前已经锁了一部分,2月采购价格比较低,但2月出货也很大,并没有大批量的低价库存剩余 5、服务器的毛利率: 浪潮通用服务器的毛利率为13%,AI服务器的毛利率为18%-20%;互联网企业量大,毛利率更低,阿里、百度和腾讯是采用成本加成的模式;预计今年公司净利率会增长到5% 6、GPU国产替代能力: 1)推理端,昇腾、寒武纪、隧原、璧仞等部分场景可以做到国产替代,英伟达T4卡线上推理兼容性更强,国产显卡只在特定场景能够做好适配,其他场景需要做进一步适配;寒武纪显卡是T4售价的1/4,价格有相对优势; 2)训练端,昇腾930、寒武纪590只能达到A100性能的18%-20% Q:目前服务器行业景气度情况? 随着Chat-GPT的出现,对大模型的训练需求爆发式增长。 AI服务器:浪潮今年截止4月,AI服务器接单已经达到120亿左右,整个行业接单Q1 同比增长40%左右,历史上每年Q1(Q1是淡季)同比增长16%-20%。通用服务器:浪潮X86服务器Q1同比增长18%。 Q:服务器行业格局情况? AI服务器:去年,浪潮市占率54%,市场第二的是新华三,市占率18%,其次是超聚变、宁畅,还有通过OEM方式的整机厂商,比如宝德、天津安擎等。 X86通用服务器:浪潮市占率37%,市场第二的是新华三市占率20%左右。AI服务器、通用服务器和信创服务器三个领域的出货量,浪潮均保持领先地位。 Q:去年浪潮服务器出货量具体数据? AI服务器:去年线上推理+线下训练,280亿元通用X86服务器:400亿元 信创服务器:基于飞腾、海光的,10亿元 浪潮23年整体出货量预期目标同比增长40%,任务量是会细分落地到不同的行业和地域。 Q:AI服务器相比通用服务器,新增了哪些硬件? 满足训练需求的AI服务器主要是在显卡、电源、带宽以及配套设备方面要求更高或者比例上有提升。 显卡、电源:AI服务器增加搭载了英伟达A800的异构加速卡,功耗比较高,需要配4 个电源,单个电源2200W以上。 散热:对显卡散热要求更高,对风扇转速要求更高。 带宽要求:对于AI服务器,在多机大模型训练的场景下,需要RB交换机,多了RB卡 以及与之相配的RB电缆。比如在售的40口200GRB交换机的传输速率在200GB/s,传输速度提升了20倍,而通用服务器使用光纤以太网,传输速率在10GB/S。 英伟达在今年5-6月会量产下一代H800显卡,相应的高性能RB交换机是64口400G 的,H800的性能比A800提升了3-5倍,对于带宽的要求会更高。 内存、CPU、硬盘等配套设备:AI服务器在配置了高端的显卡后,对应的内存(512G以上)、CPU、硬盘都是要有更高的配置。 Q:目前英伟达对浪潮供货情况正常吗?制裁的影响怎么样? 目前浪潮主要用A100。2022年8月英伟达发布公告申明A100在国内大陆禁售,在2022年10月21号实施,主要是为了应和美国政府政策要求。为了能够继续做中国市场,就又推 出了A800,相比A100在精度和浮点运算上做了一定阉割,包括英伟达今年5月要推出的 H800也是对H100做了阉割。 实体名单制裁的是浪潮集团,而AI服务器、X86、信创服务器属于浪潮信息,制裁的主 体不一样。在集团进入实体清单之后,一周左右时间,上游的厂商包括AMD、英伟达明确表态供货不受影响,继续合作,上游供应情况、下游客户订单都是正常的。 Q:一季度哪些行业客户加单比较多?去年哪些互联网客户出货量增长较多? 2023年Q1,从行业属性来分,第一梯队是互联网,其他包括政府行业、教育、金融、 能源、交通、医疗、党政、企业、运营商等;互联网第一梯队是阿里、百度、腾讯、字节,第二梯队是京东、网易、美团等。 2022年出货量占比最大的客户是阿里,也是整个行业排名第一的大客户,其他包括腾讯、百度、字节。 Q:目前的交货周期? 交货周期一定程度上会受上游供应商影响,但由于我们会对于下游市场进行提前预测,目前A800AI服务器3月的订单已经排到了6月交付。正常情况下,AI服务器的交货周期在20-25天。 我们的交货流程是:内部在接单后,会先进行价格审批,然后后台的商业运营部进行制单,再根据产线进行排产,然后进行组装生产,和老化测试。AI服务器的老化测试需要的时 间更长(比通用服务器长3-5天),因为需要模拟AI的场景运算,最后入库和物流配发。 Q:交货会优先满足大客户吗? 遵循两个排单原则:1)优先保障大客户;2)每个部门会根据下单时间和交货的时间节点来根据前期预测统筹进行安排。 Q:根据订单的能见度,会提前备多久的物料?哪些物料备的价值量相对大?对于流通较高的通用物料,会提前备一个月所需的物料。 从价值量方面,中低端流通性较大的CPU会备的多一点。 Q:供货商结构是怎样的? 除了华为鲲鹏服务器没有引进外,其他国产平台的服务器都有引进,比如飞腾、海光、龙芯、兆芯、申威等。 服务器方面,英特尔的出货量占比80%,AMD的出货量占比10%,剩下是国产备货量的占比10%,信创服务器出货量比较大的是飞腾和海光,海光占60%,飞腾占40%,龙芯以PC的出货量为主。 海光方面:目前供应的全都是海光3号,3号供应没有受到制裁的影响,价格比海光2号涨了15%-20%,但海光3号CPU的性能和2号横向对比差异不大。 Q:GPU供应情况? 目前排单排到6月了,在AI服务器需求没有爆火之前,一般情况下是20天左右。训练方面主要采用英伟达、AMD的处理器,上游的交付在3周左右(20-25天)。 GPU供货商:线下训练场景以英伟达A800为主;线上推理场景以英伟达T4为主,今年5-6月可能会发布R4来替代T4,前期做渲染用的A40接下来也会有L40替代。 Q:GPU国产替代能力? 推理端业务,昇腾、寒武纪、隧原、璧仞等部分场景可以做到国产替代。比如在视频解 码方面,英伟达T4显卡视频编解码能力是28路-30路,价格为15000/块人民币,昇腾310显卡的解码路数在60左右,市场端售价和P4差不多。寒武纪显卡为20路,比P4性能弱, 但售价为T4的1/4,有相对优势。 总的来说,T4卡线上推理兼容性更强,国产显卡只在特定场景能够做好适配,其他场景需要代码指令的修改,替代能力是具备的,但需要做进一步的适配工作。 训练端,昇腾930、寒武纪590只能达到A100性能的18%-20%,国产还有很长一段路要去追,国产短期想超越英伟达还是有一定难度。 Q:浪潮现在有为国产GPU芯片出货吗?寒武纪、隧原、璧仞都有出过货。 昇腾是属于华为系的,因为还有竞争关系,所以没有出过货,但下游客户有买过我们的 不带卡服务器,然后再配上昇腾的芯片,是可以适配的,从散热、尺寸的大小等来看各方面是相吻合的(昇腾服务器出货主要是310)。 寒武纪590目前有一定的出货量,是自己去直接销售给客户端(客户直接买整机,然后自己买显卡的模式),而非跟服务器厂家匹配共同出货。 Q:浪潮AI服务器的出货价格有没有变化? Q1价格没有太大变化,但后续招标时下游英伟达涨价后,浪潮预期会相应涨价20%。英伟达会对显卡A800、T4卡进行全线涨价,上调价20%。 目前招标时,会将市场的波动情况传递给客户,整个服务器市场都会涨价。英伟达前端的销售也在进行涨价提醒。 例如英特尔CPU涨价15%-20%,内存、硬盘在降价15%-20%,对通用服务器来说,CPU配置的越多,服务器整体就会涨价。新接的单子会涨价大约20%左右,之前AI服务器卖80万左右,现在会卖100万。 Q:锁料周期是多久? 三周左右,在英伟达涨价之前,已经锁了一部分。 2月采购的价格比较低,但2月出货也很大,所以并没有大批量的低价库存剩余,因为 我们无法判断接下来的市场走势,因为也有高位进货的风险,对未来出货会有不利影响,库存积压也会导致资金的积压,生产制造业会需要较高的资金流动率。面对未来制裁风险,会有一些战略性的布局。 Q:AI服务器的市场需求怎么看? 从需求场景的角度看,线下训练层面场景居多,占65%-70%,以英伟达显卡为主。从下游客户的需求类型看,不同省都在建智算中心,预算在1-6亿,大部分都是2亿,有70%的预算都会投入在底层的AI服务器,预估智算中心的需求很大。 另外在ChatGPT潮流下,对训练的需求也很高。比如我们一个客户原本只有3000万的 预算,现在追加了9000万的预算。客户对H800的期望值很高,H800服务器的采购需求也会不断加大。总体今年市场对AI服务器的需求很大,40%的增长是很保守。 Q:天池液冷基地的情况? 在碳达峰的背景下,H800的功耗很高,一台服务器配8张显卡,电源功率在8-9KW左右,一般风冷机房很难满足散热需求。 浪潮的液冷服务器会在8月开始量产,浪潮会去推液冷模块化数据中心、机柜,客户从 风冷变成液冷自己做改造成本很大,所以由我们做去推广客户的接受度很高,主要面对高功耗的设备。天池基地有10万台的年产能主要面向H800准备。 Q:传闻的服务器订单爆满和涨价是不是都算辟谣了? 是的。目前浪潮的定价主要受上游供应链涨价的影响,是全行业的普遍上浮。 Q:除了互联网厂商,哪些行业客户对AI服务器的需求大幅增加? 做人脸、车辆、算法模型的传统企业,一年对AI服务器的需求每年在大年7000-8000 万,小年3000万,但主要需求还是来自于互联网企业。 Q:通用服务器和AI服务器的毛利率? 浪潮通用服务器的毛利率为13%,AI服务器的毛利率为18%-20%。互联网企业量大,毛利率更低,阿里、百度和腾讯是采用成本加成的模式。 Q:去年净利率不到3%,今年净利率预期能到多少?通用服务器、AI服务器等八大产品线量大,但毛利率不是很高。成熟产品线如存储产品线、大数据与云计算产品线的毛利率在30%-35%。目前公司内部会通过考核体系架构,促 进销售更多的去卖成熟高毛利产品线,个人认为净利率公司总体会增长到5%。 Q:浪潮源大模型的情况? 也是底层大模型,是关于社交类的模型,针对浪潮元脑生态合作伙伴,可以通过整个框架来丰富算法,且进一步验证了我们AI服务器对大模型底层性能优化的一个实力展现。