您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[光大证券]:跟踪报告之一:中国AI芯片巨头加速成长 - 发现报告
当前位置:首页/公司研究/报告详情/

跟踪报告之一:中国AI芯片巨头加速成长

2024-06-20刘凯、孙啸、黄筱茜光大证券杨***
AI智能总结
查看更多
跟踪报告之一:中国AI芯片巨头加速成长

专注人工智能芯片领域,注重研发构筑护城河。寒武纪全面系统掌握了通用型智能芯片及其基础系统软件研发和产品化核心技术。2023年公司凭借人工智能芯片产品的核心优势,拓展算力基础设施项目,深耕行业客户,实现营收7.09亿元,同比下滑2.70%;实现归母净利润-8.48亿元,同比亏损收窄。2024Q1实现营收0.26亿元,实现归母净利润-2.27亿元。公司聚焦云端大算力AI芯片核心赛道,持续推动产品迭代,技术壁垒不断巩固。公司发布股权激励计划,考核目标值24年营业收入值不低于11亿元,24-25年累计营业收入值不低于26亿元,24-26年累计营业收入值不低于46亿元。 全球AI芯片空间广阔,美国制裁有望持续提升中国AI芯片份额。算力军备竞赛持续,AMD看27年AI芯片市场规模4000亿美元。英伟达公布未来3年路线图,Blackwell已开始投产。美政府对英伟达禁令发布,制裁持续加码,利好国产GPU厂。各大下游需求增长,政府智算中心2025智能算力超105EFLOPS; 运营商掘金“算力网络”;互联网大模型训练算力需求井喷式增长。 寒武纪在AI芯片领域积淀深厚。(1)云端智能芯片:以思元芯片或加速卡的形式应用于各类云服务器或数据中心中。(2)基础系统软件技术:公司在自有智能芯片产品之上研发的基础系统软件Cambricon Neuware可支持各主流人工智能编程框架,包括TensorFlow、PyTorch等。公司自研智能芯片编程语言BANG语言,并研发了可将BANG语言编写的程序编译成智能芯片底层指令集(MLU指令集)机器码的智能芯片编译器。 云边端一体协同发力,产品矩阵逐渐完善。公司立足高算力领域,AI芯片技术国内领先,训练与推理产品全面布局,云边端领域协同发力。2023年公司智能芯片及加速卡持续在互联网、运营商、金融、能源等多个重点行业持续落地,并在业界前沿的大模型领域以及搜索、广告推荐等领域取得了长足的进步。2023年公司的智能芯片及加速卡实现收入1.01亿元。 盈利预测、估值与评级:寒武纪是国内领先的AI芯片公司,在当前AIGC与大模型兴起的背景之下,公司业务空间广阔。我们维持预测公司2024-2025年营收为17.94、26.97亿元,新增2026年营收预测为33.19亿元,维持预测2024-2025年归母净利润预测为-2.97、-0.77亿元,新增2026年归母净利润预测为2.36亿元。考虑到AI芯片的设计难度以及未来发展空间,公司为国内AI芯片龙头,具备高度稀缺性和先发优势,维持“增持”评级。 风险提示:研发工作未达预期风险、AI应用推广不及预期风险、持续亏损带来的持续经营风险、客户集中度较高的风险。 公司盈利预测与估值简表 1、国产AI芯片先行者,产品技术国内领先 1.1专注人工智能芯片领域,注重研发构筑护城河 我国稀缺的AI算力芯片厂商。寒武纪成立于2016年,自成立以来一直专注于人工智能芯片产品的研发与技术创新,致力于打造人工智能领域的核心处理器芯片。公司的主营业务是各类云服务器、边缘计算设备、终端设备中人工智能核心芯片的研发、设计和销售,主要产品为云端智能芯片及加速卡、训练整机、边缘智能芯片及加速卡、终端智能处理器IP以及上述产品的配套软件开发平台。随着人工智能市场需求潜力逐步释放,通用型人工智能芯片未来将成为该市场的主流产品。 公司全面系统掌握了通用型智能芯片及其基础系统软件研发和产品化核心技术。 公司能提供云边端一体、软硬件协同、训练推理融合、具备统一生态的系列化智能芯片产品和平台化基础系统软件。通用型智能芯片及其基础系统软件的研发需要全面掌握核心芯片与系统软件的大量关键技术,技术难度大、涉及方向广,其中处理器微架构与指令集两大类技术属于最底层的核心技术。公司在智能芯片领域掌握了智能处理器微架构、智能处理器指令集、SoC芯片设计、处理器芯片功能验证、先进工艺物理设计、芯片封装设计与量产测试、硬件系统设计等七大类核心技术;在基础系统软件技术领域掌握了编程框架适配与优化、智能芯片编程语言、智能芯片编译器、智能芯片高性能数学库、智能芯片虚拟化软件、智能芯片核心驱动、云边端一体化开发环境等七大类核心技术。 图1:公司核心技术框架结构 云端智能芯片及加速卡是云服务器、数据中心等进行人工智能处理的核心器件,其主要作用是为云计算和数据中心场景下的人工智能应用程序提供高性能、高计算密度、高能效的硬件计算资源,支撑该类场景下复杂度和数据吞吐量高速增长的人工智能处理任务。得益于公司领先的智能处理器架构技术以及成熟的芯片设计能力,云端智能芯片产品具有卓越的性能和能效,可覆盖视觉处理、语音处理、自然语言处理、推荐系统搜索引擎及传统机器学习等多样化应用领域,支持人工智能推理和训练任务,为云计算与数据中心场景的行业客户和互联网客户提供高效可靠的产品。公司于2018年推出了中国首款高峰值云端智能芯片思元100,之后通过技术创新和设计优化,相继推出思元270和思元290,芯片架构针对人工智能应用及各类算法进行了优化,持续提升产品的性能、能效和易用性。 表1:公司云端智能芯片及加速卡产品 公司已量产的云端智能芯片及加速卡产品可提供从30TOPS到128TOPS的单加速卡单芯片计算能力。浪潮、联想、新华三等厂商与公司开展密切合作,可为客户提供一机双卡、一机四卡、一机八卡等不同配置的服务器产品,单台服务器的人工智能计算能力最高可达1,024TOPS。在云计算数据中心场景下,可由多台服务器组成智能计算集群,为客户提供更高的人工智能计算能力。 公司为云边端全系列智能芯片与处理器产品提供统一的平台级基础系统软件Cambricon Neuware(含软件开发工具链等),打破了不同场景之间的软件开发壁垒,兼具高性能、灵活性和可扩展性的优势,无须繁琐的移植即可让同一人工智能应用程序便捷高效地运行在公司云边端系列化芯片与处理器产品之上。在Cambricon Neuware的支持下,程序员可实现跨云边端硬件平台的人工智能应用开发,以“一处开发、处处运行”的模式大幅提升人工智能应用在不同硬件平台的开发效率和部署速度,同时也使云边端异构硬件资源的统一管理、调度和协同计算成为可能。Cambricon Neuware是公司打造云边端统一的人工智能开发生态的核心部件。 公司自有的云端智能芯片加速卡是服务器集群核心智能计算能力的来源;公司将加速卡集成到配套服务器及相关系统中,并根据实际应用场景需求配置相应的基础系统软件与开发工具,最终形成智能计算集群系统交付客户验收。 图2:公司云端智能芯片及加速卡和智能计算集群系统的整体业务流程 1.2创始人学术背景强大,技术实力深厚 寒武纪于2020年在科创板上市。截至2024年3月31日,中国科学院计算机技术研究所全资子公司北京中科算源资产管理有限公司持有寒武纪15.76%的股权。 寒武纪创始人、董事长、实际控制人陈天石博士:曾就读于中国科学技术大学少年班,获中国科学技术大学计算机软件与理论专业博士学位,曾于中国科学院计算技术研究所任研究员(教授)和博士生导师。陈天石博士是人工智能芯片领域基础学术研究和商用产品研发的关键推动者之一,曾获国家自然科学奖二等奖、中国科学院杰出科技成就奖等荣誉。陈天石博士在人工智能和处理器芯片等相关领域从事基础科研工作十余年积累了坚实的理论功底和丰富的研发经验,曾获“中国科学院杰出科技成就奖”(2019年)、“北京市有突出贡献的科学技术管理人才”(2019年)、“上海市五一劳动奖章”(2019年)、“科技部科技创新创业人才”(2018年)、“央视年度科技创新人物”(2017年)、“上海市青年五四奖章”(2017年)等众多荣誉。 图3:公司股权结构图(截至2024年3月31日) 股权激励计划彰显企业信心。2023年11月公司公告股权激励计划,本激励计划拟向激励对象授予800万股限制性股票,约占激励计划草案公告时公司股本总额的1.92%,其中首次授予650万股,预留150万股。公司激励计划首次授予的激励对象总人数为715人,考核年度为2024-2026年,针对每个会计年度均设置清晰的考核目标。公司此次股权激励计划涉及范围较广,有助于增强内部整体信心。 表2:公司股权激励考核目标 1.3财务分析:23年亏损同比收窄,注重研发投入 2023年亏损同比收窄。2023年,公司凭借人工智能芯片产品的核心优势,拓展算力基础设施项目,深耕行业客户,实现营收7.09亿元,同比下滑2.70%;实现归母净利润-8.48亿元,同比亏损收窄。2024Q1实现营收0.26亿元,实现归母净利润-2.27亿元。 图4:公司2019年-2024Q1营业收入及同比情况 图5:公司2019年-2024Q1归母净利润情况 智能计算集群系统业务营收持续增长。2023年公司的智能计算集群系统业务贡献收入6.05亿元,同比增长31.85%,主要系公司成功在沈阳、台州实施智能计算集群项目,保持了智能计算集群系统业务收入的持续增长。公司云端产品线目前包括云端智能芯片及加速卡和训练整机产品。受供应链影响,2023年云端产品线贡献收入0.91亿元,同比下降58.73%。 图6:2019-2023年公司各业务营收(单位:亿元) 公司聚焦云端大算力AI芯片核心赛道,持续推动产品迭代,技术壁垒不断巩固。 公司2023年毛利率为69.16%,同比增长3.40pct;2024Q1毛利率为57.61%。 公司研发费用率仍维持相对高位,2023年和2024Q1研发费用分别为11.18亿元和1.70亿元,研发费用率为158.53%和660.83%。 图7:公司2017年-2024Q1毛利率及净利率情况 图8:公司2019年-2024Q1各项费用情况 图9:公司2019年-2024Q1研发费用及研发费用率 2、全球AI芯片空间广阔,美国制裁有望持续提升中国AI芯片份额 2.1全球AI芯片空间广阔 全球:算力军备竞赛持续,AMD看27年AI芯片市场规模4000亿美元。AMD CEO Lisa SU在23年12月7日宣布将2027年AI芯片市场1500亿美元的规模上调到4000亿美元。计算系统要满足行业AI场景的复杂巨大且多样性的计算需求,从2012年开始的6年中,AI计算的需求增加了30万倍,远远超过了摩尔定律的增长速度。 图10:训练AI系统计算使用的两个不同时代 英伟达公布未来3年路线图,Blackwell已开始投产。 2024年6月2日晚间,台北国际电脑展(COMPUTEX)开幕前夕,英伟达联合创始人兼首席执行官黄仁勋在台湾大学综合体育馆发表主题演讲,分享了人工智能时代如何助推全球新产业革命。 黄仁勋公开展示英伟达目前最强性能产品GB200主板。这块主板搭载两颗Blackwell B200 GPU芯片、一颗Grauce CPU芯片,通过其互联技术组合为一体。该产品首次亮相是在今年3月份的英伟达GTC大会上。 据英伟达2024年3月宣称,训练一个1.8万亿个参数的模型以前需要8000个Hopper GPU和15兆瓦的电力。如今,2000个Blackwell GPU就能完成这项工作,耗电量仅为4兆瓦。在具有1750亿个参数的GPT-3 LLM基准测试中,GB200的性能是H100的7倍,而英伟达称其训练速度是H100的4倍。 表3:英伟达B200、H100以及A100(80GB)性能对比 Blackwell全面投产,八年间算力增长1000倍。黄仁勋认为,随着CPU扩展速度放缓,最终会基本停止,然而需要处理的数据继续呈指数级增长,最终导致计算膨胀和计算成本的提升。而GPU将是改变这一切的关键。 图11:Blackwell计算能力的增长惊人 图12:计算能力提高时,成本却在不断下降 此外,黄仁勋还在这次演讲中介绍了英伟达一系列新产品服务的落地情况,包括帮助企业部署AI大模型的NIM云原生微服务、专为AI打造的新型以太网Spectrum-X,以及英伟达开发的机器人技术平台