AI进入“大模型”时代,算力需求陡升。自2018年GPT-1.0模型首次发布以来,OpenAI不断迭代模型,近期发布了GPT-4.0模型,它拥有更大的参数量、更长的迭代时间和更高的准确性。随着数据不断增长和算法复杂度提高,AI模型迭代推动算力需求爆发。 英伟达业绩超预期,再次强化AI算力逻辑。5月24日英伟达发布2024一季报财报,其中数据中心营收创下历史新高,同比+14%/环比+18%,主要原因为GPU需求随着AI发展水涨船高。 中国AI芯片市场呈现显著增长动力,众多企业“小试牛刀”。据数据显示,2021年我国AI芯片市场规模达到427亿元,同比增长124%。预计到2023年,市场规模将进一步扩大至1206亿元。 突围国外巨头围猎,国产替代初迎曙光 国产GPU在性能方面与国际领先水平的差距在加速缩小。在图形渲染GPU方面,景嘉微的JM9系列图形处理芯片性能与英伟达GeForce GTX1050相近。虽然景嘉微的产品与国际尖端GPU存在着极大的差距,但作为一颗由中国企业完全独立研发、采用正向设计、具有自主知识产权的GPU,已经有长足的进步。 ASIC国产替代正当时,FPGA发展机遇大。ASIC市场未形成垄断,国产厂商仍存在可观的机会抢占市场。另一方面,与其他AI芯片相比,FPGA芯片开发门槛较高,前期需要投入大量资源,存在壁垒。中国FPGA厂商仍处于起步阶段,但是随着5G、AI产业化带来的巨大需求,国内FPGA企业技术有望不断实现突破,迎来快速成长。 AI芯片迎政策利好,把握内、外双重机遇 近年来国家高度关注人工智能芯片产业的发展,发布一系列产业支持政策,为人工智能芯片行业建立了优良的政策环境,促进行业的发展。2021年,《“十四五”规划纲要和2035年远景目标纲要》指出,“十四五”期间,我国新一代人工智能产业将聚焦高端芯片等关键领域。 从国家战略高度为人工智能芯片行业建立了优良的政策环境。各地方也根据各自的背景与条件,发布促进和扶持人工智能产业发展的方案方针。 内驱动力:国家教育政策加大人才培养,为AI行业筑底强基。 在2018-2021年,超过300所高校开设了人工智能专业;部分企业也开始与高校进行合作,以产学研合作教学模式共同培养综合能力突出的优质人才。 外驱动力:资本持续进入国内AI芯片市场,为AI行业添砖加瓦。截止2022年1月,2021年中国人工智能芯片相关领域融资事件共计92起,总金额约300亿人民币。企业方面,中国的科技巨头如百度、阿里巴巴、华为等都在人工智能芯片领域进行了大量的投资。 此外,还涌现出了许多专注于人工智能芯片研发的创业公司,如Horizon Robotics、Cambricon等。 投资建议 算力是AI发展的基础底座。受益于AI大模型的突破与发展,AI芯片的需求随之水涨船高,我们看好在人工智能时代及国产替代主题共振下的AI芯片投资机遇。建议关注(1)AI芯片:海光信息、寒武纪、景嘉微、中科曙光等;(2)与AI芯片创业公司合作:首都在线、浪潮信息、优刻得、光环新网、同方股份等。 风险提示 研发进度不及预期;实体清单导致的供应链风险;产品迭代不及预期;商业落地不及预期;行业竞争加剧等风险。 重点公司盈利预测与投资评级 1 AI芯片——人工智能的基石 1.1 AI大模型推动算力需求爆发 AI已经进入了“大模型”时代。自2018年GPT-1.0模型首次发布以来,OpenAI不断迭代模型,最近发布了GPT-4.0模型,它拥有更大的参数量、更长的迭代时间和更高的准确性。随着人工智能的快速发展,算力的提升也被加速推动。人工智能非常依赖于相关基础设施,包括计算、储存和网络等。随着数据不断增长和算法复杂度提高,人工智能对计算力提出了更高的要求。全球人工智能算力基础设施产业正在加速发展,为人工智能技术在更广泛场景中落地创造可能。 释放算力的价值对国家整体经济发展将发挥推动作用。计算力指数每提高1点,数字经济和GDP将分别增长3.5‰和1.8‰。可见,国家计算力指数越高,对经济的拉动作用越强。在业界,人工智能的应用产生了很多需求,其中最直接的赛道是企业数字化转型。据IDC统计,全球范围内,企业在人工智能(AI)市场的技术投资从2019年的612.4亿美元增长至2021年的924.0亿美元,预计到2022年(同比)将增长26.6%至1,170.0亿美元,并有望到2025年突破2,000亿美元,增幅高于企业数字化转型(DX)支出整体增幅。 图表1:全球人工智能支出、数字化转型支出及GDP增长趋势预测 中国的智能算力规模正在快速增长。算力是实现人工智能产业化的核心力量,其发展对人工智能技术的进步和行业应用起着决定性作用。随着人工智能向多场景化、规模化、融合化等高应用阶段发展,数据体量呈现出急剧增长态势,算法模型的参数量也呈指数级增加,以加速计算为核心的算力中心规模将不断扩大。 在科技兴国政策驱动下,人工智能在提升中国核心竞争力的重要支撑作用得以确立。结合新基建、数字经济等利好政策,中国人工智能市场稳中有进,凸显在数字经济时代中技术的力量。据IDC预测,到2022年,中国的智能算力规模将达到268.0 EFLOPS,超过通用算力规模。预计到2026年,智能算力规模将进入ZFLOPS级别,达到1,271.4 EFLOPS。在2021-2026年期间,中国的智能算力规模年复合增长率预计将达到52.3%,而同期通用算力规模的年复合增长率为18.5%。根据《IDC中国服务器市场季度跟踪报告》及CPU双精度(FP64)运算能力数据,测算了中国通用算力规模。2021年中国通用算力规模达47.7EFLOPS,预计到2026年通用算力规模将达到111.3 EFLOPS。2021-2026年期间,预计中国智能算力规模年复合增长率达52.3%,同期通用算力规模年复合增长率为18.5%。 图表2:中国智能算力规模及预测 图表3:中国通用算力规模及预测 中国人工智能的发展正在向城市覆盖面更广泛的地区扩展。未来预计将涌现出更多具有城市特色的人工智能示范区,为产业发展树立标杆。根据2022年中国人工智能城市排行榜显示,北京排名第一,杭州、深圳、上海和广州分别位居第二到第五名,这些城市均为发展较好、经济水平高的一、二线城市,而天津、成都和南京等城市则进入了前十名。不同地区都在提升城市算力基础设施水平的同时,也推动产业智能化的发展以适应自身的发展需求。 图表4:2022年中国AI算力发展城市排行 1.2高算力需求催生AI芯片兴起 面向人工智能领域的芯片均被称为AI芯片。广义而言,AI芯片指的是专门用于处理人工智能应用中大量计算任务的模块,除了以GPU、FPGA、ASIC为代表的AI加速芯片,还有比较前沿性的研究,例如:类脑芯片、可重构通用AI芯片等。狭义的AI芯片指的是针对人工智能算法做了特殊加速设计的芯片。“无芯片不AI”,以AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准,发展更注重超速运算能力的AI芯片成为推动人工智能产业爆发的关键核心要素之一,其快速发展对人工智能技术的进步和行业应用起到了决定性的作用。 图表5:AI芯片技术架构产品类别 AI芯片的兴起源于AI对算力的高需求。算力是实现AI产业化的核心力量,随着人工智能应用场景的不断拓展和数据规模的急剧增长,算法模型的参数量呈指数级增加,特别是深度学习成为当前AI研究和运用的主流方式,加速计算成为不可或缺的需求。虽然CPU可以拿来执行AI算法,但因为内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,使用CPU并不能达到最优的性价比。因此,AI芯片应运而生,它们被设计出来适配海量并行计算能力,进而可以加速AI计算。 图表6:AI与半导体芯片的发展进程对照 AI芯片的维度。以部署位置(云端、终端)和承担任务(训练、推理)为横纵坐标,可以清晰的划分出AI芯片的市场领域。 根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。云端即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。云AI芯片的特点是性能强大、能够同时支持大量运算、并且能够灵活地支持图片、语音、视频等不同AI应用。基于云AI芯片的技术,能够让各种智能设备和云端服务器进行快速的连接,并且连接能够保持最大的稳定。终端即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端的数量庞大,而且需求差异较大。 端AI芯片的特点是体积小、耗电少,而且性能不需要特别强大,通常只需要支持一两种AI能力。 根据承担任务的不同,AI芯片可以分成:训练芯片、推理芯片。训练芯片主要用于构建神经网络模型,即用大量标记过的数据来“训练”相应的系统,使之可以适应特定的功能。训练需要极高的计算性能,需要较高的精度,需要能处理海量的数据,需要有一定的通用性,以便完成各种各样的学习任务。对于训练芯片来说,更注重绝对的计算能力;推理芯片主要用于利用神经网络模型进行推理预测,指利用训练好的模型,使用新数据推理出各种结论。即借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。推断芯片更注重综合指标,需要全面考虑单位能耗算力、时延、成本等等。以部署位置(云端、终端)和承担任务(训练、推理)为横纵坐标,可以清晰的划分出AI芯片的市场领域。 图表7:云-边-端协同示意图 1.3 GPU为当前AI芯片领导者 在短期中,GPU仍延续AI芯片的领导地位,FPGA增长较快。GPU短期将延续AI芯片的领导地位。目前GPU是市场上用于AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次尚浅时期,GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。 在长期中,三大技术路线互补,会长期并存。GPU因为高性能计算能力较强,在设计方面通用性强,可以高效完成不同调用需求,适合主攻高级复杂算法和通用型人工智能平台;FPGA受益于独一无二的灵活优势,适用于变化多的垂直细分行业,开发周期远小于设计一款通用芯片;ASIC芯片则是全定制芯片,长远看适用于人工智能,因为算法复杂度越强,越需要一套专用的芯片架构与之对应。 在未来,当人工智能技术、平台和终端的发展达到足够成熟度,人工智能应用的普及程使得专用芯片能够达到量产水平,此时ASIC芯片的发展将更上一层楼。 图表8:AI芯片设计流程与设计优势对比 第一波人工智能浪潮是基于ASIC(专用集成电路)架构。在算法稳定的情况下,专用芯片的性能和功耗优势显而易见,能够满足企业对极致算力和能效的需求。然而,下游AI算法的演进速度远远超过了人们的想象。专用芯片在特定场景下能够实现更高的算力和能效,但难以适应算法种类快速增加和迭代速度的情况。因此,通用性更强的GPGPU(通用图形处理器)长期是AI芯片的首选。 第二波浪潮中主流技术路径是GPGPU(通用GPU)。国内初创公司集中于2017年-2020年期间启动自研GPGPU芯片的研发。由于GPGPU难解高功耗与低算力利用率问题,ASIC和GPGPU在应对生成式AI及大模型正对算力基础设施提出的新要求时都显得有些捉襟见肘。 第三波浪潮的基础是存算一体等新兴技术。不同于ASIC与GPGPU,这些新兴技术路线跳出了冯·诺依曼架构体系,理论上拥有得天独厚的高能效比优势,又能绕过先进制程封锁,兼顾更强通用性与更高性价比,算力发展空间巨大。随着新型存储器件走向量产,存算一体AI芯片已经挺进AI大算力芯片落地竞赛。 图表9:冯·诺依曼、近存计算、存内计算架构对比 全球人工智能芯片市场高速增长。由IDC预计,到2025年人工智能芯片市场规模将达726亿美元。人工智能芯片搭载率(attach rate)将持续增高,目前每台人工智能服务器上普遍多配置2个GPU,未来18个月,GPU、ASIC和FPGA的搭载率均会上升。 IDC数据显示,2022年加速服务器市场