方向明确投资热情重燃,AI芯片上游机遇凸显 2023年2月25日 证券研究报告 方向明确投资热情重燃,AI芯片上游机遇凸显 2023年02月25日 行业点评 行业专题研究(普通) 电子 本期内容提要: 人工智能引领新一轮科技革命,AIGC成为主要方向。每一次科技创 新的浪潮都是通过突破某一项先进生产力要素,从而提升人类生产效 看好 上次评级 看好 投资评级 率所实现。回望前三次科技革命的步伐,不难发现,一项先进生产力从萌芽到被广泛使用,其核心在于能否变革人类的生产生活方式,带来生产效率大幅提升。AIGC的出现真正赋予了人工智能大规模落地的场景,有望在更高层次辅助甚至代替人类的部分工作,提升人类生产效率。当前时点,以人工智能为代表的新一轮科技革命正在兴起, 而AIGC相较于传统AI而言可以“创作”全新的内容,已经在多个领域 莫文宇电子行业首席分析师 执业编号:S1500522090001 联系电话:13437172818 邮箱:mowenyu@cindasc.com 实现开花结果。 韩字杰联系人 邮箱:hanzijie@cindasc.com AIGC在生产效率和交互方式方面实现重大提升,或将推动信息技术时代向人工智能时代的快速发展。(1)生产效率上,AIGC以其强大的信息收集和处理能力,可有效缩短信息传递环节,改进人类生产效率。AIGC系统采用神经网络技术,通过自然语言处理,机器学习和计算机视觉等技术,可以完成大量信息的搜集和归纳整理,形成文字、图像、音频或视频,大幅提升信息传递的效率。(2)交互方式上,以ChatGPT为例,使用RLHF技术,提升系统的性能和可靠性,使交互更加自然和高效。RLHF是一种训练大模型的新技术,在这一模式下可以增强人类对模型输出结果的调整,提升训练效率,使ChatGPT与之前的ChatBot相比,对话质量更高、可理解性更强,交互体验更加自然和高效。 国内AI芯片产业或将开辟新业态,上游投资机遇凸显。我们认为以Transformer模型为核心的大模型AI路径已被ChatGPT有力证实,方向明确后投资热情重燃。但是,AI芯片、GPGPU芯片在设计难度、生态壁垒上较CPU、GPU更低,同时软件栈的支持也是AI芯片能否大规模导入云服务商的主要矛盾,这导致了国内云计算企业如阿里、百度等均尝试自研AI芯片;这意味着国产芯片供应链的机会 (如接口芯片、IP核等)比AI芯片的机会更具备确定性。建议关注方向:数据接口IP、神经网络计算IP、以太网芯片等;建议关注标的:芯原股份、裕太微、澜起科技。 投资评级:看好 风险因素:技术迭代不及预期;制裁风险。 信达证券股份有限公司 CINDASECURITIESCO.,LTD 北京市西城区闹市口大街9号院1号楼邮编:100031 目录 AIGC是新一轮科技革命的主要方向4 方向明确投资热情重燃,芯片周边潜藏投资机遇7 新技术、新产品:以Transformer为核心的算力引擎7 传统技术迭代:大模型时代,芯片互联势在必行9 从规模化到产业化,国内芯片企业焕发新活力10 风险因素13 表目录 表1:GPT-3模型规模对比,参数量突破1750亿9 图目录 图1:当前人类正处于信息技术时代向人工智能时代的交替期4 图2:我国智能手机渗透率5 图3:用ChatGPT实现代码编写功能示意5 图4:信息传递的金字塔6 图5:ChatGPT引入带有人类反馈的强化学习(RLHF)技术6 图6:Transformer模型架构7 图7:Transformer引擎针对计算任务的调优,训练效率增长9倍8 图8:各类语言大模型的算力需求呈指数级增长9 图9:各类语言大模型的算力需求呈指数级增长10 图10:全球以太网物理层芯片市场规模(亿美元)10 图11:全球IP核市场规模(亿美元)10 图12:芯原VivanteNPUIP产品线及其应用11 图13:芯原丰富宽泛的数模混合IP11 图14:澜起PCIeRetimer芯片典型应用场景12 AIGC是新一轮科技革命的主要方向 人工智能引领新一轮科技革命,AIGC成为主要方向。过去300年里人类经历了三次影响深远的科技革命:第一次科技革命以蒸汽机的出现为标志,推动火车、钢铁等行业快速发展;第二次科技革命带来电力的广泛使用,进一步推升生产力;第三次科技革命人类进入 信息技术时代,半导体、互联网、PC、智能手机的出现改变了人类生产生活的方方面面。当前时点,以人工智能为代表的新一轮科技革命正在兴起,而AIGC相较于传统AI而言可以“创作”全新的内容,已经在多个领域实现开花结果。 每一次科技创新的浪潮都是通过突破某一项先进生产力要素,从而提升人类生产效率所实 现。回望前三次科技革命的步伐,不难发现,一项先进生产力从萌芽到被广泛使用,其核 心在于能否变革人类的生产生活方式,带来生产效率大幅提升。无论蒸汽机、电力、互联网等信息技术,都符合这样的规律。AIGC的出现真正赋予了人工智能大规模落地的场景,有望在更高层次辅助甚至代替人类的部分工作,提升人类生产效率。 图1:当前人类正处于信息技术时代向人工智能时代的交替期 资料来源:光锥智能,世界银行,势乘资本,信达证券研发中心 交互方式的升级是新应用快速渗透的重要驱动力。早期个人电脑的交互方式是命令式执行,例如1979年微软给IBM个人电脑开发的MS-DOS是一个单用户单任务操作系统,而Windows操作系统使用图形化的交互方式,才使得个人电脑迅速推广开来。同样,智能手机摒弃了传统手机按键式的交互方式,采用触屏式交互,带来智能手机的快速渗透。交互方式是用户体验的核心需求,新的交互方式一旦迎合用户痛点,或将引领新一轮用户需求。 图2:我国智能手机渗透率 97.7% 96.1% 95.6% 93.9% 94.2% 100% 98% 96% 94% 92% 90% 20172018201920202021 资料来源:观研天下,信达证券研发中心 AIGC在生产效率和交互方式方面实现重大提升,或将推动信息技术时代向人工智能时代的快速发展。以ChatGPT为例,当前可以实现对话、搜索、文本生成、代码编写等众多功能,帮助人们快速生成大量内容,从而节省时间和资源;交互方式上,ChatGPT通过对话的形式,实现不断学习和提高对话能力,通过更加自然、流畅的语言表达方式来改进交互体验。我们认为,得益于生成型神经网络的快速发展,AIGC的成长速度可类比于、或更甚于Windows操作系统和智能手机,实现短期内的迅速成长。 图3:用ChatGPT实现代码编写功能示意 资料来源:ChatGPT,信达证券研发中心 AIGC以其强大的信息收集和处理能力,可有效缩短信息传递环节,改进人类生产效率。传统的信息传递方式为:从海量的文献和数据中搜集基础信息,再对信息进行归纳整理, 然后为方案设计者提供参考,最终由决策者进行决策。AIGC系统采用神经网络技术,通过自然语言处理,机器学习和计算机视觉等技术,可以完成大量信息的搜集和归纳整理,形成文字、图像、音频或视频,即AIGC可以替代信息传递的前三个环节,大幅提升效率。 决策 提供方案 设计参考 信息归纳整理 基础信息搜集 可被AIGC替代 海量的文献与数据 图4:信息传递的金字塔 资料来源:信达证券研发中心 ChatGPT使用RLHF技术,提升系统的性能和可靠性,使交互更加自然和高效。带有人类反馈的强化学习(RLHF)技术是一种通过人类对AI系统决策的反馈来指导学习过程,这种反馈可以是正面的(即奖励)或负面的(即惩罚),AI系统会利用这些反馈来调整其策略,从而在实际应用中取得更好的表现。RLHF是一种训练大模型的新技术,在这一模式下可以增强人类对模型输出结果的调整,提升训练效率,使ChatGPT与之前的ChatBot相比,对话质量更高、可理解性更强,交互体验更加自然和高效。 图5:ChatGPT引入带有人类反馈的强化学习(RLHF)技术 资料来源:OpenAI官网,信达证券研发中心 我们认为,AIGC将为企业提供更加智能、高效、便捷的解决方案,推动数字化转型。同时,随着技术不断成熟和成本不断降低,AIGC有望快速普及,成为各行业发展的重要引擎。我们看好人工智能芯片及人工智能相关的半导体产业链,在全球数字化、智能化浪潮下有望推动AI芯片市场迅速成长。 方向明确投资热情重燃,芯片周边潜藏投资机遇 国内AI芯片产业或将开辟新业态,上游受益确定性高。我们认为以Transformer模型为核心的大模型AI路径已被ChatGPT有力证实,方向明确后投资热情重燃。但是,AI芯片、GPGPU芯片在设计难度、生态壁垒上较CPU、GPU更低,同时软件栈的支持也是AI芯片能否大规模导入云服务商的主要矛盾,这导致了国内云计算企业如阿里、百度等均尝试自研AI芯片;这意味着国产芯片供应链的机会(如接口芯片、IP核等)比AI芯片的机会更具备确定性。建议关注方向:数据接口IP、神经网络计算IP、以太网芯片等;建议关注标的:芯原股份、裕太微、澜起科技。 新技术、新产品:以Transformer为核心的算力引擎 大模型多采用Transformer为基础,AI芯片架构更新迭代。Transformer是一种基于自注意力机制的深度学习模型,前沿的人工智能模型多以transformer为基础,相比于传统的神经网络架构:1.Transformer模型可以解决长序列输入过程中的梯度消失和梯度爆炸问题;2.Transformer模型可以实现更好的并行计算性能;3.Transformer模型可以处理全局信息; 4.Transformer模型无需手动提取特征。从结构上来看,Transformer模型由编码器 (encoder)和解码器(decoder)两部分组成,其计算方式和CNN和RNN有很大的不同,因此在硬件设计上也有较大区别。 图6:Transformer模型架构 资料来源:AttentionIsAllYouNeed(Vaswani,A.et.al),信达证券研发中心 NVIDIAHopper架构推出全新Transformer引擎,以提升大模型运算效率。在当今计算平台上,大型AI模型可能需要数月来完成训练,这样的速度对于企业来说较为缓慢。随着一些模型(例如大型语言模型)达到数万亿参数,AI、高性能计算和数据分析变得日益复杂。 Transformer引擎采用软件和自定义NVIDIAHopperTensorCore技术,该技术旨在加速训练基于常见AI模型构建模块(即Transformer)构建的模型。这些TensorCore能够应用FP8和FP16混合精度,以大幅加速Transformer模型的AI计算。与上一代相比,NVIDIAH100TensorCoreGPU可提供高达9倍的训练吞吐量,从而可以在合理的时间内训练大型模型。 图7:Transformer引擎针对计算任务的调优,训练效率增长9倍 资料来源:Nvidia官网,信达证券研发中心 高性能计算IP受限,国产替代势在必行。2022年12月,受出口管制影响,Arm拒绝向中国企业出售先进CPU芯片设计IP——NeoverseV1和V2产品,涉及包括阿里旗下芯片设计公司平头哥半导体,以及其他中国芯片企业。展望未来,云服务商自研芯片离不开国产 IP的支持,建议关注:芯原股份。 传统技术迭代:大模型时代,芯片互联势在必行 AI训练步入大模型时代,计算中心芯片算力、互联需求激增。在实践中,通常需要使用大规模的训练数据和强大的计算资源来训练Transformer模型,以达到更好的效果。从数据量的角度来说,加载大模型本身就是对芯片的挑战。以“GPT”模型为例,其参数量达到 1750亿,需要大量GPU协同工作才能完成,跨GPU模型布局中的负载平衡及GPU的互联将深度影响模型的训练效率。 表1:GPT-3模型规模对比,参数量突破1750亿 GPT-3Small 125M 12 768 12 64 0.5M