百度文心一言发布在即,把握AI软硬件投资机会 ——AI行业跟踪报告之三 作者:光大证券电子通信行业首席分析师刘凯,执业证书编号:S0930517100002 光大证券计算机行业首席分析师吴春旸,执业证书编号:S0930521080002 2023年3月15日 证券研究报告 核心观点 GPT4引领认知革命,国内百度文心一言发布在即;文心大模型场景全面,开启我国AI追赶序幕,建议从三大层面关注AI软硬件投资机会: 1、AI公司:大模型为AI应用最核心中枢,人工智能公司正打开想象天花板,建议关注三六零(A股唯一自研大模型公司)。 2、上游算力:训练模型带动算力需求,AI算力芯片为关键,建议关注寒武纪(A股AI算力芯片龙头)。 3、下游应用:建议关注百度生态合作伙伴及下游垂类应用企业。 风险提示:市场竞争加剧,研发不及预期。 目录 1、大模型打开想象空间,MaaS模式应运而生 2、百度文心大模型场景全面,开启我国AI追赶序幕 3、云端算力硬件将成为AI新浪潮的关键基础设施 4、投资建议:从三大层面关注AI软硬件投资机会 5、风险分析 1.1、溯源ChatGPT,“大模型”作为基础设施为AI发展带来新机遇 1、大模型打开想象空间,MaaS模式应运而生(1/2) 图1:ChatGPT是一个人工智能对话模型,可以生成代码、故事、诗歌等 资料来源:ChatGPT官网,光大证券研究所 1)性能:ChatGPT在一系列对话式AI任务上优于最先进的模型,包括问答、文本生成和对话生成。在基准测试中,ChatGPT在许多对话式AI任务上都达到了人类水平的准确度。 表1:ChatGPT部分职业测试成绩 考试内容 成绩 Upenn 沃顿商学院MBA期末考试 B- CPA 注册会计师 57.6% Bar 法律 50.3% SAT 美国大学入学测试 1020分(超过48%人类考生 Google 职业能力考试 三级工程师(年薪18万美元 IQTest.com 智商测试 83分(低于平均) Vocabulary 词汇测试 151分(平均99分) 资料来源:LifeArchitect,光大证券研究所整理 图3:语言模型发展历程 2ChatGPT 45TB OpenAI 3)模型大小:GPT-3是世界上最大的语言模型之一,拥有1750亿个参数。 2)训练数据:ChatGPT在来自互联网的超过45TB文本数据的语料库上进行训练。这个庞大的数据集用于教授模型自然语言中的模式和关系,并建立对单词和短语的上下文和含义的丰富理解。 请务必参阅正文之后的重要声明4 资料来源:OpenAI论文 1、大模型打开想象空间,MaaS模式应运而生(2/2) MaaS的商业模式应运而生。MaaS(ModelasaService),模型即服务,这种模式具体运作方式是,有能力的大公司提供预训练模型,使得垂直行业的小公司能够构建和部署AI模型,而无需投资构建和维护自己的模型所需的基础设施、硬件和专业知识。 图4:各垂类行业公司借助大模型API接口实现各种场景下的应用落地 资料来源:腾讯研究院,光大证券研究所 5 请务必参阅正文之后的重要声明 目录 1、大模型打开想象空间,MaaS模式应运而生 2、百度文心大模型场景全面,开启我国AI追赶序幕 3、云端算力硬件将成为AI新浪潮的关键基础设施 4、投资建议:从三大层面关注AI软硬件投资机会 5、风险分析 请务必参阅正文之后的重要声明 2、百度文心大模型场景全面,开启我国AI追赶序幕(1/4) 2.1、百度生态体系完善,在四层技术架构均具备领先的技术能力。百度以自主研发的云端通用AI芯片作为AI架构的芯片层,基于产业级深度学习开源开放平台飞桨平台,形成几大模型体系,配套大模型平台支持模型的广泛应用,建设了大模型为核心驱动的新产品和创业社区,并将AI技术赋能如搜索引擎、百度智能云等现有产品。 应用层 搜索 AIGC 媒体 金融 教育 医疗 … 图5:百度AI核心四层架构布局 模型层 NLP大模型CV大模型跨模态大模型生物计算大模型行业大模型 框架层 芯片层 资料来源:百度,光大证券研究所 2、百度文心大模型场景全面,开启我国AI追赶序幕(2/4) 2.2、文心大模型全景图刷新,构建产业大模型体系。大模型的出现,为人工智能进一步发展带来新机遇,深度学习平 台加大模型,贯通AI全产业链,夯实产业智能化基座,将进一步加速智能化升级。 图6:百度文心全景图 资料来源:文心大模型官网,光大证券研究所 2、百度文心大模型场景全面,开启我国AI追赶序幕(3/4) 2.3、文心NLP大模型性能强大、功能丰富,为垂类应用落地提供强大支持。 其中,文心一言(生成式AI产品)是基于产业级知识增强预训练大模型ERNIE3.0,结合了知识图谱、视觉信息、多语言等多种数据源,实现了对话式语言模型的全面升级。 表2:百度文心NLP模型 文心·NLP大模型 参数量级 效果 应用场景 ERNIE3.0Tiny 轻量级 20个中英文数据集上取得效果SOTA 适用于电商、科学、新闻、医学、对话等领域,包含评论情感分析、科学文献学科分类、新闻分类、自然语言推理等任务。 ERNIE3.0 百亿级 在14种类型共计45个自然语言理解数据集上取得了SOTA的结果 在9个自然语言生成任务上取得了SOTA的效果在18个数据集上刷新了zero-shot的SOTA效果 智能创作、摘要生成、问答、语义检索、情感分析、信息抽取、文本匹配、文本纠错等各类自然语言理解和生成任务 鹏城-百度·文心 2600亿 在机器阅读理解、文本分类、语义相似度计算等60多项任务中取得最好效果 舆情分析、智能创作、文本解析等 ERNIE3.0Zeus 千亿级 ERNIE3.0系列模型的最新升级,实现了任务知识增强,显著提升了模型的零样本/小样本学习能力 智能创作、摘要生成、问答、语义检索、情感分析、信息抽取、文本匹配、文本纠错等各类自然语言理解和生成任务 资料来源:文心大模型官网,光大证券研究所 2、百度文心大模型场景全面,开启我国AI追赶序幕(4/4) 生活服务 金融 知识垂类 教育 医疗健康 C端 历史 自然 基础学科 人文 B端 媒体 教育 医疗 定制:产品推荐 金融 通用:智能客服 生态伙伴 巨人网络、汽车之家、智联招聘、太平洋网络、土巴兔、掌阅科技、 携程、爱奇艺、 利欧股份、华策影视、蓝色光标、神策数据、风语筑、天娱数科、金蝶云、联想、TCL汉得信息、隆基绿能、科创信息、信雅达、宇信科技、东华软件、百信银行等 论文检索-理解归纳-结果输出 2.4、跨模态大模型、行业大模型等带来更多AIGC应用突破,B端生态圈持续扩大。B端开放接口双向输入,从行业接入数据源做训练,输出行业垂直技术解决方案,形成良性循环。未来,将有越来越多的企业和开发者通过大模型加深度学习平台的模式,步入AI应用的新阶段,进一步加速产业智能化升级。 定制版内容生成机器人 提供类MaaS的商业价值 资料来源:光大证券研究所 目录 1、大模型打开想象空间,MaaS模式应运而生 2、百度文心大模型场景全面,开启我国AI追赶序幕 3、云端算力硬件将成为AI新浪潮的关键基础设施 4、投资建议:从三大层面关注AI软硬件投资机会 5、风险分析 请务必参阅正文之后的重要声明 3.1、数据和算力是人工智能的基础,芯片等硬件构成AI核心底座(1/2) 人工智能的基础层是数据和算力,数据由服务器和光模块存储和运输;算力由CPU、GPU、FPGA、ASIC等芯片支撑 算法 请务必参阅正文之后的重要声明 12 PCB 光模块 服务器 ASIC PCB FPGA GPU CPU 资料来源:CSDN、光大证券研究所 3.1、数据和算力是人工智能的基础,芯片等硬件构成AI核心底座(2/2) 资料来源:寒武纪公开路演PPT 3.2、GPU分为传统GPU与GPGPU,GPGPU占据人工智能90%以上份额 在人工智能领域,使用GPGPU在云端运行模型训练算法,可以缩短海量训练数据的训练时长,减少能源消耗,从而进一步降低人工智能的应用成本。 GPGPU能够提供完善的软件生态系统,便于各种已有应用程序的移植和新算法的开发,因此全球人工智能相关处理器解决方案仍然 是以GPGPU为主。 GPGPU是人工智能领域最主要的协处理器解决方案,占据人工智能90%以上的市场份额,在智能工厂、无人驾驶、智慧城市等领域具有广泛的市场空间。 根据前瞻产业研究院的数据,未来几年内,中国人工智能芯片市场规模将保持年均40%至50%的增长速度,到2024年,市场规模将达到785亿元。而随着人工智能相关技术的进步,应用场景将更加多元化,GPGPU通用性好和软件生态系统完善的优势会进一步展现出来,成为该领域的主流解决方案。GPGPU在我国人工智能芯片领域也将占据较大比例的市场份额。 GPU在商业领域的具体应用体现在:1.商业计算和大数据处理;2.人工智能处理器;3.智算中心。 3.3、CPU与AI融合将成大势所趋 CPU技术发展趋势:1,单个处理器核心性能持续提升;2,处理器设计复杂度提高,核心数逐步增加,I/O性能持续提升;3,微体系结构持续优化。 CPU在商业领域的具体应用:1,“企业上云”需求强烈,云计算可助力企业完成数字化转型;2,5G网络的快速铺开,加速“万物 互联”时代提前到来。 国产CPU市场空间广阔:随着国产CPU性能的不断提高和软件生态的不断完善,基于国产CPU的信息产品已经得到批量应用。对信息安全、供应链安全要求相对较高的领域,均是国产CPU的优势市场,伴随着未来信息化的加速,桌面、服务器CPU的需求量有望大幅增加。 英特尔SapphireRapids第四代至强可扩展处理器深度支持AI运算。英特尔在这代产品中增添全新内置AI加速器——英特尔高级矩阵扩展(AMX)技术。英特尔透露该GPU的基础算力平均提升值为53%,而在AMX的助推下,其在PyTorch上的AI实时推理速度,可提升至上一代产品(FP32)的5.7-10倍,训练性能提升最高也能提升到上一代产品的10倍。 图11:龙芯1H芯片示意图 图12:龙芯2K1000LA芯片示意图 资料来源:龙芯中科官网 请务必参阅正文之后的重要声明 15资料来源:龙芯中科官网 3.4、云、边、端需求拉动AI芯片市场规模高速增长 图15:传统芯片与智能芯片比较 芯片类型 技术原理 技术发展情况与技术特点 技术优势与局限性 未来发展、演化或融合的趋势 在云边端训练与推理场景的市场渗透率 传统芯片 CPU (1)基本原理为:通过灵活的控制单元、细粒度的运算单元、多层次的缓存、多发射流水线,实现对于通用计算任务灵活和高效的支持(2)具体对于智能训练和推理应用,通过CPU的基本指令组合出训练或推理需要的运算操作,从而实现对智能算法的支持 技术成熟,通用性最强可执行各种类型的计算机应用程序,非常适合传统的控制密集型计算任务 人工智能应用开发生态成熟,但性能已无法满足人工智能快速增长的计算能力需求 CPU的演化趋势为集成更多更高的外部接口,长期看仍将主要应用于通用计算 广泛应用于个人电脑、移动终端、传统服务器等领域,在人工智能芯片场渗透率相对较低 GPU (1)基本原理为:通过简化控制单元并集成大规模的并行运算单元,实现对图形渲染等并行任务的良好支持(2)具体对于智能训练和推理应用,通过GPU的向量等指令组合出训练或推理需要的运算操作,从而实现对智能算法的支持 技术成熟,通用性较好,擅长数据级并行处理,为图形处理、科学计算等传统任务提供了良好的硬件支持 峰值运算性能高,但整体能耗较高;在云端具备成熟的应用开发生态,但在终端生态尚不成熟 GPU的演化趋势为持续保持其在图形渲染和科学计算领域的技术优势,加强对人工