您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[开源证券]:半导体行业深度报告:AI终端加速创新发展,关注上游产业链核心增量 - 发现报告
当前位置:首页/行业研究/报告详情/

半导体行业深度报告:AI终端加速创新发展,关注上游产业链核心增量

电子设备2024-06-21罗通、王宇泽开源证券心***
半导体行业深度报告:AI终端加速创新发展,关注上游产业链核心增量

AI模型、AI应用、AI硬件协同发展,加速推动AI终端创新发展 AI应用是基于AI大模型的基础上,借助AI大模型开发的产品。从应用方向来看,AI应用产品百花齐放,可以应用于AI聊天机器人、AI文本、AI图像等方向;从普及程度看,AI应用访问量稳中有升,AI应用普及有望提速。AI模型是链接AI应用和AI硬件的核心,海外AI大模型向着多模态、端侧发展,国内AI大模型正处于快速发展期,正加速追赶海外AI大模型。AI硬件是支持AI大模型及AI应用的算力底座,目前各AI硬件厂商均已推出搭载算力的AI硬件,并持续向着提供高算力发展。AI终端是集成AI硬件、搭载AI模型,为消费者提供AI应用的载体,我们认为,随着AI模型、AI应用、AI硬件的协同发展,将加速推动AI终端创新发展。 AI手机:2027年中国渗透率有望达51.9%,关注SoC、存储等上游环节 据Counterpoint数据,2023年全球生成式AI手机渗透率不足1%,出货量仅有420万部。分阵容来看,苹果尚未推出搭载大模型的手机,在AI模型端、AI硬件端正积极部署中;各头部安卓手机厂商已推出搭载AI大模型的AI手机。 Counterpoint预计到2027年,全球生成式AI手机渗透率有望达43%;IDC预测,2027年中国AI手机渗透率有望达51.9%,出货量有望达1.5亿台,2023-2027年CAGR有望达96.80%。我们认为,随着AI手机算力需求的提升及AI手机出货量逐渐升高,有望拉动SoC、存储、散热等上游产业链环节的需求增长。 AIPC:2024-2027年全球出货量CAGR有望达126%,关注NPU等上游环节2024年为AIPC元年,各头部PC厂商已发布搭载NPU算力的PC产品,联想已发布业内首款AIPC个人智能体。据Sigmaintell预测,2024年全球AI PC整机出货量将达到约1300万台,并在2027年整机出货量有望达1.5亿台,2024-2027年CAGR为125.97%;据IDC预测,2027年中国AI笔记本电脑和台式机市场销量有望达4281万台,2023-2027年CAGR为91.25%。我们认为,随着AIPC算力需求的提升及AIPC出货量逐渐升高,有望拉动NPU、存储、电池、散热等上游产业链环节的需求增长。 投资建议 推荐标的:瑞芯微、恒玄科技、奥海科技、水晶光电、东山精密。 受益标的:立讯精密、领益智造、鹏鼎控股、德赛电池、欣旺达、蓝思科技、赛腾股份、中石科技、思泉新材、安达智能、环旭电子、长盈精密、统联精密、韦尔股份、京东方A、蓝特光学、闻泰科技、华勤技术、珠海冠宇、春秋电子、领益智造、飞荣达、兆易创新、全志科技、歌尔股份、萤石网络、漫步者、创维数字。 风险提示:AI应用发展不及预期;AI技术创新不及预期;行业竞争加剧。 1、AI应用:产品百花齐放,访问量稳中有升逐渐普及 1.1、AI应用:通过AI大模型开发的应用产品,应用途径百花齐放 AI应用产品通过AI大模型开发而来,可满足消费者多样的需求。AI应用是在AI大模型的基础上,借助AI大模型开发的产品。AI应用产品从应用途径来看,可以分为AI聊天机器人、AI文本产品、AI图像、AI语音等应用途径,可满足消费者多样的需求,应用途径百花齐放。 1.2、AI聊天机器人:应用逐渐普及,访问量持续上升 AI聊天机器人可应用于多个领域,海内外厂商积极推出相关产品。2022年11月,美国AI公司OpenAI发布旗下AI聊天机器人程序ChatGPT,该程序基于大型语言模型GPT-3.5,是一种功能强大的自然语言处理技术,可以应用于多个领域,如智能客服、自然语言理解、智能写作、机器翻译等。随着ChatGPT的推出,在随后的时间内海内外厂商积极跟进,相继推出基于AI大模型的AI聊天机器人产品。 表1:随ChatGPT推出后,海内外厂商相继推出AI聊天机器人产品 AI聊天机器人应用逐渐普及,访问量持续上升。据SimilarWeb数据,2024年4月kimi总访问量达1957万次,MoM+60.67%,文心一言总访问量达1683万次,MoM+13.79%,国内部分AI聊天机器人总访问量达5333万次,MoM+37.29%。 图1:2024年4月国内部分AI聊天机器人总访问量达5333万次,访问量持续上升 1.3、AI文本产品:AI文本产品功能侧重不同,访问量稳中有升 AI文本产品功能侧重不同,访问量稳中有升。从AI文本产品的功能来看,NotionAI具有辅助写手(修改文本、生成文本、续写文本)、语气修改、文本处理、文字秘书等功能;秘塔写作猫具有智能文本纠错、改写润色、自动续写、智能配图等功能; Grammarly具有单词错误拼写纠正 、英语语法校正 、标点符号纠正等功能 ; LanguageTool具有语法检测、风格检测等功能。 2024M5 部分AI文本工具Web总访问量达2.47亿次,从 2023M12 到 2024M5 来看,部分AI文本工具Web月度总访问量稳中有升。 图2: 2023M12 - 2024M5 部分AI文本工具Web总访问量稳中有升 1.4、AI图像赛道:AI图像产品用途多样,月度总访问量维稳 AI图像产品用途多样,月度总访问量维稳。Canva具有海报、LOGO、简历等多场景图像设计功能,Fotor具有图片编辑、拼图等功能,可帮助使用者完成各种图片编辑需求,SeaArt可以生成各种风格和场景的图片,支持生成二次元、卡通、游戏、摄影等不同风格的图像。据SimilarWeb数据, 2024M5 部分AI图像工具Web总访问量达295万次,接近300万次。 图3:部分AI图像工具Web月度总访问量超过200万次 2、AI大模型:链接算力和应用的核心,向着多模态、端侧模 型发展 2.1、AI大模型:AI大模型是神经网络模型,是链接算力和应用的核心 AI大模型是具有数以亿计参数的神经网络模型,是链接底层算力和上层应用的重要一环。AI大模型通常指的是具有数以亿计参数的神经网络模型,它们可以在大规模数据集上学习复杂的表示和知识,从而实现高度自动化的智能功能;而从AI产业结构来看,据中商产业研究院,产业链上游为基础层,包括算力等,中游为算法和模型层,下游为应用层,大模型是链接上游算力和下游应用的核心。 表2:AI大模型具有大模型、深度、端到端、数据驱动等特点 图4:AI大模型是链接底层算力和上层应用的重要一环 2.2、海外大模型发展情况:向着多模态、端侧模型发展 2.2.1、OpenAI:已发布多模态大模型GPT-4o,向着多模态、端侧应用发展已发布多模态大模型GPT-4o,人机交互更接近人与人的自然交流。2024年5月14日,美国人工智能研究公司OpenAI推出新旗舰模型“GPT-4o”,其中“o”代表“omni”(是全面、全能的意思),该模型是一个多模态模型,可以支持文字、图像、语音和视频的输入和输出,甚至是GPT-5的一个未完成版。“GPT-4o”将向所有用户开放,同时语音延迟将大幅降低,能在232毫秒内回应音频输入,平均为320毫秒,此前使用语音模式与ChatGPT进行交流,平均延迟为2.8秒(GPT-3.5)和5.4秒(GPT-4)。 表3:OpenAI已发布多模态大模型GPT-4o,人机交互更接近人与人的自然交流 GPT-4o向着端侧应用发展。据钛媒体报道,在2024年5月OpenAI春季发布会上,OpenAI运用了大量的篇幅,去介绍GPT-4o在移动端与人类交互的先进程度; 同时,据21世纪经济报报道,在此次发布会上,OpenAI发布会呈现的新模型多基于手机端场景,并且IDC中国研究总监卢言霞表示,GPT-4o意味着大模型在端侧的落地更进一步。 2.2.2、Google:多模态大模型进一步拓展,拓展至200万tokens 多模态大模型进一步升级,推出Gemini 1.5 Pro。Google于2023年发布多模态大模型Gemini,2024年2月,Google发布了Gemini 1.5 Pro,Gemini 1.5 Pro是一个多模态模型,可以上传各种文件、图片、视频等文件,并最高支持100万tokens的上下文,2024年5月,Google突破上下文窗口限制,将Gemini 1.5 Pro的上下文窗口拓展至200万tokens。 表4:Google推出Gemini 1.5 Pro,多模态大模型进一步升级 2.2.3、Meta:发布多模态AI模型Chameleon,引领多模态革命 Meta发布多模态AI模型Chameleon,引领多模态革命。2024年5月,Meta团队发布了“混合模态”AI大模型Chameleon,最大特点在于采用统一的Transformer架构,将文本、图像和代码等不同模态的信息作为离散标记进行处理,与以往的模型不同,Chameleon摒弃了针对不同模态的单独编码器或解码器,通过“早期融合”方法将所有模态从一开始就投影到一个共同的表示空间中,实现了跨模态的无缝推理和生成,并刷新了当前的技术标准(SOTA)。 表5:Meta发布多模态AI模型Chameleon,引领多模态革命 2.3、国内大模型:正处于快速发展期,加速追赶海外大模型 国内大模型正处于快速发展期。自2022年11月30日ChatGPT发布以来,AI大模型在全球范围内掀起了有史以来规模最大的人工智能浪潮。国内学术和产业界在过去一年也有了实质性的突破,大致可以分为三个阶段:准备期(ChatGPT发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、快速发展期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。 图5:国内大模型目前正处于快速发展期 国内大模型发展迅速,持续追赶海外头部大模型。中文通用大模型综合性测评基准(SuperCLUE)是针对中文可用的通用大模型的一个测评基准,据SuperCLUE测试结果,海外大模型GPT-4 Turbo以79.13分的优势领跑基准测试,同时,国内大模型发展迅速,但与GPT-4仍存在差距,例如百度文心一言4.0、Baichuan3和GLM-4与GPT-4 Turbo均相差5分以上。 图6:国内大模型发展迅速,持续追赶海外头部大模型 3、AI硬件:支持AI大模型及AI应用的算力底座,向着高算 力发展 3.1、传统PC算力芯片公司:均推出搭载NPU的CPU,向高NPU算力迭代 2023年11月,英特尔推出酷睿Ultra(Meteor Lake)处理器,该处理器集成了专为AI负载设计的神经网络处理单元(NPU),其CPU+GPU+NPU的总算力可以达到34TOPs;2023年12月,AMD推出锐龙8040系列处理器,NPU算力达到约16TOPs,整体算力提升至39TOPs;2024年5月7日,苹果推出M4芯片,该处理器搭载16核神经网络引擎,其NPU性能达到38TOPs。 3.2、新兴PC算力芯片公司:高通入局,推出高算力处理器 2023年10月,高通推出骁龙X Elite芯片,其中NPU支持45TOPs算力,同时,凭借整合CPU、GPU、NPU等模块的高通AI引擎,高通AI引擎可提供的异构算力达到75TOPs;2024年4月,高通推出骁龙X Plus芯片,该芯片与骁龙X Elite集成同等45TOPs算力的NPU。 3.3、手机算力芯片公司:已推出支持终端运行AI大模型的SoC,向更高速运行端侧大模型迭代 2023年11月6日,联发科发布天玑9300芯片,该芯片集成第七代AI处理器APU 790,支持终端运行至高330亿参数的AI大语言模型;2024年5月7日,联发科发布天玑9300+芯片,该芯片同样搭载APU 790,可支持运行阿里云通义千问大模型、百川大模型、文心大模型等,同时,相较于天玑9300芯片,天玑9300+可实现更高速Llama2 70亿参数端侧大模型运行,速度达22tokens/秒;2023年10月,高通