您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:电子行业2024年中期投资策略:从云到端,AI产业的新范式 - 发现报告
当前位置:首页/行业研究/报告详情/

电子行业2024年中期投资策略:从云到端,AI产业的新范式

电子设备2024-06-18方竞民生证券见***
电子行业2024年中期投资策略:从云到端,AI产业的新范式

从云到端,AI产业的新范式 ——电子行业2024年中期投资策略 电子首席方竞 01 证券研究报告*请务必阅读最后一页免责声明 证券研究报告 2024年06月18日 *请务必阅读最后一页免责声明 核心观点:AI产业的新范式 一、模型变革,云端融合为趋势。近年来生成式AI步入快速发展期,开源及垂直大模型百花齐放。而今年以来,最大的变革则是端侧模型的兴起,相较云侧模型,端侧模型在时延、隐私、个性化方面具备优势。各大厂商亦纷纷推出AI终端,云端融合成为产业发展的下一趋势。 二、云端变革,GB200解决互联瓶颈。当下AI产业发展和核心矛盾,是日益增长的应用+终端的需求,和算力本身增速瓶颈之间的矛盾。 当前全球AI芯片竞争日趋白热化。云厂商为了降低资本开支,纷纷推出自研AI加速卡计划。而GB200NVL72的推出,显著拉开了英伟达与其竞争对手的差距。英伟达通过架构的创新,解决了GPU之间互联带宽的问题,实现了最多576张卡1.8TB/s的双向互联带宽,显著领先其他竞争对手。Blackwell平台给服务器上游的光模块和PCB都带来了价值量的提升,而GB200的Rack架构的主要价值增量则在铜互连、电源等环节,尤其是铜互连的从零到一,更值得关注。 三、供应链变革:全面升级的算力产业链。自然语言的运算、图形的处理需要大量存储器协助运算及存储,并且AI服务器对数据传输速率有着更高要求,催生了存储及PCB价值量的增长。1)存储:HBM是目前用于打破“内存墙”的重要技术之一。此外,DDR5渗透率提升,CXL、MCR等内容技术亦是行业发展的重心。2)PCB:服务器PCB要求高层数、高密度及高传输速率。AI服务器的OAM板及UBB板,最高使用到M7材料,20-30层的高阶HDI。单台AI服务器PCB价值量可达1万元。此外,交换机,电源PCB也有相应的价值量提升。 为满足AI服务器的旺盛需求,上游封测及制造的工艺技术革新及产能扩张也尤为重要。1)封测:算力芯片的主流封装方案为COWOS芯片+HBM显存。设备环节考量3D堆叠及测试设备的工艺能力,材料环节则看重轻薄化、高集成度以及导热性。2)制造:台积电预计到2030年,半导体市场规模将达到1万亿美金,其中高性能计算(HPC)占比40%,将成为第一大细分市场。 四、端侧变革:身边的算力终端。AI云端融合趋势下,各大厂商发力AI终端,迎接下一波成长。我们将AI终端的定义提炼为三要素:算力、模型、生态。其中,算力和模型是AI终端的必要条件,算力是硬件基础,通过NPU执行神经网络运算,实现终端推理;而模型的减枝蒸馏,则可有效压缩模型参数,减少推理时间,降低端侧负载。上述两大要素决定了终端的硬实力。相较前者,生态需要长时间打磨,且需产业链厂商齐心协力配合,开发应用,挖掘垂直场景。生态建设代表了终端的软实力。 我们认为生态的建设和完善,会决定AI终端的成败。而这一过程当中位居核心的是品牌厂商。苹果则得益于其多年的积累,及消费市场的号召力,更有机会打造出完备的生态。此外,端侧供应链的PCB、散热、光学等环节同样值得重视。 投资建议:标的方面,建议关注:1)云端:工业富联、寒武纪、沪电股份、胜宏科技、澜起科技、沃尔核材;2)供应链:中芯国际、华虹公 司、ASMPT、长川科技、兴森科技;3)终端:联想集团、小米集团、立讯精密、鹏鼎控股、领益智造、蓝思科技、华勤技术、水晶光电。 风险提示:下游需求不及预期;大模型等发展不及预期;晶圆厂扩产不及预期;新产品研发进展不及预期。 目录 01 02 03 04 05 06 模型变革:云端融合为趋势 CONTENTS 云端变革:GB200解决互联瓶颈 供应链变革:全面升级的算力产业链端侧变革:身边的算力终端 投资建议 风险提示 01. 模型变革:云端融合为趋势 证券研究报告 4*请务必阅读最后一页免责声明 近年来生成式AI步入快速发展期。1950年开始生成式AI出现早期萌芽,此后AIGC处于漫长的沉淀积累期,决策式AI占据主流。 随着2014年生成式对抗网络等深度学习算法的提出,AIGC步入快速发展期,生成内容的丰富度和精度都有了较大的提升。 决策式AI时代 生成式AI快速发展期 基于规则 生成文法 ·以语言学为基础的符号主义 1950 基于统计 ERNIE3.0 机器学习 ·人工提取自然语言特征 ·简单机器统计算法 深度学习 •神经网络 RNN,CNN,GAN 2014年,lanJ.Goodfellow提出生成式对抗网络GAN •Transformer 并行计算 进入大语言模型时代 仅解码器 LaMDA PaLM GeminiGemini1.5 PaLM2Sora GPT-1 GPT-2 GPT-3 Chat-GPT 1980 2006 2014 2017 2018 2019 GPT-4 2024 GPT-4o 1957年,第一支由计算机创作的弦乐四重 奏《依利亚克80年代中期,IBM 组曲》完成创造语音控制打字机Tangora 2007年,世界第一部完全由人工智能创作的小说《1TheRoad》问世 BERT 2012年,微软展示全自动同声传译系统,可将英文演讲者的内容自动翻译成中文语音 2020 ALBERTRoBERTaERNIE 2021 2022 2023 生成式AI处于沉淀积累期 仅编码器 编码解码 BART T5 Switch 从GPT-1到GPT-5,GPT模型的智能化程度不断提升。ChatGPT在拥有3000亿单词的语料基础上预训练出拥有1750亿个参数的模型(GPT-2仅有15亿参数),预训练数据量从5GB增加到45TB。 开源大模型 2023 2月21日 Gemma3 2024 4月12日 360智脑7B 4月18日 Llama3 闭源大模型 20232024 1.3 大模型发展趋势:垂直大模型百花齐放 在AI大模型加持下给垂直领域带来革命性的新体验: 中科创达×PC:中科创达的“魔方法律助手”端侧智能应用正式与联想AIPC个人智能体“联想小天”实现无缝对接。中科创达魔方法律助手是一款基于法律大模型精心打造的个人AI专属法律顾问。这款助手通过深入分析专业法律案例问答和真实案例数据库,结合法律原理和法学逻辑教材,成功构建了卓越的法言法语理解能力、法律意图识别能力、法律逻辑推理能力以及法律文本生成能力。 通义千问×教育:AI教育科技公司精准学基于开源通义千问大模型训练,打造了融合文本、语音及情绪的实时多模态教育垂直模型“心流知镜”,该模型精通中小学主要教材、名师解题方法,可提供实时、低延迟的互动辅学能力,让学生学习变得轻松、高效。据悉,精准学将于6月发布旗下首个搭载该模型的AI辅学机。 图:中科创达的“魔方法律助手”图:精准学多模态教育垂直模型“心流知镜” AI的视频生成能力可以为影视制作行业显著降本增效。国内首部由文生视频创作的AI动画片《千秋诗颂》在2024年2月26日开播, AI的文生视频功能已经在B端逐步落地。 Sora大幅提升了AI的文生视频功能。2024年2月16日,OpenAI推出Sora大模型,作为OpenAI的第一款文生视频大模型,其能力相较此前的文生视频模型展现出压倒性的优势。Sora强大之处表现在其能够生成最长60秒的视频,视频的视角或镜头能够更为流畅地切换,更强的细节展现能力以及对真实世界更好的理解能力。 Runway MorphStudio 视角/镜头切换的能力更强 图:文生视频案例 图:传统文生视频和Sora的能力差异 Sora 更优秀的细节展现 对文字及真实世界展现出更强的理解能力 Pika StableVideoDiffusion 4秒左右提升至60秒 AI的长文本分析能力可以在短时间内阅读大量文本内容,并进行快速分析反馈。目前国内常用的长文本分析模型包括ChatGPT、同意前文、Kimi、豆包等,可以帮助使用者节省大量时间成本。 2024年2月,谷歌发布了Gemini1.5模型。相较于此前Gemini1.0Pro版本,Gemini1.5pro将上下文处理能提从3.2万Tokens提升至100万以上,处理能力涵盖包括1小时的视频、11小时的音频、超过3万行代码或超过70万字的代码库。 图:Kimi长文本分析案例 表:谷歌Gemini模型家族能力总结图:Gemini1.5模型可以突破100万tokens上下文检索 模型 上下文窗口限制 关键功能 Gemini1.0Ultra 最多100万个标记 关于图像进行对话分析、分类和总结提示中给定的大量内容-处理高度复杂的任务,如编码、逻辑推理、遵循细微的说明以及创造性协作 Gemini1.0Pro 32K个标记 在长文本块中以99%的成功率找到特定信息高水平的“上下文内学习”技能-32K个标记的上下文窗口容量 Gemini1.5Pro 100万个标记以上 “上下文内学习”技能高达100万个标记的上下文窗口容量-分析、分类和总结提示中给定的大量内容 GeminiNano 32K个标记 文本摘要根据上下文的智能回复高级校对和语法纠正独立的无需互联网连接的功能,提高电池寿命 云端推理成本与终端用户访问量正相关。目前,云端是生成式AI模型部署的主要方式,用户可以通过网页对模型进行访问或通过API接口直接调用,向云端服务器发出请求,在云端收到请求后,会调用训练完成的模型对需求进行处理并返回结果。对比训练与推理的成本,推理端成本与终端用户访问量正相关,在云端进行模型推理的成本极高,这将影响AI应用的落地及规模化扩展。 云端推理受限于算力瓶颈,响应速度较慢。随着用户数量的不断增加,ChatGPT服务器被挤爆的情况时有发生。23年11月8日晚间,ChatGPT突现重大故障,导致该应用无法使用。当时的用户页面显示“ChatGPT目前已满负荷”。此外,这一故障也影响了OpenAI的API(应用程序设计页面)服务,该服务有超过200万开发人员使用。 图:ChatGPT月访问量进展 图:ChatGPT和其API接口出现“严重停机” (纵轴为错误报告份数,单位:份) 1.5 端侧:成本、能耗、时延、隐私安全、个性化方面具备优势 计算能力 云端模型通常具有更强的计算资源,能够处理 更复杂的任务 容易更新和维护 云模型由服务提供商维护,用户无需担心软件和模型的更新问题 可扩展性 根据需要轻松扩展计算资源,适应不同的业务需求 隐私保护 本地处理数据可以更好地保护用户隐私,数据 不需要传输到云端服务器 1 定制化 利用客户个性化数据训练,定制化程度更高, 贴合用户偏好 2 离线使用 本地模型允许在没有互联网连接的情况下使用AI 功能,增加了应用的灵活性 3 实时响应 数据在设备上处理,可以减少到云服务器的 往返延迟,提供更快的响应时间 1 2 3 4 端侧模型优势云端模型 混合AI为大趋势:可结合端侧模型与云端模型的优势,在一般场景下使用端侧模型,保障数据安全和快速相应;在处理复杂问题时可灵活调用云端模型,实现端云混合 云厂商 7月19日 Llama270-700亿 12月6日 GenimiNano18亿、32.5亿 12月13日Phi-2语言模型 27亿 4月12日 360智脑-7B 70亿 4月18日Llama3-8B 80亿 4月23日 商汤SenseChat-Lite18亿 5月14日Gpt-4o 注重端侧多模态 6月7日 阿里通义千问2 70亿 品牌商 9月4日 11月16日 11月16日 1月10日 2月22日 2月26日4月18日 4月24日 盘古大模型 AndesGPT 蓝心大模型 魔法大模型 MiLM-6B AIHub 联想天禧 OpenELM 2.7 100亿、380亿、710亿、 1000亿 70亿 130亿 70亿 60亿 70亿 70亿 亿、4.5亿、11 亿、30亿 证券研究报告 资料来源:Meta