您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:证券研究报告行业深度:边缘计算--始于AI,赋能应用 - 发现报告
当前位置:首页/行业研究/报告详情/

证券研究报告行业深度:边缘计算--始于AI,赋能应用

信息技术2023-05-21宋嘉吉、黄瀚、邵帅国盛证券李***
AI智能总结
查看更多
证券研究报告行业深度:边缘计算--始于AI,赋能应用

通信 边缘计算——始于AI,赋能应用 边缘侧是AI生态中最重要的组成部分之一。AI飞轮发展滚滚向前,从今年初GPT- 3.5惊艳世界,到5月14日OpenAI正式开启插件功能,我们见证了云端大模型 证券研究报告|行业深度 2023年05月21日 增持(维持) 的快速迭代与演化。当前时点,AI大模型已经站在了从“玩具”向“工具”快速 演化的关键迭代期。如何让大模型渗透进入各类垂直场景,如何更低成本的使用大模型,如何让更多场景与用户接触AI,成为了发展的下一个重点。在AI向实际场景落地时,边缘算力的重要性加速凸显,边缘算力在成本、时延、隐私上具有天然优势,也可以作为桥梁,预处理海量复杂需求,并将其导向大模型。边缘算力作为AI触及万千场景的血管地位加速明晰。之前,边缘侧设备以部署通信能力为主,当下,在以高通为代表的边缘巨头推动下,算力、AI能力等边缘基建正在加速推动,同时三大运营商的算力网络与边缘资源池体系,也为我国算力梯度分布奠定了雏形。展望未来,边缘算力将始于AI带来的需求提升,同时也将赋能应用,连接更多用户,加速AI发展与迭代。 行业走势 64% 48% 32% 16% 0% -16% -32% 通信沪深300 边缘算力的三大优势。边缘算力,通常指部署在设备本地的算力或者离用户距离 较近的数据中心中的算力。边缘算力相较于云端算力,拥有低成本、低时延、高 隐私三大特性。(1)低成本:当前主流的边缘算力平台主要采用高通主导下的ARM架构,相比于英伟达的复杂架构,ARM架构在小算力时拥有极低的单位成本,是降低开发与用户成本的必然选择。(2)低时延:边缘算力一般搭载在本地,无需将数据发送至云端并等待回传的时间,可以满足如自动驾驶,快速对话等对时延要求高的场景。(3)高隐私:边缘算力依靠设备本身搭载的算力或在用户自有服务器上的算力进行推理,可以实现数据不出用户管辖范围,对隐私的保护更好。 边缘算力的存在形式。当下边缘算力主要有两种存在模式,一种是设备本身搭载的算力,这类算力通常依托边缘处理芯片存在,边缘处理芯片包括了手机终端上的骁龙与苹果M平台,面向IOT设备的如高通8155芯片或者专为AI优化的 QCM8550芯片。通常,大单品采用直采芯片+定制PCB的形式进行开发,而中小厂商与细分垂直领域往往采购模组来满足算力需求。第二种算力存在形式是边缘资源池,通常由离用户较近的核心城市内的数据中心构成,或者由厂区,道路旁的小机柜、算力盒子提供算力。 边缘算力赋能万千应用。在生成式AI爆发前,边缘算力已经逐渐渗透进了部分商用场景,如手机云游戏、无人设备驾驶、自动视频识别等。如今随着MLC-LLM,谷歌模型体系等软件基建加速,特斯拉机器人为具身智能完成物理基建,在终端 设备上推理生成式模型,甚至让智能设备同物理世界自主交互的条件已经具备,未来,随着应用加速渗透、预处理模型需求爆发,以及边缘小模型推理,智能设备物理交互需求爆发。 “云—边”一体,共筑AI飞轮模型。“云—边”一体指云计算和边缘计算的有机结合。此前市场担心小模型对算力需求下降,但我们却认为这正是AI应用闭环的必由之路。类似于交通网络,光有干线是不够的,还需要无数省道、乡村小路通 往千家万户,汇聚而来的流量才能驱动干线不断升级。边缘侧需求的释放将开启“真AIOT”时代,或许这才能开启5G当初所提万物互联、算网一体的黄金时代。 投资建议:抓住边缘算力芯片与边缘算力承载平台两条主线。 边缘算力芯片:瑞芯微/全志科技/晶晨股份/翱捷科技/乐鑫科技。 边缘算力承载平台:美格智能/广和通/超讯通信/龙宇股份/移远通信/网宿科技。边缘算力运营商:中国移动/中国电信/中国联通。 风险提示:小模型推进不及预期,边缘算力发展不及预期。 2022-052022-092023-012023-05 作者 分析师宋嘉吉 执业证书编号:S0680519010002邮箱:songjiaji@gszq.com 分析师黄瀚 执业证书编号:S0680519050002邮箱:huanghan@gszq.com 分析师邵帅 执业证书编号:S0680522120003邮箱:shaoshuai@gszq.com 相关研究 1、《通信:具身智能——下一波人工智能浪潮》2023- 05-19 2、《通信:800GLPO:AI时代最具潜力的技术路线》 2023-05-16 3、《通信:算力——AI从玩具向工具的使能者》2023- 05-14 内容目录 1.投资要件4 2.模型由大到小,AI走向应用的快速路5 3.梯度分布,算力的终极呈现形式9 4.边缘算力,连接AI与用户的纽带16 5.应用曙光已现,期待AI飞轮下的百花齐放21 6.投资建议26 7.风险提示28 图表目录 图表2:DeepSpeed训练花费5 图表2:MLC项目概览6 图表3:Lora模型6 图表4:高通在手机上运行StableDiffusion7 图表5:高通全栈AI优化7 图表6:谷歌基于PaLM2的模型体系8 图表7:中科创达Rubik大模型8 图表8:不同制程手机芯片成本(单位:美元)9 图表9:核心数与算力关系曲线10 图表10:算力与网络的供需错配11 图表11:算力发展的驱动原因12 图表12:四类关键技术对算力的具体要求12 图表13:东数西算14 图表14:东数西算布局图14 图表15:中国移动算力网络15 图表16:英伟达自动驾驶平台16 图表17:苹果M2芯片16 图表18:高通8550物联网芯片性能17 图表19:高通8550物联网芯片架构17 图表20:瑞芯微边缘芯片产品17 图表21:翱捷科技蜂窝基带芯片17 图表22:石头扫地机器人搭载全志科技芯片18 图表23:MAXHUB视频会议采用瑞芯微芯片18 图表24:智能模组的发展历程18 图表25:美格智能SNM970模组19 图表26:兰州110千伏砂坪变多站融合数据中心20 图表27:自动驾驶芯片每秒识别帧率对比21 图表28:美格车规模组21 图表29:美格智能模组赋能“虎鲸Ⅲ”无人机22 图表30:美格智能智能零售解决方案22 图表31:启朔科技产品细节23 图表32:启朔科技合作伙伴23 图表33:斑马智行接入通义千问24 图表34:问界M9接入大模型24 图表35:手机上的“ChatGPT”24 图表36:Rewind应用25 图表37:特斯拉机器人最新进展26 图表38:边缘计算投资标的(Wind一致预期,除高通为亿美元外,其他总市值、净利润单位均为亿人民币)27 1.投资要件 当前市场普遍聚焦于云端算力发展,忽视了边缘算力在AI乃至社会数字化发展中的重要地位。随着AI大模型应用逐渐渗透进入千行百业和各类垂直细分场景,单纯的大规模计算中心提供的算力将不能满足多样化的AI运算需求。基于几点判断,我们认为边缘算力具备不可或缺性: 第一,未来随着计算芯片加速发展,单位算力成本中,电费与土地费用占比将愈发提升,算力成本将取决于智算中心的地理位置,以我国举例,未来算力成本较低的西部将是云端算力主要部署地。因此,大算力与低时延需求将出现错配。 第二,AI模型推理Token费用较贵,如果需要成熟商用,边缘预处理将是必须选项。通过边缘部署的算力,将用户的多样化需求进行本地的预处理,简单的需求直接利用本地模型和算力推理,复杂需求通过边缘算力预处理后,精简成最少的TOKEN发送至云端,从而能够最低成本的实现应用功能,加速商业化。同时,面向小算力时,ARM架构由于其架构简单,比英伟达复杂架构计算卡更具成本优势,也将加速边缘小算力的渗透速度。 最后,无论是对用户个人敏感数据进行推理,还是推理设计商业敏感数据,完全与云端隔绝的边缘算力,能为用户提供最好的数据安全保护。因此,从时延、成本、隐私三大方面来看,边缘算力未来算力体系的重要构成部分,也是AI需求连接万物的毛细血管。 当前市场普遍聚焦于边缘场景中的大单品逻辑,忽视了边缘生态的多样性。当前市场聚焦于智能音响,智能耳机等大单品及其部件,主要是其作为AI入口的逻辑更具备直接性。但我们认为,随着AI加速向边缘渗透,应用的形式将愈发多样,越来越多的中小厂商将参与到不同场景,不同细分领域的AI智能硬件开发中来。随着应用形式愈发多样,如何在海量不同设备上部署标准化的AI边缘算力将成为一个重要问题。我们判断,物联网模组将成为承载这类算力的重要形式。物联网模组集成了通信芯片与全球大厂的算力芯片,能为海量场景和中小厂商提供稳定的边缘通信能力和边缘算力,大大降低了中小开发者部署边缘算力的门槛和难度。AI时代,是万众创新的年代,海量的开发将来自中小开发者,而模组提供的算力,将成为边缘算力中的重要部分。 行业催化因素: 1.边缘小模型以及解决方案加速推进,模型蒸馏加速简化。 2.搭载边缘模型与边缘算力的智能设备快速放量。投资建议: 抓住边缘算力芯片与边缘算力承载平台两条主线。 边缘算力芯片:高通/瑞芯微/全志科技/晶晨股份/翱捷科技。边缘算力承载平台:美格智能/广和通/龙宇股份/网宿科技。边缘算力运营商:中国移动/中国电信/中国联通。 风险提示: 1.小模型推进不及预期。 2.边缘计算不及预期。 2.模型由大到小,AI走上应用的快速路 今年年初,随着Chatgpt的发布,以LLM模型为主导的生成式大模型高速发展。在Chatgpt之前,AI发展通常以面向细分行业的小模型为主,追求较小运行成本下的较快商业化。Chatgpt问世之后,证明了“野蛮”堆砌参数与算力的生成式模型之路是可以走通的,因此,短期内全球AI模型开发的风向转向了堆砌参数与算力的模式。 随着GPT-4的发布,标志大语言模型正式迈入了多模态时代,参数量近一步膨胀。4月份,OPENAI创始人SAMAltman在一场MIT举办的活动上表示,“未来的AI进展不会来自于让模型变得更大”,我们认为,这代表着OPENAI之后的努力将会更多的转向如何 让现有的大模型更好用,渗透进更多的场景。 从北美的趋势来看,当下,在大模型基础上,快速建立小模型生态,正是许多大模型龙头正在高速推进的发展方向。如何推动模型实现“人人可训,人人可用”已经成了海外大厂争相布局的方向。 4月12日,微软正式开源DeepSpeedchat训练模型,这个训练方式拥有三大核心优势,第一,简化ChatGPT类型模型的训练和强化推理体验,第二,DeepSpeed-RLHF模块,第三,DeepSpeed-RLHF系统。 基于这三大特性,DeepSpeed-HE比现有系统快15倍以上,使RLHF训练快速且经济实惠。例如,DeepSpeed-HE在Azure云上只需9小时即可训练一个OPT-13B模型,只需18小时即可训练一个OPT-30B模型。这两种训练分别花费不到300美元和600美元。此外,该系统可以支持超千亿参数的模型训练,并且增强了对于单张显卡的训练支持,仅凭单个GPU,DeepSpeed-HE就能支持训练超过130亿参数的模型。 图表1:DeepSpeed训练花费 GPUs OPT-67B OPT-13B OPT-30B OPT-66B 8xA100-40GB 5.7hours 10.8hours 1.85days NA 8xA100-80GB 4.1hours 9hours($290) 18hours($580) 2.1days($1620) 资料来源:微软,国盛证券研究所 如果说DeepSpeedchat是模型界迈向应用与生态建设的第一步,那么在�月初的几大变化,让我们更加坚信了,万物搭载模型,模型赋能万物的时代正在加速到来。 首先,便是知名华人AI研究者陈天奇牵头开发的MLC-LLM解决方案,MLCLLM为用户在各类硬件上原生部署任意大型语言模型提供了解决方案,可将大模型应用于移动端(例如iPhone)、消费级电脑端(例如Mac)和Web浏览器。 MLC的主要功能包括了: (1)支持不同型号的CPU、GPU以及