您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[光大证券]:TMT行业AI算力产业链跟踪报告(二):AIPC、AI手机和AI处理器密集发布,边缘AI成硬件厂商布局热点 - 发现报告
当前位置:首页/行业研究/报告详情/

TMT行业AI算力产业链跟踪报告(二):AIPC、AI手机和AI处理器密集发布,边缘AI成硬件厂商布局热点

信息技术2023-10-27光大证券杨***
TMT行业AI算力产业链跟踪报告(二):AIPC、AI手机和AI处理器密集发布,边缘AI成硬件厂商布局热点

1、科技厂商积极布局边缘AI,AIPC和AI手机或成未来消费电子新趋势 AIGC科技浪潮下,全球科技厂商均积极投入AI算力、AI基础大模型和AI应用软件等产业链领域,但生成式AI的商业落地仍面临难以个性化定制、安全和隐私风险、算力成本高昂、性能表现不及预期、交互能力弱等阻碍。将生成式AI由云端延伸至边缘侧,使得AI技术与PC、手机等终端硬件设备紧密结合,可以改善或者解决以上AI发展的问题,推动AI商业化进程,并有望引领新一轮消费电子行业交互模型的转型。 表1:AI时代,AIPC相比传统PC,在众多领域具备优势 联想、微软等智能终端厂商和高通、英特尔、英伟达、AMD等芯片厂商纷纷针对边缘AI积极开展布局,近两年AIPC、AI手机及集成AI能力的处理器芯片有望密集发布和量产出货。 表2:科技巨头在边缘AI领域的布局汇总 2、硬件厂商密集发布AI智能终端产品和AI处理器 2.1、联想:提出企业级和个人大模型的理念,发布联想首款AIPC产品 23年10月24日,以“AI for All”为主题的第九届联想创新科技大会Lenovo Tech World2023启幕。联想提出“三个大模型”框架的AI版图,并发布其首个AIPC产品,并携手英伟达、AMD、英特尔、微软等生态伙伴展示了一系列AI新技术和基础设施规划。 提出“三个大模型”框架,联想剑指“企业级大模型”和“个人大模型”。虽然科技领域大力发展公共通用大模型,但其存在面临数据安全和隐私泄露风险、难以个性化定制、通用训练推理成本高等问题,因此联想提出除“公共大模型”外,还需发展布局在企业端的“企业级私域大模型”和在用户PC、智能手机上运行的“个人大模型”。企业级大模型在使用互联网通用数据训练后,可再接入企业私有数据库,集成出包含企业行业知识和运行流程的向量数据集,最终实现与企业原有ERP、CRM等业务子系统的融合打通。个人大模型则对应AIPC等边缘AI产品,通过裁剪和量化等方式删减通用大模型中与个人使用无关的结构,实现把高性能的小模型融入终端设备,让每个用户拥有自己的个性化大模型。 图1:联想提出企业级和个人级“AITwin”概念 图2:市场对AI模型具备私人、定制、本地化、智能交互等需求 针对企业级大模型,联想携手英伟达推出混合人工智能解决方案。混合AI解决方案是在英伟达AIFoundation云服务的基础上定制AI大模型,由联想提供包含云端、网络、边缘端和用户端的完全集成系统,为企业定制并部署专门的生成式AI应用。联想CEO杨元庆表示,考虑到企业保护商业机密的需求,本地部署的未来企业级大模型将与公有云部署的公共大模型呈现混合部署的形态。 联想发布其首款AIPC产品,提出“每人都将拥有自己的AI大模型”愿景。个人大模型的主要优势在于可以利用PC和智能手机中的本地知识库,结合用户个性化信息和偏好,利用个人数据进行AI模型的推理和运行,除非用户授权,否则用户个人数据不存在被泄露和共享到公有云的风险。这种本地运行的小型化AI模型,可以帮助用户实现修图、智能剪辑、撰写文档等功能,甚至根据用户思维模式发现发任务并自主解决,因此PC可以作为个人工作助手,甚至向数字延伸作为用户的AITwin。 本地化个人大模型的发展趋势,有望推动NPU和ARM架构需求增长。本地运行小型化AI模型的趋势,会提升对本地设备的算力要求,目前AIPC主要采用AI大模型压缩技术,未来随着AIPC趋势和AI应用加速落地,NPU等AI专用硬件加速器将更多被嵌入终端设备中,推动AI算力性能持续提升。同时,集成NPU也使PCAI运算重心发生变化,部分CPU/GPU工作将由NPU实现,此时ARM架构CPU+GPU+NPU的集成可能会使AI任务处理的性能、功耗和能效比更优。AIPC等边缘AI产品出现,有助于ARM架构在PC领域对x86架构的统治地位重新发起挑战。 2.2、高通:为PC和手机芯片注入AI能力,引领边缘端设备的AI变革 23年10月24日,高通在2023骁龙峰会上分别推出针对PC设备的骁龙XElite芯片和针对智能手机的骁龙8Gen3平台,在兼具高性能和低功耗外,着力提升其AI能力。终端芯片实现对AI大模型和相关应用功能的集成,高通两款新芯片产品有望带领手机和PC硬件变革,进入现代人工智能时代。 2.2.1、PC芯片:骁龙X Elite配备NPU,AI性能为竞争对手4.5+倍 骁龙X Elite作为高通首款推出的“骁龙X系列平台”PC处理器,是一个集成OryonCPU、AdrendoGPU和专用神经处理单元(NPU)的系统级芯片。NPU模块的加入,将大幅提升PC在面对AI任务的处理速度,在边缘设备端为客户提供加速的用户体验。SoC规格参数上,骁龙XElite的CPU包括12个高性能核心,并分布于主要、性能和效率三个集群中发挥作用,其中全核主频最高可达3.8GHz,单核、双核加速频率则高达4.3GHz,并配备64GB的LPDDR5x内存,可提供136GB/s的内存带宽。 CPU可实现以极低功耗达成高性能水平。高通基于Arm指令集自行设计Oryon架构,采用 4nm 制程工艺,在保持RISC指令集效率优势的情况下,实现性能方面对英特尔和苹果芯片的赶超。骁龙XElite在峰值功率下性能,相比英特尔酷睿i7-13800H提升60%,而同性能下功耗减少65%;在Geekbench 6中,骁龙XElite多线程性能超过苹果M2芯片50%,单线程性能也超过英特尔i9-13980HX芯片,并在同峰值性能下功耗节省70%。 NPU的AI处理能力达同行4.5倍,支持百亿参数级大型语言模型。通过集成专用NPU,骁龙XElite的AI持续运行速度达45TOPS,并支持INT4精度,异构AI引擎性能最高达75TOPS,是当前竞争对手的4.5倍以上(AMD RyzenAI为10TOPS),因而支持在终端设备上推理、运行高达130+亿参数的大型语言模型,或以每秒30tokens运行速度支撑70亿参数的较小AI模型。 图3:高通针对PC设备发布骁龙XElite芯片 图4:高通骁龙XEliteAI峰值算力高达45TOPS 从AI大模型和PC硬件端分别建立生态合作。AI大模型方面,高通同微软、Meta、谷歌、OpenAI、百度等建立合作关系,实现用户在PC产品上运行OpenAI Whisper、MetaLlama、百度Ernie 3.5E等模型。同时高通骁龙XElite根据联想、惠普和微软提供三个参考设计,首批搭载XElite的PC产品预计于2024年中期上市。 2.2.2、智能手机芯片:发布首个针对生成式AI打造的移动平台骁龙8Gen3 骁龙8Gen3处理器是高通首款专为生成式AI打造的移动平台。骁龙8Gen3采用 4nm 制程工艺,同时集成KryoCPU+AdrenoGPU+NPU,配备X75 5G调制调解器、LPDDR5XRAM、Wi-Fi7、UFS4.0等。规格参数上,CPU最高频率为3.3GHz,性能提升30%,能效提升20%;GPU性能提升25%,能效提升25%; NPU方面,帮助AI性能提升98%,能效提升40%。 图5:高通针对智能手机发布骁龙8Gen3处理器 NPUAI引擎为移动处理器注入AI能力。NPU支持下,骁龙8 Gen 3平台帮助用户在AIGC技术下生成内容和提高生产力,上市后将支持包括微软、Meta、OpenAI、百度等20+种AI大模型使用,实现1秒内通过StableDiffusion生成1张图像。除AI大模型外,骁龙8 Gen 3注重增强AI相机能力,具备从图像中删除特定对象、生成虚拟背景、增强图像特定部分、拍摄HDR照片等功能。 小米获得高通骁龙8 Gen 3首发权。搭载高通骁龙8 Gen 3的首批厂商包括三星、小米、OPPO、vivo、荣耀、华硕、蔚来、红米、一加、真我、iQOO、魅族、努比亚、红魔和中兴。其中,小米总裁卢伟冰在高通骁龙峰会上,宣布小米14将首发搭载骁龙8 Gen 3处理器,并于23年10月26日晚正式发布。据介绍,搭载骁龙8 Gen 3处理器的小米14预计在AI性能和综合能效均有较大产品升级:性能方面,小米同高通深度合作“性能规划设计”专项,联合落地60余项硬件需求,预计小米14将具备优秀的端侧AI性能;能效方面,小米14在《原神》持续测试中,可达到平均59.39帧的表现,最高温度只有43.2°C,功耗相比上一代降低10.6%。在骁龙8 Gen3处理器加持下,公司看好小米14出货前景,卢伟冰表示“小米14对高通骁龙8 Gen 3处理器的首批订货量是上一代的2倍”。 图6:小米14将全球首发搭载高通骁龙8Gen3平台 图7:小米14《原神》测试,性能平均59.39帧,最高温度43.2℃ 2.3、英特尔:MeteorLake处理器集成NPU,帮助PC产品向AI转型 23年9月20日,英特尔在创新活动上公布最新MeteorLake处理器。它首次采用英特尔4制程工艺,并利用极紫外光刻技术(EUV),实现能效的优化;架构层面增加“低功耗岛能效核”,通过Foveros 3D先进封装技术,实现分离式模块架构;最亮眼的是首次在PC处理器中内置神经网络处理器(NPU),AIPC有望帮助PC产品迎来新拐点。 先进Foveros 3D封装技术,打造分离式模块架构。MeteorLake处理器被分成计算、IO、SoC和图形模块四大功能分区,并由性能核、能效核和低功耗能效核打造3D的高性能混合架构,新架构实现了1)出色的能效比;2)不同模块相对分离,仅CPU模块需要采用最先进制程,其他模块可采用更成熟的制程,有利于成本降低;3)分离式架构可以使得模块组合更灵活。 表3:英特尔MeteorLake处理器采取分离式模块架构,各模块可采用不同制程 SoC模块集成NPU,助力AI算力和AI应用开发。英特尔首次在桌面端处理器集成NPU,并将NPU与处理器内所有计算引擎的AI功能结合,有效提升PC运行AI功能的能效,并接入OpenVINO等标准化程序接口,方便后续AI功能和应用的开发。英特尔NPU采用双神经计算引擎架构,既可以共同处理同一负载,也可以分别处理不同负载。CPU+GPU+NPU的组合,不同AI任务可以灵活调度不同模块,这在兼顾能耗的情况下有效提升能效。 表4:增加NPU模块,可以有效提升能效表现(面对同一AI负载情况下) Meteor Lake硬件升级外,英特尔上线开发者云平台建设生态。英特尔开发者云平台提供最新的英特尔技术和工具,帮助AI应用的快速构建、开发和部署。英特尔具体提供以下四个方面的服务:1)AI模型库,英特尔提供丰富的预训练AI大模型和数据集,帮助客户快速二次开发以节约成本和时间;2)AI工作流,提供一站式AI开发环境,提供涉及AI项目开发全流程的工具帮助;3)AI服务,提供一系列AI云服务,涵盖自然语言理解、图像识别、语音识别、知识图谱等功能,开发者可通过API或SDK将已有功能集成到自己系统中;4)AI社区,打造可供交流的学习平台,包括论坛、博客、视频、教程等板块。 2.4、谷歌手机芯片TensorG3注重增强AI性能,微软下一代Surface处理器将集成NPU模块 谷歌23年10月4日晚发布新一代旗舰手机Pixel 8和Pixel 8Pro,其全新定制的TensorG3芯片组成为最大亮点,进一步提升设备可支持的AI功能表现。 谷歌TensorG3采用三星 4nm 制程工艺,搭载“1+4+4”九个CPU核心,同时其集成的张量处理单元(TPU)性能大幅提升,Pixel 8设备内可支持的机器学习模型数量是Pixel 6系列的两倍,支撑的生成式AI模型的计算量是Pixel 7系列设备可支持的最大模型的150倍。最新Pixel 8Pro手机成为谷歌首款可在手机终端设备上运行Google生成式AI基础大模型的智能手机,Pixel 8上模型的运行和推理是云端通用模型的简化版本。 表5:GoogleTensor系列芯片性能比较 T