事件:2024年1月9日-12日,美国消费电子展览会CES 2024于美国拉斯维加斯召开,生成式AI成为大会核心,以AI PC为代表的AI+终端抢占C位。 AI终端处理器:芯片巨头角逐端侧AI,英伟达深耕GPU显卡,英特尔、AMD和高通的AI PC处理器算力有望持续升级。芯片厂商竞相发布AIPC处理器新品或未来产品路线图,我们判断PC端侧的算力仍具较大提升空间,搭载算力更强NPU的PC处理器蓄势待发、预计24年内落地。1)英伟达:深耕消费级GPU显卡以支持端侧AI任务,硬件端发布3款“Super”版本RTX40系列GPU,并同PCOEM厂商合作发布RTXAIPC终端;生态方面,更新端侧AI开发套件并发布AI赋能实例,软硬结合布局PC侧AI生态;2)英特尔:CES上仅发布3款传统PC处理器,但展示 23M12 发布的酷睿Ultra处理器实机AI表现,并预告未来AI PC处理器路线图,待出的Arrow Lake和Lunar Lake将在桌面端和轻薄本上补齐英特尔的AIPC产品线;3)AMD:AIPC处理器布局涉及移动端的Ryzen8040系列和桌面端的Ryzen 8000G系列,Ryzen8040在CES的AI首秀表现优异,未来AMD仍有新架构(Strix Point)处理器蓄势待发;4)高通:实机展示 23M10 发布的骁龙XElite的AI能力,宣布合作Microsoft Copilot; 除AIPC外,高通也深耕AI汽车计算平台和VR/AR芯片。 AIPC:AIPC成为最受瞩目的AI+终端,厂商注重硬件算力提升和应用布局,联想和微软担当AI PC引领者。通过比较各AIPC终端新品的硬件配置、软件生态、AI应用等,我们判断当前PC处于具备一定AI本地推理能力的AI Ready阶段,24H1将推出搭载本地大模型的AI PC产品,逐步实现向AI On阶段的过渡,主要系①PC硬件多搭载英特尔酷睿Ultra处理器,AI算力仍具提升空间;②软硬件生态仍待打通;③多为轻量级AI应用,而联想AINOW智能助手是少有具备AIOn特征的应用。横向比较发现,1)联想成为AIPC趋势引领者。硬件方面CES发布十余款AIPC新品;软件生态方面,AI NOW智能助手驱动联想加速向AI On PC迈进;2)微软凭借Copilot应用,目标牵头软硬件集成。微软Copilot已集成150+AI应用,驱动硬件厂商增设Copilot专有启动按键;3)其他终端厂商,如三星、华硕、惠普和戴尔等均推出AIPC新品,但AI应用相对轻量级,大多设备处于AIReady阶段。 AI汽车:生成式AI融入智能车舱系统,车内AI助理类应用出现。1)芯片巨头发力AI+汽车领域。其中英伟达DRIVE Thor和DRIVE Orin车载计算平台聚焦自动驾驶功能,高通发布最新的数字座舱先进技术、强调生成式AI赋能智能座舱,英特尔进军汽车AI芯片市场、利用AIPC技术提供车载AI功能,AMD发布两款车规级芯片。2)车厂竞相发布车载AI智能助手,智能座舱成热点。奔驰、宝马和大众均发布AI助手,目标通过高个性化和强人机交互实现差异化竞争。 AI其他终端:AI能力融入手机和智能家居等领域,助力性能升级和个性化水平提升。手机、智能家居和机器人也成为生成式AI的落地场景。 投资建议:CES大会作为全球科技风向标,印证AI+终端已成为主流科技趋势。 1)芯片厂商:AI芯片厂商竞相发力PC、手机和汽车等边缘端芯片,市场前景广阔,建议关注英伟达(NVDA.O)、AMD(AMD.O)、英特尔(INTC.O)、高通 (QCOM.O);2)PC终端厂商:PC适配生成式AI丰富应用场景,软硬件生态齐发力下,落地进展较快,24-25年PC换机需求有望受AI PC提振,且后续存在多轮AIPC落地的情绪催化,推荐联想集团(0992.HK),建议关注微软(MSFT.O)、戴尔科技(DELL.N)、惠普(HPQ.N);3)Arm架构有望乘边缘AI东风,提升在PC领域的市场占有率,建议关注ARM(ARM.O)。 风险分析:技术研发进展不及预期;消费电子市场需求复苏不及预期;AI商业化进展不及预期;国内外政策风险;宏观经济下行压力的风险。 1、生成式AI席卷CES,以AIPC为代表的AI+终端抢占C位 2024年美国拉斯维加斯消费电子展览会CES 2024在1月9日至1月12日举行,主题为“All Together,All AI”,随着疫情消散和生成式AI的热潮,本次CES非常火热,超过4000家企业参展,线下报名参会人数超过13万。 CES作为科技厂商盛会,芯片厂商、汽车厂商、XR(包含空间计算)厂商、机器人公司、显示和家电巨头、智能家居公司和各类前沿硬件公司均发布最新产品和技术。与往届CES对比,生成式AI遍布本届CES2024展会的各角落,形成 ①芯片厂商聚焦端侧AI芯片、②生成式AI技术席卷各类终端两个主流趋势。 本报告深入分析芯片厂商布局和AI终端新品表现,分别对AI终端产品的功能作用、发展趋势和落地进展做出判断;同时对于最受关注AI终端产品——AIPC,细致梳理芯片、硬件和软件生态的进展以及未来产品规划,判断24年内AI PC的落地节奏。 2、芯片巨头角逐端侧AI,英伟达深耕GPU显卡,英特尔、AMD和高通的AI PC处理器算力有望持续升级 此次CES 2024,芯片巨头英特尔、英伟达、AMD和高通竞相发布新品,聚焦PC芯片领域,除了传统PC芯片的性能迭代外,也公布其AIPC处理器新品和未来产品路线图,以AIPC处理器为代表的端侧芯片成为芯片厂商的角逐热点。 PC端侧的算力仍具较大提升空间,搭载算力更强的NPU的PC处理器蓄势待发、预计24年内落地。比较CES2024上AIPC处理器新品的性能,NPU算力仍偏低;综合考虑各厂商的后续待出产品,除英伟达深耕GPU显卡以支持AI任务外,英特尔、AMD和高通均将在24年内推出搭载更高算力NPU的PC处理器,未来AIPC将支持复杂度更高的AI应用和AI大模型。 图1:各芯片巨头AIPC处理器的产品迭代汇总图 2.1、英伟达:RTX 40系列迎来“SUPER”升级,围绕GPU算力生态积极布局PC端侧 在CES 2024大会上,英伟达作为PC独显的龙头厂商,继续增强其独显GPU的性能表现,并依托GPU布局AI PC生态:1)发布GeForce RTX 40系列“SUPER”版本的三款芯片;2)宣布与OEM厂商合作推出RTX系列笔记本电脑,未来多款PC均为“开箱即用”的AIPC产品;3)开发和更新了一系列AI开发套件和多种应用场景的AI赋能实例,强化AI生态布局。 2.1.1、RTX 40 SUPER系列GPU推出,“加量降价”为AI PC注入更强算力 RTX 40 SUPER系列包括GeForce RTX 4080 SUPER、GeForce RTX 4070 Ti SUPER和GeForce RTX 4070 SUPER显卡三款产品,对比前代产品在AI性能和光追性能方面都有所提升。其中旗舰产品RTX 4080 SUPER在DLSS模式下对比RTX3080 Ti有两倍的速度提升,游戏性能表现仅次于GeForce RTX 4090。 SUPER系列为PC带来强大AI算力,可支持生成式AI应用。一方面,GeForce RTX 4070 SUPER和GeForce RTX 4070 Ti SUPER在常规的游戏表现上,同时实现速度加速和功耗节省;另一方面,RTX 4080 SUPER则强调对生成式AI应用和程序的支持。相比RTX 4080,RTX 4080 SUPER具有更高的CUDA核心数,同时Tensor核心算力高达836 AI TOPS,算力相较RTX 3080 Ti有近3倍提升,在Stable Diffusion XL中的图片生成速度快1.7倍,StableVideo Diffusion中的视频生成速度快1.5倍,AI性能显著增强。 表1:RTX 40 SUPER系列与RTX 40系列对比,均实现“加量降价”或“加量不加价” SUPER系列将全面替代RTX 4070和4080系列产品,提升性价比。产品定位和售价方面,产业消息称英伟达已确认停产RTX 4080和4070 Ti显卡,因此RTX 4080 SUPER和RTX 4070 Ti SUPER将彻底取代RTX 4080和RTX 4070 Ti。价格上看,RTX 4080 SUPER售价999美元,对比RTX 4080下降200美元,其他SUPER系列显卡售价均保持与对标产品相同,实现性价比的提升。 2.1.2、合作PCOEM推出RTXAIPC,具备支撑AI应用的能力 英伟达将与OEM厂商合作推出RTX AI笔记本电脑。面对AI PC的火爆趋势,英伟达宣布将配备GeForce RTX 40系列显卡到一系列PC中,与OEM厂商打造RTX AI笔记本电脑。依托英伟达GPU显卡的大算力,RTX AI PC相比NPU可提升20到60倍AI性能,以及体验众多开箱即用的生成式AI功能和应用。英伟达合作OEM厂商包括宏碁、华硕、戴尔、惠普、联想、微星、雷蛇、三星等公司,预计将在24年1月开始陆续出货。 图2:英伟达合作OEM厂商,将推出一系列RTXAIPC产品 2.1.3、更新AI开发套件并推出多个应用场景的AI赋能实例,加强PC侧软件生态建设 1)英伟达更新多款RTXGPU加速的生成式AI开发套件,加速大模型端侧落地 为PC级设备提供端侧AI模型开发支持的工具包NVIDIA AI Workbench将于1月底推出测试版。NVIDIA AI Workbench(NAW)集成了GitHub、NVIDIA NGC和Hugging Face等开源服务,帮助用户实现流畅访问和轻松复制迁移。通过NAW,开发者可以在PC或工作站中快速创建、测试和微调生成式AI模型。开发好的模型可扩展到数据中心、公有云或NVIDIA DGX Cloud等任何地方,然后再回到PC或工作站上的本地RTX系统进行推理和轻量定制 。AI Workbench预计将于24年1月底推出测试版。 英伟达企业级预训练AI模型将集成至HP AI Studio中。NVIDIA AI Foundation Models为企业提供预训练的生成式AI模型,使企业能够以更快的速度创建自定义模型并进行训练和推理。在CES 2024上,英伟达宣布与惠普合作,将NVIDIA AI Foundation Models集成到数据科学集中平台HP AI Studio中,从而协助更多企业和团队简化AI模型开发流程。 图3:开发者可使用NAW加快端侧AI模型的开发定制 图4:TensorRT-LLM显著提升大模型在端侧的推理速度 TensorRT新增对LLM及文生图模型支持,将显著提升端侧推理性能。TensorRT是英伟达专为高性能深度学习推理任务设计的SDK,也是英伟达AI软件生态的核心之一 。 英伟达近期推出了专为Windows设计的TensorRT-LLM for Windows,让开发者可以充分利用RTX GPU的Tensor核心,实现端侧加速LLM推理和运行。在CES 2024上,英伟达宣布TensorRT-LLM新增对近期爆火的“小模型”Phi-2的支持;而针对文生图应用,英伟达为Stable Diffusion WebUI TensorRT扩展加入了对SDXL Turbo和LCM的支持,使他们文生图的性能提升60%以上。 Chat with RTX帮助本地部署大模型聊天机器人,可充当用户的个人助手。英伟达在CES上展示了Chat with RTX的Demo版本。该应用利用增强检索生成(RAG)技术、TensorRT-LLM和RTX加速,使用户可以在PC端与笔记、文档等个人数据库进行自然语言交互,快速获得上下文相关的答案。Chat with RTX完全在设备本地部署和运行,因此延迟很低且数据安全性能够得到保障。