您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国金证券]:AI周观察:AI眼镜销量超预期,自研芯片加速部署,市场静待Sora发布 - 发现报告
当前位置:首页/行业研究/报告详情/

AI周观察:AI眼镜销量超预期,自研芯片加速部署,市场静待Sora发布

信息技术2024-12-09刘道明、黄晓军、麦世学国金证券测***
AI智能总结
查看更多
AI周观察:AI眼镜销量超预期,自研芯片加速部署,市场静待Sora发布

报告摘要 -AI应用热度仍在上升,聊天助手类应用活跃度显著提升,亚马逊推出AmazonNova多模态模型系列,支持文 本、图像与视频处理,Meta发布高效模型LLaMA3.370B。视频生成领域迎来腾讯开源混元模型、谷歌Genie2世界模型和WorldLab的世界模型,强化3D场景与动态交互能力。OpenAI启动“12天发布计划”,发布o1正式版、Pro版订阅与强化微调(RFT)技术,提升模型推理与应用潜力,市场静候OpenAI后续发布Sora。 -博通将在12月12日发布FY24Q4财报。回顾FY24Q3,公司营收强劲增长,主要受AI半导体业务和VMware整合推动。基础设施软件和半导体解决方案部门表现突出,AI产品销售尤为亮眼。展望Q4,公司预计营收将继续增长,全年AI收入高于此前预期。建议关注公司FY24Q4自研芯片及数据中心网络连接产品的发展情况。 -亚马逊推出的新一代自研AI加速器Trainium2,并在大规模部署中得到了实际应用。这款芯片针对推理和特定AI工作负载进行了优化,体现了云厂商在加速器采购决策中对总拥有成本(TCO)和工作负载特性匹配的高度重视。我们认为,随着AI训练和推理需求的持续增长,自研芯片的应用将加速推进,为自研芯片供应商带来长期的业绩增长机遇。 -2024年三季度,MetaRaybanAI眼镜全球出货量达到约48万部,环比增长83%,2023年四季度发布至今累计销 量达到约122万部。一季度MetaAI功能上线后对销量提振效果显著,24年Q4双节大促对销量会有更强的提振效应,AI眼镜的接受度得到提升。我们认为,在2025年具备音频和摄像头的AI眼镜是当下AI模型应用落地的最佳可穿戴设备,随着多模态模型能力的提升和AIAgent的成熟,产品功能性和应用场景将获得极大提升,持续看好2025年AI眼镜大规模放量。 -短期内VR/MR设备受制于长期佩戴体验不佳&部分性能优异产品价格过高,难以在数量上爆发。但长期来看,我 们看好VR/MR设备成为元宇宙的入口。在VR/MR产品技术更为成熟后,我们认为市场空间将被进一步打开。 风险提示 芯片制程发展与良率不及预期中美科技领域政策恶化 AI硬件销量不及预期 内容目录 财报前瞻3 关注博通自研芯片业务3 AI模型与应用动态4 AI聊天助手应用活跃度持续上升,模型竞争加剧5 OpenAI2/12Days发布,o1正式版、Pro版订阅和强化微调发布,静候Sora发布5 视频生成模型持续开源,世界模型热度再次上升6 亚马逊发布Trainium2,看好2025年自研芯片大规模部署7 AI硬件8 MetaRayban三季度销量环比大涨,看好AI眼镜未来发展8 MetaQuest3占据AR/VR主要市场9 风险提示10 财报前瞻 关注博通自研芯片业务 博通将于12月12日周四盘后发布其FY24Q4财报,回顾上一财季,博通在FY24Q3实现营收131亿美元,同比增长47%,运营利润79亿美元,同比增长44%。业绩主要受AI半导体业务的强劲需求和VMware整合带来的增长推动。 基础设施软件部门营收58亿美元,同比增长200%,得益于VMware的贡献和成本控制,季度运营支出从Q2的16亿美元降至13亿美元。VMware的年化预订价值(ABV)增长32%至25亿美元,反映了VMwareCloudFoundation的持续需求。 半导体解决方案部门营收73亿美元,AI产品销售表现亮眼,自研芯片营业额同比增长3.5倍,以太网交换解决方案营业额增长超4倍。非AI网络业务环比增长17%,但同比下降41%,预计将在Q4稳定。 展望Q4,博通指引营收140亿美元,同比增长51%,其中半导体营收80亿美元,软件营收60亿美元。全年AI收入预计120亿美元,高于此前指引。公司对FY2025保持乐观,预期AI和VMware将持续增长,非AI半导体业务将逐步复苏。 当前市场预期FY24Q4公司AI相关收入为34.6亿美元,低于先前公司全年展望中隐含的四季度35亿美金的AI相关收入指引。我们认为预期下调为公司股价提供了更多安全边界,美满电子三季度自研芯片业务板块的强劲体现出该细分赛道的高景气度,博通作为该细分赛道龙头,将持续受益。 AI模型与应用动态 图表1:聊天助手类AI应用日活跃度 来源:SimilarWeb、国金证券研究所 AI聊天助手应用活跃度持续上升,模型竞争加剧 从AI应用活跃度看,上周聊天助手类应用热度仍在持续上升,ChatGPT周均日访问量环比上升接近10%,达到1.38亿。国内AI应用如豆包和KimiChat有超过10%的环比增速,纳米搜索在发布两周后仍有约150%的环比增速。 在基础模型领域,亚马逊推出一系列模型,AmazonNova系列基础模型包括Micro、Lite、Pro和Premier四款。Micro是纯文本模型,拥有128k的上下文窗口,响应速度快、性价比高。Lite和Pro是多模态模型,支持高达300k的上下文窗口,能处理文本、图像和视频。Pro模型在20个基准测试中有17个表现相当或优于市场上领先的GPT-4o。Premier模型设计用于更复杂的推理任务,将于2025年第一季度推出。此外,亚马逊还推出了AmazonNovaCanvas和AmazonNovaReal两个新模型,分别用于图像和视频的生成。NovaReal展示了制作6秒短视频的能力,未来几个月将扩展至支持制作最长2分钟的视频。Meta发布了LLaMA3.370B作为70B参数规模的模型,在性能上可与更大规模的LLaMA3.1405B相媲美。大幅降低了推理成本和使用硬件门槛,使更多的个人开发者和小型团队能够使用。 OpenAI2/12Days发布,o1正式版、Pro版订阅和强化微调发布,静候Sora发布 OpenAI的12天发布计划已经进行了两天。第一天,OpenAI发布了正式版o1。该版本新增了读取图片和文件的能力,为用户提供了更加丰富的交互方式。此外,OpenAI还推出了每月200美元的Pro会员服务。Pro会员权益包括能够使用思考深度更深的o1promode,并且不限量使用,能更好的满足对人工智能有更高需求的专业用户。 第二天,OpenAI发布了强化微调(RFT),强化微调与传统微调不同,它并非仅仅依赖于微调数据,而是从微调数据中学习如何推理。这一创新技术采用两个不同的数据集,一个是微调数据集,另一个是测试数据集。模型首先基于微调数据集进行训练,随后用测试数据集进行验证,通过反复的自我推理训练验证过程,不断提升自身能力。强化微调功能的推出,为人工智能在各个领域的应用提供了新的可能性。例如在医疗领域,通过强化微调可以让模型更好地根据病例症状进行推理,找出相关病因。在法律领域,也能帮助模型更准确地分析法律文本,提供专业的法律建议。而o1正式版的新功能和Pro会员服务,则进一步提升了用户体验和使用价值。OpenAI的这些创新举措,无疑将推动人工智能技术的发展,为各个行业带来更多的机遇和挑战。 OpenAI在伦敦C21Media大会上透露,公司的Sora视频生成器即将推出更新版本。OpenAI的代表查德・尼尔森在会上表示,这款新版本将会支持三种视频生成方式,具体包括:文字生成视频、文字和图像生成视频,以及文字和视频生成视频,每个视频的时长可达一分 钟。SoraV2版本的发布预示着开放给高级用户的Sora很可能在OpenAI12天发布会接下来的几天公开。 视频生成模型持续开源,世界模型热度再次上升 图表2:视频类AI应用日活跃度 来源:SimilarWeb、国金证券研究所 从视频生成应用活跃度看,目前一梯队的视频生成应用如Runway、可灵,活跃度增速下降,活跃度略高于上周,而二梯队借助于新模型和新功能发布的应用如Pika、Pixverse,活跃度开始回落,环比下降约10%。市场仍在等待Sora的发布,对视频生成应用的整体热度会有促进作用。 腾讯于2024年12月3日正式推出开源的混元视频生成模型,参数量130亿,是当前最大的视频开源模型之一。该模型基于DiT架构,采用了新一代文本编码器、统一的全注意力机制、3D形状变分自编码器等技术,具备智能场景理解、真实动作捕捉等能力,能够实现超写实画质,生成的视频画面流畅、不易变形,且光影反射基本符合物理规律,尤其在人物、人造场所等场景下表现出色。混元视频生成模型已在HuggingFace平台及GitHub上发布,包含模型权重、推理代码、模型算法等完整内容,可供企业与个人开发者免费使用和开发生态插件,有助于加速行业创新步伐. 谷歌DeepMind发布了大型基础世界模型Genie2,能够根据单张图片和文字描述生成具有交互功能的3D世界。该模型生成的虚拟世界具有丰富的动态效果和多样化环境,能够模拟对象交互、动画、照明、物理反射和NPC行为等,具备空间记忆与反设事实能力,能够在长达一分钟内维持世界的连贯性与一致性,广泛应用于游戏制作与AI智能体训练等领域。与此同时,WorldLab推出了基于单张图片生成交互性3D虚拟世界的世界模型。该模型遵循3D几何与物理基本规则,展现出逼真的深度与空间感,可作为专业创作工具,助力VR数字空间的内容填充,在3D场景重建与视觉效果生成等领域展现出重要应用价值。 图表3:字节即梦2.1生成的包含中文的图片 来源:沃垠AI、国金证券研究所 字节即梦2.1开始灰度测试,解决了AI图像生成中文字体的问题,支持直接在图片上画出中英文字体。目前,它虽在灰度测试阶段,但已经展现出了巨大的潜力。用户可以用它制作各种类型的海报,如双12购物节海报、元旦祝福海报、影视海报等。虽然在生成过程中还存在一些瑕疵,如字体出现锯齿、写法问题,以及会重复或多出一些语句等,但对于制作一些文案不太复杂的海报效果较为稳定。 亚马逊发布Trainium2,看好2025年自研芯片大规模部署 AmazonWebServices本周于re:Invent大会上推出了其新一代人工智能加速器Trainium2,与其前代产品相比,这款加速器的性能显著提升,使AWS能够对具有数万亿参数的基础模型和大型语言模型进行训练。此外,AWS设定了雄心勃勃的目标,为其客户提供65ExaFLOPS的强大性能来支持AI工作负载。 AWS的Trainium2芯片采用先进的多芯片集成(System-in-Package,SiP)设计,由两个计算核心和四组HBM3e高带宽内存堆叠组成。每个计算核心通过CoWoS-S/R封装技术与其相邻的两组HBM3e内存进行通信。此外,这两个计算核心之间通过ABF基板相互连接,实现高效数据传输。 图表4:Trainium2结构示意图 来源:Anandtech、Semianalysis、国金证券研究所 AWS的Trainium2加速器在网络拓扑和算术强度方面与其他主流AI加速器如GoogleTPU和NVIDIAH100存在显著差异。Trainium2采用2D/3D环形网络拓扑结构,16芯片型号使用2D环形网络,而64芯片型号则采用3D环形网络。这种点对点连接方式与GoogleTPU相似,而NVIDIA的NVLink拓扑则通过交换结构实现全互联。 在算术强度方面,Trainium2的算术强度为203BF16FLOP/字节,低于TPU和H100的300到560BF16FLOP/字节。算术强度反映计算吞吐量与内存带宽的比率,适用于内存带宽受限的任务。Trainium2选择较低的算术强度是为了适应机器学习模型的发展趋势,例如专家混合模型在加载权重时对内存的需求较大。 此外,Trainium2-Ultra的最大扩展规模为64颗芯片,而TPU的最大规模为256颗芯片。因此,Trainium2的整体峰值计算性能较低,但其在内存带宽受限的任务中表现更优,适合推理和专家混合模型等应用场景。 Trainium2已经获得了大规模应用,AWS正在印第安纳州部署一个包含40万颗Trainiu