您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:计算机行业动态报告:豆包大模型推理算力需求测算 - 发现报告
当前位置:首页/行业研究/报告详情/

计算机行业动态报告:豆包大模型推理算力需求测算

信息技术2024-12-26吕伟、丁辰晖民生证券D***
AI智能总结
查看更多
计算机行业动态报告:豆包大模型推理算力需求测算

计算机行业动态报告 豆包大模型推理算力需求测算 2024年12月26日 豆包大模型攀升至国内AI应用第一。截至2024年12月中旬,豆包大模型 推荐 维持评级 日均tokens使用量超过4万亿,较5月发布时增长超过33倍。根据量子位数据,截至11月底,豆包APP在2024年的累计用户规模已成功超越1.6亿,每日平均新增用户下载量稳定维持在80万,成为全球排名第二,国内排名第一的AIAPP。11月份,豆包APPDAU接近900万,增长率超过15%。 豆包大家族全面更新:12月18日,在字节跳动所召开的火山引擎Force大 会上,豆包三大主力模型引来全面升级。1)豆包通用模型pro:综合能力比5月最初发布版本提升32%,与gpt-4o持平,但价格仅是其八分之一。在指令遵循、代码、专业知识、数学、推理等层面全面对齐了gpt-4o水平,其中指令遵循能力提升9%,代码能力提升58%,专业知识方面能力提升54%,数学能力提升 分析师吕伟 43%,推理能力提升13%。2)豆包・音乐生成模型:生成水平从“高光片段”跃升到“完整乐章”,用户简单描述或上传一张图片,就能生成一首长达3分钟的包含旋律、歌词和演唱的高质量音乐作品,且提供局部修改功能,在针对部分 执业证书:S0100521110003邮箱:lvwei_yj@mszq.com分析师丁辰晖执业证书:S0100522090006 歌词修改后仍能在原有旋律的节奏框架内适配。3)豆包・文生图模型:在通用 邮箱:dingchenhui@mszq.com 性、可控性、高质量三方面取得新突破,新增“一键海报”和“一键p图”能力, 相关研究1.计算机行业事件点评:重视鸿蒙操作系统重要机遇-2024/12/242.计算机周报20241222:OpenAI十二天总结与Agent新范式-2024/12/223.计算机行业2025年度投资策略:2025:全面迎接AI+大时代-2024/12/204.计算机周报20241215:OpenAI新品、豆包与AI新消费-2024/12/155.计算机周报20241208:OpenAI发布会分析展望与美股AI应用“狂飙”-2024/12/08 对文字细节的指令遵循能力强,擅长“写汉字”,其背后的技术源自豆包・文生图模型原生的文字渲染能力以及seededit框架,目前已接入即梦AI和豆包app。 AI应用加速落地,推理算力需求或将崛起。IDC数据显示,2024上半年中 国加速服务器市场规模达到50亿美元,同比2023上半年增长63%。其中GPU服务器依然占主导地位,达到43亿美元。同时NPU、ASIC和FPGA等非GPU加速服务器以同比182%的增速达到近7亿美元市场规模。我们根据目前豆包的月活、日活以及日均token调用量为基础,做出保守、中性、乐观3种假设,结合大模型推理算力需求计算公式,对豆包带来的推理算力需求进行测算。在3种假设下,预计豆包大模型或将带来759、1139、1898亿元的AI服务器资本开支需求。 投资建议:字节豆包大模型全面升级,月活攀升至国内AI应用第一,我们 认为AI应用的加速落地或将带来推理侧算力需求的升级,进而推动头部互联网厂商持续提升2025年算力侧资本开支情况。建议关注:1)AI服务器环节:浪潮信息、工业富联、紫光股份等;2)液冷环节:高澜股份、英维克、浪潮信息等;3)国产推理芯片环节:寒武纪、海光信息等。 风险提示:AI技术落地不及预期;算力行业竞争加剧;互联网厂商资本开支 预算不及预期 目录 1AI应用加速落地,推理算力需求或将崛起3 1.1豆包大模型全面升级,月活攀升至近6000万3 1.2OpenAI发布大量更新,海外AI加速向前5 1.3AI应用全面落地,推理算力建设或成为新增量7 2投资建议11 3风险提示12 插图目录13 1AI应用加速落地,推理算力需求或将崛起 1.1豆包大模型全面升级,月活攀升至近6000万 豆包大家族全面更新。12月18日,在字节跳动所召开的火山引擎Force大会上,豆包三大主力模型引来全面升级。1)豆包通用模型pro:综合能力比5月最初发布版本提升32%,与gpt-4o持平,但价格仅是其八分之一。在指令遵循、代码、专业知识、数学、推理等层面全面对齐了gpt-4o水平,其中指令遵循能力提升9%,代码能力提升58%,专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%。2)豆包・音乐生成模型:生成水平从“高光片段”跃升到“完整乐章”,用户简单描述或上传一张图片,就能生成一首长达3分钟的包含旋律、歌词和演唱的高质量音乐作品,且提供局部修改功能,在针对部分歌词修改后仍能在原有旋律的节奏框架内适配。3)豆包・文生图模型:在通用性、可控性、高质量三方面取得新突破,新增“一键海报”和“一键p图”能力,对文字细节的指令遵循能力强,擅长“写汉字”,其背后的技术源自豆包・文生图模型原生的文字渲染能力以及seededit框架,目前已接入即梦AI和豆包app。 图1:豆包通用模型pro综合能力提升32% 资料来源:2024冬季火山引擎FORCE原动力大会,民生证券研究院 豆包・3D模型首次亮相。3D模型采用3D-DiT等算法技术生成高质量的3D模型,与火山和英伟达合作的数字孪生平台veOmniverse结合。在技术层面,豆包3D生成模型基于深度学习、生成对抗网络(GAN)等前沿技术,能够以更高的真实感和细腻度生成三维视觉内容。3D模型可实现AIGC世界的仿真模拟器,用户能高效完成智能训练、数据合成和数字资产制作,满足仿真训练的多样化需求,加速虚拟与现实的深度融合。 图2:豆包大模型目前的产品矩阵 资料来源:豆包官网,民生证券研究院 日均tokens较发布增长33倍。截至2024年12月中旬,豆包大模型日均 tokens使用量超过4万亿,较5月发布时增长超过33倍。根据量子位数据,截 至11月底,豆包APP在2024年的累计用户规模已成功超越1.6亿,每日平均新增用户下载量稳定维持在80万,成为全球排名第二,国内排名第一的AIAPP,11月份,豆包APPDAU接近900万。 图3:豆包日均tokens增长超过33倍图4:豆包11月MAU近6000万远超国内竞品 资料来源:2024冬季火山引擎FORCE原动力大会,民生证券研究院资料来源:AI产品榜,民生证券研究院 活跃率与活跃用户留存率领跑工具类AI。根据QuestMobile数据显示,2024年9月,豆包APP活跃率达18.1%,较今年1月增加4.8%;月人均使用天数5.4天,较今年1月增加1.3天;活跃用户3日留存率达39.1%,较今年1月增加8.9%。运营效率较年初大部分都有明显进步,头部效应更为明显,与逐渐兴起的 智能体生态关联紧密。 图5:2024年9月典型工具类AIGCAPP重点运营指标 资料来源:QuestMobile,民生证券研究院 1.2OpenAI发布大量更新,海外AI加速向前 OpenAI于12月5日开始的为期12天发布会上,在人工智能领域进行了大规模的更新迭代,主要集中体现在模型端、应用端与开发端: 模型端。在第九日(12月13日)的发布会中,OpenAI推出o1模型,o1模型在准确性、效率和灵活性方面均实现了显著提升。在SWE-benchVerified中,o1的编码结果从41.3提升至48.9。而在AIME测试中,o1的性能从42跃升至79.2。o1新增了几个特性,包括结构化输出功能和函数调用功能,简化了o1连接到API和数据库的过程,同时o1还具备了在视觉输入上进行推理的能力。OpenAI在直播中还发布了o3模型的mini版本,mini版本的模型尺寸更小,使用成本会有所降低。o3mini设置了低、中、高三种推理模式,用户能根据任务复杂度灵活调整模型的思考时间。 应用端。1)ChatGPT搜索功能:OpenAI宣布ChatGPT搜索功能正式全球落地,包括免费用户均可使用。其对搜索算法进行了深度优化,显著提升了搜索速度和准确性。用户提出问题后,ChatGPT能够在极短的时间内(分钟级别)返回包括股票、新闻等在内的实时内容。2)Sora视频生成:Sora集成了Storyboard、Remix、Re-cut等功能,用户可以通过简单的文字描述生成分镜头视频,上传图像或创建静态视频帧,并设定播放时间,让Sora自动生成完整的视频作品。3)Canvas:Canvas被设计为一个集智能写作、代码协作和AI智能体为一体的完整工作台,其内置了WebAssemblyPython模拟器,创造了一个几乎无延迟的编程环境,并展现出理解代码意图的能力。 图6:不同指标维度下的模型精准性评估 资料来源:OpenAI官网,民生证券研究院 图7:Canvas交互界面 资料来源:OpenAI官网,民生证券研究院 开发端。o1模型推出API开放,o1模型正式推出API,成本降低60%,新增函数调用、开发者消息、结构化输出以及视觉识别等功能。另一方面,实时API进一步更新,包括WebRTC支持、代码简化、价格优化以及PythonSDK支持,简化了实时语音应用的开发。同时,发布了GoSDK和JavaSDK,支持所有API功能,并简化了API获取流程。 1.3AI应用全面落地,推理算力建设或成为新增量 大模型加速落地致使推理算力需求大幅增长。豆包大模型的应用场景不断拓展,在信息处理、客服与销售、硬件终端等场景的调用量快速提升。12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍,这使得对推理算力的需求不断攀升,主要集中在硬件设备算力需求、数据中心规模扩张需求、通信网络需求三方面。 IDC数据显示,2024上半年中国加速服务器市场规模达到50亿美元,同比2023上半年增长63%。其中GPU服务器依然占主导地位,达到43亿美元。同时NPU、ASIC和FPGA等非GPU加速服务器以同比182%的增速达到近7亿美元市场规模。 从国际环境来看,由于美国对相关技术及产品的管控,一方面限制了中国AI产业的发展;另一方面也激发了中国厂商自研AI芯片的积极性。但同时,国产自研芯片的后期维护与生态支持仍存在提升空间。从市场与产业链角度看,在深入开发行业大模型的当下,市场对于高算力且稳定的AI服务器的需求不断增大;5G通信技术落地之后,市场对于全面高效协同的AI算力系统网络要求加深。这两点趋势在更高算力与更快带宽之外,都对国产AI服务器自身更短的平均故障时间、基础算力配套设施的更全面和运维团队的更专业、覆盖面更广提出了更高要求。IDC预测,到2028年中国加速服务器市场规模将达到253亿美元。其中非GPU服务器市场规模将接近50%。 图8:2024-2028年中国加速计算服务器市场规模 资料来源:IDC,民生证券研究院 液冷服务器或显著受益于AI算力需求提升。IDC正式发布《中国半年度液冷服务器市场(2024上半年)跟踪》报告。数据显示,中国液冷服务器市场2024上半年同比大幅增长98.3%,市场规模达到12.6亿美元,出货量同比增长81.8%,其中浪潮信息以超过50%的份额蝉联中国市场第一。液冷服务器市场将继续保持高速增长,预计2023-2028年,中国液冷服务器年复合增长率将达47.6%,市场规模有望在2028年达到102亿美元。 图9:2024-2028年中国液冷服务器市场规模 资料来源:IDC,民生证券研究院 AI应用有望显著带动算力建设,字节算力资本开支持续攀升。今年,各大科技巨头已在兴建运行英伟达最新芯片的数据中心上投入了数百亿美元。自两年前首次亮相的ChatGPT引发前所未有的AI投资热潮以来,英伟达的最新芯片已然成为硅谷最抢手的商品。Omdia估计,字节跳动和腾讯今年各自订购了约23万块英伟达芯片,其中包括H20型号,这款低配版的Hopper经过改动,以满足针对中国客户的美国出口管制条例。 图10:全球科技巨头在英伟达AI芯片上的支出 资料来源:Omdia,