证券研究报告|2024年12月14日 FORCE2024原动力大会即将召开,关注字节 AI产业链机会 行业研究·行业专题计算机·人工智能 证券分析师:熊莉联系人:云梦泽 021-61761067021-60933155 xiongli1@guosen.com.cnyunmengze@guosen.com.cnS0980519030002 2024火山引擎FORCE原动力大会即将召开,聚焦AI转型与技术创新。2024冬季火山引擎FORCE原动力大会将于12月18-19日在上海举行,讨论前沿技术、行业落地与AI转型机遇。大会包括开发者论坛、技术主论坛和Data+AI专场等议程,重点探讨大模型时代的技术应用,解读火山引擎的全栈AI能力,及其如何推动企业数智化转型,助力企业通过大数据、大模型和数据飞轮实现智能决策与高效闭环。 豆包在应用端与网页端均展现出强劲的增长势头。2024年11月,豆包在全球AI产品榜单中占据重要席位,其中应用端月活跃用户数达到5998万,持续增长超过10%。网页端访问量也从2月的173万持续增长至11月的2143万,呈稳步上升态势。豆包的用户规模持续扩大,截至11月底,累计用户超过1.6亿,月活跃用户接近6000万,日活跃用户接近900万,增长率达到15%。豆包成为国内首个突破1亿用户规模的AI应用,全球仅次于ChatGPT。 豆包大模型家族及功能升级:多场景应用与创新。豆包大模型是一个多模态的“模型家族”,包括通用模型pro、lite版本,以及角色扮演、语音识别、文生图等专用模型。通用模型pro拥有更强的理解和生成能力,适用于丰富的场景应用;lite版则以更低成本和低延迟为企业提供灵活选择。此外,豆包的文生图功能在12月5日进行了升级,支持更复杂的图文匹配、创造性内容生成以及更优质的图像效果,特别是对中国文化的理解和呈现。其他更新包括支持附件上传、语音通话、AI智能耳机OlaFriend发布、以及火山引擎的多项大模型应用。 豆包月活高速增长,C端投流与B端低价竞争双管齐下。豆包通过强力的投流策略迅速扩大用户群体。2024年以来,豆包在广告投放上加大投入,尤其依靠字节跳动平台资源,实现了巨大的流量增长。与此同时,豆包在B端市场采取低价竞争策略,通过大幅降低大模型的推理输入价格,成功吸引了大量企业客户。这种低价战略基于其强大的技术优化和市场需求,同时提供了丰富的应用场景,包括知识问答、文本生成、视频生成等。豆包凭借其优质的功能和显著的价格优势,成为行业内的重要竞争者。 字节AI大模型架构与应用丰富,全方位布局推动创新发展。字节跳动在AI领域通过多层次的架构布局,打造了以豆包大模型家族为核心的强大AI体系。1)模型层包括不同版本的大模型,如豆包Pro、Lite及文生图模型,具备优秀的性能,如长文本处理、低成本低延迟的推理等;2)AI应用开发平台提供低门槛、个性化、多模态的服务;基础设施支持则由火山引擎提供GPU算力资源和安全防护。应用层包括交互式产品、创作工具及编程支持平台,推动了创新发展;3)硬件层方面,字节跳动通过推出AI耳机OlaFriend等可穿戴设备,进一步巩固硬件领域地位。字节与多家公司广泛合作,推动了豆包大模型的应用场景和市场影响力,为合作伙伴带来增长机遇,受到资本青睐。 风险提示:技术迭代不及预期、市场竞争加剧、个股梳理仅基于产业链结构,不涉及主观投资建议。 2024冬季火山引擎FORCE原动力大会将于12月18-19日在上海举行,聚焦前沿技术、行业落地与AI转型机遇。 【开发者论坛】:聚焦大模型时代,探讨火山方舟技术原理及豆包MarsCode、扣子等大模型应用如何拓展AI边界等,助力开发者高效创新。 【技术主论坛】AI+X全栈能力解读:本次大会技术主论坛将直击大模型时代痛点,聚焦性价比、创新、安全等话题,解读火山引擎全栈AI能力。大会邀请游戏、智能终端、教育、零售等行业专家,交流A时代产品与技术重构,探索企业转型新机遇。 【Data+AI专场】数智进化,模力跃迁:当今,企业面临的挑战是如何从海量数据中提炼价值并转化为智能决策。大数据提供决策原材料,而大模型通过深度学习发现数据中的规律,帮助企业精准决策。结合大数据、大模型和数据飞轮,企业能实现数据的持续增值和高效闭环。 图1:技术主论坛议程图2:Data+AI专场内容介绍 资料来源:字节大数据平台,国信证券经济研究所整理 应用端与网页端增长强劲:根据AI产品榜,在应用端,2024年11月全球AI产品前10名国产占两席,其中豆包月活为5998万,为国内月 活最高AI产品,保持10%以上的增速;在网页端,豆包Web访问量从2月的1.73M持续增长到11月的21.43M,整体呈现稳步上升的趋势。豆包增长势头依然强劲,用户关注度和流量显著提升。 用户规模庞大:据量子位智库,截至11月底,豆包2024年的累计用户规模已超过1.6亿,MAU达到近6000万,日活接近900万(增长率15%)。在11月,平均每天有80万新用户下载豆包。这一强劲势头使其率先成为国内用户规模破亿的首个AI应用,在全球仅次于OpenAI的ChatGPT。 图3:2024年11月AI产品榜(APP端)全球总榜图4:2024年豆包网页访问量(单位:M) 豆包网页访问量(单位:M)增速 25 17.13 13.71 10.96 9.04 5.356.31 3.45 1.73 2.74 20 15 10 5 0 21.43 70% 60% 50% 40% 30% 20% 10% 0% 2月3月4月5月6月7月8月9月10月11月 资料来源:AI产品榜,国信证券经济研究所整理 •豆包大模型实际上是一个具备多模态能力的“模型家族”,包括通用模型pro/lite、角色扮演模型、语音识别模型、文生图模型等多款模型。 •豆包通用模型pro(更强能力):字节跳动自研LLM模型专业版,支持256K长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景。 •豆包通用模型lite(更低延迟):字节跳动自研LLM模型轻量版,对比专业版提供更低token成本、更低延迟,为企业提供灵活经济的模型选择。 •此外,豆包还拥有多款特定场景专用模型 模型 功能 模型 功能 视频生成模型 精准语义理解、支持文本和图片生成两种模式 语音合成模型 提供自然生动的语音合成能力 文生图模型 更精美的文字理解能力,图文匹配更准确 声音复刻模型 5秒即可实现声音1:1克隆,对音色相似度和自然度进行高度还原 图生图模型 快速生成精美写真,支持50余种风格变换 角色扮演模型 个性化的角色创作能力,更强的上下文感知和剧情推动能力 同声传译模型 提供超低延时且自然高质量的实时翻译,支持跨语言同音色翻译 FunctionCall模型 更加准确的功能识别和参数抽取能力,适合复杂工具调用的场景 语音识别模型 更高的准确率及灵敏度,更低的语音识别延迟 向量化模型 聚焦向量检索的使用场景,为LLM知识库提供核心理解能力 图5:豆包大模型家族图6:内容创作场景示例 •豆包AI文生图功能升级:12月5日,基于字节跳动视觉大模型打造的新一代文生图模型功能升级,可对用户输入的文本进行精准理解,生成更符合语义、审美特性和创造力的不限风格的优质图像,以较低的创作成本帮助企业或创作者降低内容生产成本、激发创意。 •最新升级2.0S/2.0L产品优势:1)复杂图文匹配:新模型能够精确呈现真实世界与想象世界的复杂场景,包括:升级多数量、多属性、大小、高矮、胖瘦和运动6类难点现实场景;在概念组合、角色创造和虚拟空间塑造方面展现出更强的创造力。2)中国文化理解:持续优化中国特色内容,升级对中国古代绘画艺术的理解和呈现。3)画面效果更美:善于从光影明暗、氛围色彩和人物美感3个方向进行画面质感的提升。 •豆包AI10月以来其他更新: •1.豆包App和电脑版功能更新:支持上传附件,并且兼容多种音频文件格式;电脑版新增了语音通话功能,允许用户回复实时信息。 •2.字节豆包发布AI智能体耳机OlaFriend:10月10日,豆包发布了首款AI智能体耳机OlaFriend,接入了豆包大模型,并与豆包APP深度结合。 •3.火山引擎发布大模型训练视频预处理方案:10月15日,火山引擎发布的预处理方案能够提高模型学习视频中特征和知识的效率,应用于豆包视频生成模型。 •4.火山引擎IT赋能平台“飞连”接入豆包大模型:10月16日,火山引擎推出了行业首个大模型IT赋能平台“飞连”,该平台接入了豆包大模型,通过AllinOne产品架构,统一管理身份、网络、终端、数据等IT核心要素,并在多个场景中实现AI应用的落地。 图7:文生图模型交互页面图8:文生图模型生成图片示例图 •积极布局投流战略,快速拓展用户群体:自2024年以来,豆包在投流领域资金投入巨大。依据广告情报分析平台AppGrowing的统计数据,豆包智能助手在4月和5月的投放金额约达1800万元,至6月上旬,投放金额急剧攀升至1.24亿元,增长态势明显。 •投流渠道:字节巨量平台为其输送了高达89%的流量份额,豆包主要依托字节跳动的平台资源、算法体系来获取用户。在对外的流量采购渠道布局上,字节自身排名第一,腾讯位列第二。 631 173274 2023年11月 2023年12月 2024年1月 2024年2月 2024年3月 2024年4月 2024年5月 2024年6月 2024年7月 2024年8月 2024年9月 2024年10月 图9:近一年豆包、Kimi、文小言月活用户(单位:万)图10:各大模型投流渠道 8000 6843 7000 6073 6000 5127 5000400030002000 904 1000 97 152 173 345535 0 产品 第一大渠道(占比) 第二大渠道(占比) Kimi 巨量(77%) 腾讯(20%) 豆包 巨量(89%) 腾讯(10%) 星野 巨量(42%) 小米/腾讯(23%) 元宝 腾讯(98%) 巨量(1%) 跃问 巨量(55%) 腾讯(42%) 清言 巨量(62%) 小米(29%) 星火 小米(54%) 快手(32%) 秘塔 腾讯(99%) 快手(1%) 通义 腾讯(52%) 巨量(46%) 文小言 腾讯(47%) 小米(35%) 文小言豆包Kimi •新大模型竞争模式“以低价卷同行”:在2024年5月的火山引擎FORCE原动力大会上,字节跳动针对大模型B端价格做出重大调整,其豆包通用模型pro-32k版的推理输入价格降至0.0008元/千tokens,标志着字节跳动将Token定价从以分计算带入了以厘计算的新阶段,成功降低了一个数量级。经火山引擎公布的价格换算,仅需花费1元就能获取豆包主力模型的125万Tokens,这大致相当于200万个汉字的信息量,约为3本《三国演义》的文字量。据新皮层统计,在字节跳动发起价格战后,竞争对手纷纷被迫迅速做出回 应。阿里云将其通义千问主力模型价格大幅下调97%,百度更是直接宣布文心两款轻量级模型免费使用。 •降价原因:1)降价的基本逻辑是,字节有信心用技术手段降低成本,市场也需要更低价的大模型;2)降价是用技术优化成本来实现的。如果只是补贴,用亏损换收入是不可持续的,字节不会走这条路;3)大的使用量,才能打磨出好模型,大幅降低模型推理的单位成本。(火山引擎总裁谭待) 图11:国内各大厂商按token使用量付费价格 模型提供方 模型 上下文长度 服务类型 定价(单位:元/千token) 字节跳动 Doubao-pro-4k 4K 推理服务(输入) 0.0008 推理服务(输出) 0.002 Doubao-pro-32k 32K 推理服务(输入) 0.0008 推理服务(输出) 0.002 Doubao-pro-128k 128K 推理服务(输入