传媒行业深度报告 证券研究报告 从Sora看AI应用发展探索 新质生产力有望推动TMT再下一城 投资评级:推荐(维持) 报告日期: 2024年02月29日 首席分析师:朱珠 SAC编号:S1050521110001 Sora推出有望推动内容创作变革也是AIGC组成一部分 2024年2月迎Sora,推动多模态热度。Sora的核心技术是基于OpenAI在自然语言处理和图像生成方面的深厚积累(从 LLM的ChatGPT到DALL-E3,再结合Diffusion和Transformer模型)与Runway、Pika等相比,Sora在视频生成的真实感、细节表现上均具标志性价值。AI视频生成虽不是新事,但Sora的推出具有新里程碑价值,作为AIGC组成部分,有望推高AI多模态的热度,可关注AI多模态应用塑造数字内容生产与交互新范式,赋能视觉行业,从文字、3D生成、动画电影、到长短视频、剧集等方面,均有望带来内容创作的变革,助力内容消费市场的繁荣发展,也在加速拓展AI应用新边界(从中长期看,真人生产的内容对比AI生成内容的稀缺性也是凸显)。同时,AI的发展,需要算力等支持,若算力获得持续赋能,应用也有望百花齐放。 以Sora为支点有望撬动AI多模态应用新热度 每一次技术的进步与推动均有望带来时代的红利,AI多模态的应用有望在2024年持续,对传媒领域有望带来存量的提质增 效以及新增的应用场景,有望推动传媒走向智媒。从投资维度看,第一维度,OpenAI的产品迭代,微软受益,A股映射的受益公司是与微软合作的蓝色光标;第二维度,内容应用,核心看三点,第一点,对于动画电影带来产能提升,如光线传媒;第二点,对于静态文字领域商业新增量,如中信出版、新经典、果麦文化等;第三点,Sora的AI生成视频模型,人人成为UGC及PGC制作者,有利于丰富元宇宙、长短视频、MR应用生态,虚实融合如风语筑、蓝色光标、浙文互联、力盛体育等。 公司代码 名称 2024-02-29股价 EPS PE 投资评级 2022 2023E 2024E 2022 2023E 2024E 002605.SZ 姚记科技 25.66 0.86 1.46 1.80 29.84 17.58 14.26 买入 002739.SZ 万达电影 11.61 -0.88 0.42 0.58 -13.19 27.64 20.02 买入 002858.SZ 力盛体育 12.12 -0.48 -0.95 0.64 -25.25 -12.76 18.94 买入 300058.SZ 蓝色光标 7.06 -0.87 0.05 0.23 -8.11 141.20 30.70 买入 300251.SZ 光线传媒 8.79 -0.24 0.15 0.24 -36.63 58.60 36.63 买入 300413.SZ 芒果超媒 23.32 0.98 1.76 1.41 23.80 13.25 16.54 买入 300788.SZ 中信出版 30.41 0.66 1.01 1.27 46.08 30.11 23.94 买入 600986.SH 浙文互联 4.77 0.06 0.13 0.18 79.50 36.69 26.50 买入 603103.SH 横店影视 14.73 -0.50 0.22 0.47 -29.46 66.95 31.34 买入 603466.SH 风语筑 12.25 0.11 0.59 0.77 111.36 20.76 15.91 买入 资料来源:wind资讯 产业政策变化风险、推荐公司业绩不及预期的风险、行业竞争风险 新技术应用不及预期的风险、新业务进展不及预期的进展的风险 突发公共卫生事件的风险、宏观经济波动的风险等 目录 CONTENTS 1.从2023年ChatGPT到2024 年的Sora同与不同 2.中国AI动画片《千秋诗颂》 推出看AI如何赋能产业新发展? 3.从Sora看AI应用投资 01从2023年ChatGPT 到2024年的Sora同 与不同 LLM开源使得千模万模智能开ChatGPT分支成为主流助力进入AI2.0拉起2023年中国AI热度大年2025-2025年有望持续探索AI应用边界 DNN(深度神经网络):通过无监督学习逐层训练每一层,然后使用有监督学习微调所有层;CNN/RNN(卷积神经网络)vs(循环神经网络):常用神经网络架构(图像处理+时间序列处理),CNN适用于处理图像数据,通过卷积计算保留主要特征;RNN擅长处理序列数据,如文本或时间序列; DiffusionModel(扩散模型)一种生成模型,它的工作原理是通过连续添加高斯噪声来破坏训练数据,然后通过反转这个噪声过程,学习恢复数据,相比其他生成模型如GAN, Diffusion所需数据更少,生成效果更优,该模型在图像生成领域较好也被用于视频生成,如谷歌ImagenVideo,该模型也被OpenAI的DALL-E2等文本生成图像模型所采纳。 Transformer:一种深度学习模型,依赖于自注意力机制来计算输入和输出的表示,Transformer使用多头注意力机制,可以同时关注输入序列中的不同位置,从而有效地捕捉长距离依赖关系,Transformer的并行训练能力使其训练时间更短,效率更高(谷歌在在2017年提出,并在论文《AttentionisAllYouNeed》中进行详细阐述); BERT:2018年由Google研究人员提出,自然语言处理领域应用广泛,也成为许多NLP任务重要基石; ChatGPT:在GPT-2的基础上推出的,且使用了语义哈希算法,使得模型能够将对话中的词汇转化为离散符号,从而更好处理不同语言;ChatGPT系列产品不同于传统大语言模型产品,其采用了强化学习方法和大量的训练数据,进而OpenAI的ChatGPT版本GPT-3中出现涌现(Emergence)的现象。 资料来源:网易、傅盛2024年AI开年大课 第一,科普层面效率更高,得益于2023年大语言模型认知基础的建立,2024年生成式视频模型Sora能更高效的短期内完成 市场科普;科普周期有助于板块情绪的发酵,换言之,2024年的科普周期较2023年有所缩短,进而情绪带来的交易热度也预计会有所缩短; 第二,自上而下政府响应效率不同,2024年2月15日Sora推出,政府端较快的响应,凸显对AI发展支持态度,利于延续AI板块热度与情绪;(2月21日国务院国资委召开中央企业人工智能专题推进会扎实推动AI赋能产业焕新。2月23日央视频推出中国首部AI生成动画片《千秋诗颂》发布会,2月26日首播) 第三,Sora推出后,国内大型互联网企业积极响应跟进的较少,字节跳动表示仍有差距,国内大型互联网企业在实际动作端相对低调(模型开源、算力、数据等制约),相反,国资委认为,加快推动人工智能发展,是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力; 第四,微小盘及中小盘国企央企、民企面对AI均积极拥抱,寻业务增长第二曲线,应用端得益于上一次大语言模型的基础,企业响应效率提升,利于也打开了新需求市场。 第一,从ChatGPT到Sora,文生文,文生视频均是AIGC的重要组成部分。 第二,在2023年ChatGPT热度前,传媒应用板块已跌幅较多,在AI推动下带来较好反弹修复、估值重估的空间; 2024年2月Sora推出后,虽AI技术路径及产品产品不是从0到1的发明,更多是发现,但传媒在此之前也经历一波回调,进而也为这一次Sora推动的多模态AI应用热度带来反弹空间。 第三,美股映射,从英伟达到微软,因AI驱动,市值不断增厚也凸显资本端的认可,进而衍生“映射逻辑”。 第四,从ChatGPT到Sora,产品热度不断,首先均带来科技创新的情绪价值(从企业到市场均需要的情绪价值)。Sora是发现不是发明,但以Sora为代表的AI生成式视频模型的推出为创新科技发展带来新期待。2月15日OpenAI旗下首个视频生成模型Sora推出,2月22日发布第二波AI生成视频作品;2月23日StabilityAI推出StableDiffusion3.0,采用了与Sora同样的DiT架构,市场热度不断。 当移动互联网的发展红利见顶,大中小企业均在寻增长第二曲线,AI的推动,打开企业业务增长新预期,国企护航(国资委指出,中央企业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业,换言之,国企央企的加入也有望推动新需求),民企创新,有望共举AI应用热度。 ▌AIGC概念:AIGC(AI-GeneratedContent,人工智能生产内容 狭义:利用AI自动生产内容的生产方式; 广义:AIGC已在实现人工智能从感知理 解世界到生成世界的进击; AIGC意义:正在加速成为AI领域商业新边 OpenAI的Sora应用到 的重要部分 界;AIGC也会带来内容创作变革。 资料来源:中国信通院、华鑫证券研究绘制 AIGC多模态应用中,ChatGPT是基于LLM大语言模型推出的文生文模型,由OpenAI推出(人机对话,根据语义对答-类人),2020年6月,OpenAI宣布GPT-3模型,2020年9月微软取得授权; ChatGPT底层技术:基于自然语言处理(NLP)大语言模型,使用了谷歌提出的Transformer神经网络架构+ 强化学习技术+开源架构为依托; ChatGPT为什么火?通过低门槛对话形式,用通俗易懂形式(如检索、写作、编程)向非技术用户展现人工智能强大; ChatGPT是trigger,AIGC是星辰大海 2023年3月14日推出,OpenAI推出ChatGPT-4,推动AI应用热潮。 资料来源:OpenAI官网 【第一步ChatGPT第二步DALL-E3从文本的语义理解、图片生成步步为营】 语义理解:OpenAI指出在文生视频中使用了re-captioning技术(即对图片进行再次描述或重新标注的过程),该技术是在DALL-E3中已介绍; 类似于DALL-E3,OpenAI也利用GPT将简短的提示(prompt)转化为更长的详细提示,并将其发送到视频模型中,使得Sora能够生成高质量的视频,准确遵循用户提示; Re-Captioning:2021年,OpenAI发布CLIP(ContrastiveLanguage-ImagePre-Training)模型,即将图 像和文本进行匹配,CLIP模型的应用之一是Re-captioning。 Sora DALL-E3 (CLIP2021) ChatGPT 资料来源:OpenAI官网资料来源:OpenAI官网、华鑫证券研究绘制 资料来源:OpenAI CLIP模型:2024年2月Sora推出,离不开OpenAI在2021年发布的CLIP模型(在开源模型LLM+DiT基础上, 应用了自身独特模型架构性CLIP); CLIP模型:虚线以上,CLIP模型的训练过程,即文本和图像匹配;虚线以下,OpenAI的文本到图像的生成过程,将CLIP文本嵌入到自回归或扩散中(prior),以产生图像嵌入,然后使用此嵌入来约束扩散解码器 (decoder); 文本编码器 与其他图像表示模型相比,使用CLIP主要优势是其可以嵌入图像和文本放在同一个潜在空间,可用语言来引导图像。 资料来源:OpenAI官网 对比CLIP与unCLIP模型(基于模型性能、效率、成本,OpenAI采用了CLIP模型) 相同点:CLIP与unCLIP模型均是基于图像和文本的匹配:均是利用图像和文本之间的匹配关系进行训练和应用的;均是预训练模型 异同点: 第一,应用方向:CLIP主要用于图像和文本的匹配任务,如图像标注、图像检索等;unCLIP是一个文本条件图 像生成模型,它能够根据文本描述生成相应的图像,具有更强的生成能力。(但处理复杂场景可能文图不一致) 第二,模型结构:CLIP由图像编码器和文本编码器组