您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国金证券]:2023传媒互联网产业行业深度研究:AIGC步入快车道,游戏行业降本增效或超预期 - 发现报告
当前位置:首页/其他报告/报告详情/

2023传媒互联网产业行业深度研究:AIGC步入快车道,游戏行业降本增效或超预期

2023-03-19-国金证券程***
2023传媒互联网产业行业深度研究:AIGC步入快车道,游戏行业降本增效或超预期

行业观点 AIGC发展步入快车道。据Gartner,生成式AI(AIGC)预计未来2-5年内达到成熟阶段。1)基础层技术的进步推动AIGC爆发。生成算法持续突破,其中,2017年Transformer模型发布,2018年谷歌基于该模型发布了BERT模型,开启预训练模型时代,对生成式AI带来质的突破。2)目前预训练模型已经从单一模型演进到多模态模型,且已出现面向C端的应用,单一模型主要包括NLP(自然语言处理)、CV(计算机视觉)领域,比如自然语言处理模型GPT3;多模态模型涉及文字、图片、音视频等多种内容形态,比如StableDiffusion,能实现文本转换为图片,2023年3月15日OpenAI推出的GPT-4能实现输入文本或图像,输出文本。3)应用:AIGC技术场景涵盖内容生产各环节,目前发展较成熟的是文本生成、图像生成及文字生成图像/音视频。 对于游戏领域,AIGC可赋能游戏制作、运营环节。1)游戏制作:①目前原画领域较成熟,Midjourney等AI绘画工具能实现输入文本、生成图像,但目前的产出尚有不合理之处,尤其是对“手”的处理,需要人工调整才可用于游戏制作。②2D游戏美术环节中,角色设计较成熟,动作/特效有待发展。2D角色:AIGC成熟度从高到低为,角色模型>角色表情>角色动作=角色特效,AI工具已可辅助快速、高质量生成2D素材,但生成内容连续度、风格统一度不够,无法生成游戏中可使用的角色动作,StableDiffusion将2D视频直接生成动画的方式提供了角色动作/特效生成的路径,一定程度解决了画面抖动问题;2D场景和物体:成熟度低于2D角色设计,但 已有DALL·E2等工具进行辅助。③3D游戏美术环节中,角色设计及表情较成熟,动作生成在发展中,3D扫描生 成物体及场景的路径已较清晰。3D角色:目前AIGC成熟度从高到低为,角色模型=角色表情>角色动作>角色特效,NVIDIAOmniverse和UnrealMetahuman目前可生成3D角色模型和表情,NVIDIAASE虽可实现3D角色动作,但目前直接应用性较低且动作生成较局限。3D场景和物体:Imageto3D、Textto3D、ChatGPTtocodetoDCC、3DScan四种方式中,目前3DScan最成熟,随GPT系列持续迭代,从ChatGPT到DCC的模式有望快速发展。④其他环节:策划及代码逻辑均出现较成熟的工具。策划环节代表性工具是ChatGPT,文本生成能力较强且脑洞较大,GPT-4在此基础上进一步加强,且能回答“文本+图像”形式呈现的问题;GithubCopilot等可辅助代码编写。2)游戏运营:AI辅助生成广告素材,实现自动化广告投放。 AIGC在游戏领域应用的作用:降本增效,提升内容质量。1)辅助游戏制作和运营,降本增效。以网文、游戏为例,内容生产成本较高:阅文集团内容成本占在线阅读收入比例整体在30%以上,游戏研发成本约15%-35%,AI工具可大幅降低美术等环节的成本。据伽马数据,22年中国游戏收入2659亿元,以25%的研发成本、40%的成本可被优化计,可优化成本约266亿;游戏大作制作时间在2年以上,以《原神》为例,从立项到公测耗时3年+,AI工具赋能下,预计游戏制作时间有望缩短,NFT游戏《Bearverse》开发应用AI技术后,工时从6个月压缩至1个月,减少80%+。2)AIGC有望助力激发创意,提升画质以及交互性,进而提高游戏体验。 投资建议 关注游戏上线节奏及AIGC在游戏领域的应用情况。我们认为,AIGC技术及产品目前已在游戏行业有部分应用,中长期来看,对游戏制作的降本增效、内容质量提升有较强的促进作用;当前游戏版号常态化发放,政策端不确定性降低,预计产品周期是业绩的关键驱动,关注游戏产品上线情况,个股方面,建议关注腾讯控股、网易、巨人网络、三七互娱、完美世界。 风险提示 AIGC技术发展及应用不及预期风险,监管风险 内容目录 一、技术进步加快AIGC发展及应用4 1.1AIGC产业:从底层基础设施到应用4 1.2底层技术持续进步,AIGC发展步入快车道4 1.3AIGC应用:各模态内容生产的变革6 1.4现象级产品—ChatGPT推动AIGC出圈,AIGC发展有望加快7 二、游戏领域应用:美术环节较成熟,未来有望辅助各环节9 2.1AIGC可赋能游戏制作、运营9 2.2游戏制作美术环节:原画设计已出现可投入应用的AI工具10 2.32D游戏美术环节:角色设计较成熟,动作/特效有待发展11 2.43D游戏美术环节:角色设计及表情较成熟,动作生成在发展中,3D扫描生成场景及物体较成熟12 2.5其他环节:策划及代码逻辑均出现较成熟的工具13 三、AIGC在游戏领域应用的作用:降本增效,提升内容质量14 3.1辅助游戏制作和运营,降本增效14 3.2从创意、美术、交互性等角度,提高游戏内容质量15 四、投资建议16 五、风险提示17 图表目录 图表1:AIGC产业各层级一览4 图表2:2022人工智能技术成熟曲线4 图表3:主流生成模型5 图表4:国内外主要预训练模型5 图表5:AIGC技术场景一览6 图表6:AIGC应用现状一览7 图表7:从Transformer模型到GPT-4:自然语言处理(NLP)模型的进化7 图表8:ChatGPT聊天截图8 图表9:海内外ChatGPT相关AI布局(ChatGPT发布后)8 图表10:GPT-4对输入“文本+图像”形式内容的解答9 图表11:GPT3.5、GPT4(novision)、GPT4多种考试的测评结果9 图表12:GPT-4对安全性指标的改进9 图表13:游戏产业链及AIGC可赋能环节10 图表14:游戏制作领域AIGC应用现状一览10 图表15:获奖AI画作《太空歌剧院》11 图表16:借助Midjourney生成的2D场景图11 图表17:AI绘画工具Midjourney自动生成图片11 图表18:NVIDIAvid2vidCameo捕捉真人面部表情12 图表19:使用DALL·E2对图片二次创作12 图表20:StableDiffusion将2D视频制作成动画12 图表21:NVIDIAOmniverseAudio2Face功能12 图表22:NVIDIAASE3D角色动作训练12 图表23:NVIDIAGET3D效果13 图表24:NVIDIAMagic3D效果13 图表25:ChatGPT生成代码13 图表26:Quixel3D扫描物体13 图表27:MetaAudioGen工作原理:Decoder+Encoder14 图表28:GithubCopilot辅助代码生成—准确识别西班牙语并成功实现指令14 图表29:昆仑万维旗下StarXMusicLabAI生成曲目14 图表30:阅文集团内容成本及其占在线阅读收入的比例14 图表31:完美世界/三七互娱/吉比特研发费用中职工薪酬占收入比例14 图表32:游戏行业上市公司研发费用占收入比例15 图表33:以22年游戏收入计,可优化制作成本约266亿15 图表34:《原神》VS《羊了个羊》画质对比15 图表35:传媒互联网领域上市公司AIGC相关布局16 图表36:上市公司游戏储备17 以预训练模型为基础搭建的基础设施 基础层 中间层 垂直化、场景化、个性化的 模型 从单一模型到多模态、跨模态模型 1)NLP模型:比如:谷歌LaMDA;OpenAIGPT系列;2)CV模型:比如:微软Florence; 3)多模态预训练模型:融合文字、图片、音视频等多种内容形式。比如:NVIDIAAudio2Face 一、技术进步加快AIGC发展及应用 1.1AIGC产业:从底层基础设施到应用 从底层基础设施到应用,AIGC爆发有赖底层技术的持续进步及成熟。AIGC产业可分为基础层、中间层和应用层。①基础层:指基础设施层,目前主要是以预训练模型为基础搭建的基础设施。②中间层:在大模型基础上训练垂类小模型,比如适配不同行业的AI工具、不同风格的AI绘画工具。③应用层:指面向C端的产品或服务,比如智能客服、AI绘画、AI写作等。 各层级 主要内容 应用层 ToC文字、图片、音视频 等内容生成服务 内容生成工具或服务 比如:StableDiffusion(程序和模型均开源)、MidJourney(AI绘画)、智能客服等。 大模型基础上的小模型 比如:Novel-AI,基于开源的StableDiffusion开发的二次元风格AI绘画工具。 图表1:AIGC产业各层级一览 来源:腾讯研究院,国金证券研究所 1.2底层技术持续进步,AIGC发展步入快车道 在前期技术的持续积累、进步下,AIGC发展已步入快车道。据Gartner,生成式AI (AIGC)预计未来2-5年内达到成熟阶段。目前已有Midjourney等成熟的AI工具。 图表2:2022人工智能技术成熟曲线 合成数据 智能机器人基础模型 尽责人工智能生成式人工智能神经形态计算 ModelOps 边缘人工智能 知识图谱 自然语言处理 (NLP) 数字伦理 运营人工智能系统 人工智能信任、风险 和安全管理 复合型人工智能 决策智能人工智能工程化 以数据为中心的人工智能 因果人工智能 基于管理的人 工智能 人工智能创客和教学套件 计算机视觉 (CV) 人工智能云服务 数据标记和注解 深度学习 智能应用 自动驾驶汽车 截至2022年7月 通用人工智能 期望值 技术萌芽期期望膨胀期泡沫破裂低谷期稳步爬升复苏期生产成熟期 距离达到成熟阶段的时间:<2年2-5年5-10年>10年 来源:Gartner,国金证券研究所 基础层:生成算法持续突破,预训练模型加速生成式AI(AIGC)发展。 1)生成算法持续突破:从2014年的VAE到2021年的可跨内容模态的CLIP模型。其中,2018年谷歌发布的、开启预训练模型时代的预训练模型BERT基于Transformer 模型搭建,OpenAI推出的GPT系列也基于Transformer模型搭建。 图表3:主流生成模型 模型提出时间模型描述 变分自动化编码(Variational Autoencoders,VAE) 2014基于变分下届约束得到的Encoder-Decoder模型对 生成对抗网络(GAN)2014基于对抗的Generator-Discriminator模型对 ) (Flow-basedmodels) 在该空间上分布是可以因子化的,整个模型架构依靠直接最大化log-likelihood来完成2个过程:分别为扩散过程、逆扩散过程。在前向扩散阶段对图像逐步施加噪声,直至图像 扩散模型(DiffusionModel 2015 被破坏变成安全的高斯噪声,然后在逆向阶段学习从高斯噪声还原原始图像的过程。经过训练,该模型可以应用这些去噪方法,从随机输入中合成新的“干净”数据。基于自注意力机制的神经网络模型,最初用来完成不同语言之间的文本翻译任务, Transformer模型 2017 主体包含Encoder和Decoder部分,分别负责对源语言文本进行编码和将编码信息转换为目标语言文本 神经辐射场(NeuralRadianceField,NeRF) 2020 提出了一种从输入图像中优化连续5D神经辐射场的表示(任何连续位置的体积密度和视角相关颜色)的方法,要解决的问题是给定一些拍摄的图,如何生成新视角下的图 CLIP(Contrastive 进行自然语言理解和计算机视觉分析;使用已经标记好的“文字-图像”训练数据。 Language-Image 2021 随文字进行模型训练的同时,对另一个模型训练,不断调整两个模型的内部参数,使得模 Pre-Training)模型 型分别输出文字特征和图像特征值,并确认匹配。 来源:腾讯研究院,国金证券研究所 基于流的生成模型 2015 学习一个非线性双射转换(bijectivetransformati