您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中航证券]:2024全球各类大模型研发现状、商业应用前景及主流营收模式分析报告 - 发现报告

2024全球各类大模型研发现状、商业应用前景及主流营收模式分析报告

信息技术2025-01-04-中航证券李***
AI智能总结
查看更多
2024全球各类大模型研发现状、商业应用前景及主流营收模式分析报告

2023年深度行业分析研究报告 1 大模型演进:工业革命级的生产力工具 3 2 CONTENTS 目大模型现状:GPT引领,百模征战 大模型未来:应用多点开花,产业智能跃迁 4 录投资建议:关注数据端&模型端&应用端 算法的迭代推动人工智能的发展:几十年来,AI领域持续探索,1940-1980s符号AI占主导,1980年后,统计AI与神经AI齐头并进,二者竞争发展至今,GPT系列属于神经AI。 符号(Symbolic)AI:二十世纪80年代以前属于符号AI时代,开启了以知识建模算法、专家系统算法为代表AI早期发展阶段; 统计(Statistical)AI:1985年的贝叶斯网络和1995年的SVM是20世纪机器学习发展的两大标志,但近年来,逐渐成为非主流的研究方向; 神经(Neural)AI:经历了1980s-2012年神经网络、2012年后的深度学习两大阶段,深度神经网络和模型大小呈正相关,伴随着模型参数量的增加,相对应深度神经网络的能力将大幅提升,GoogleBrain的Transformer和OpenAI的GPT系列都属于深度学习领域的代表作。 图表1:人工智能的发展历史 SymbolicAI •将人类专家的知识和经验转化为计算机可以理解的形式,并利用AI技术来实现 •手写规则,简单粗暴 •只能处理非常少量数据 •像人脑一样学习 •开始尝试大量数据 •提前标注数据 •应用于计算机视觉、自然语言 处理、语音识别等领域 1985至今1980s-20122017 GPT系列 •基于Transformer架构 •投喂海量学习数据 •无监督训练方法 •通用文本预训练 2018 1970-1980s •找到一些函数或参数 •分类固定量数据 •应用于数据分析、预测和分类等任务 机器学习 StatisticalAI •全注意力机制 •关注文本序列数据 整体注意力 Transformer 知识建模、专家系统 神经网络 NeuralAI 神经人工智能 深度学习 目前,ANI已经广泛应用,AGI处于研发阶段,大模型是实现AGI的重要路径。 ANI(专用人工智能,ArtificialNarrowIntelligence)又称为弱人工智能,是专注于执行某一领域任务的经过训练的人工智能,是目前大多数的AI形式; AGI(通用人工智能,ArtificialGeneralIntelligence)是指一种具有与人类相当的认知能力的智能系统,能够理解、学习、计划和解决问题,目前尚未真正实现; ASI(超级人工智能,ArtificialSuperIntelligence)指在几乎所有领域都超过最优秀的人类所具备的智能、知识、创造力、智慧和社交能力的智能系统。 图表2:人工智能的三种类型比较 擅长领域 具备能力 发展成熟度 专用人工智能(ANI) 某一特定领域 具备执行能力 已应用广泛 通用人工智能(AGI) 大部分领域 拥有能够与人类相媲美的智慧 处于研发阶段 超级人工智能(ASI) 所有领域 全知全能 尚处早期 人工智能大模型:人工智能大模型是在参数和架构的基础上构建起来的一种结构,是人工智能迈向通用智能的里程碑技术,通过预先在海量数据上进行大规模训练,而后能通过微调以适应一系列下游任务的通用人工智能模型。在“大数据+大算力+强算法”的加持下,进一步通过“提示+指令微调+人类反馈”方式,可以实现一个模型应用在很多不同领域。 大模型VS小模型:人工智能的发展已经从“大炼模型”逐步迈向了“炼大模型”的阶段。“小模型”,针对特定应用场景需求进行训练,能完成特定任务,但是换到另外一个应用场景中可能并不适用,需要重新训练,如果某些应用场景的数据量少,训练出的模型精度就会不理想;“大模型”,在大规模无标注数据上进行训练,学习出一种特征和规则,基于大模型进行应用开发时,将大模型进行微调(在下游小规模有标注数据进行二次训练)或者不进行微调,就可以完成多个应用场景的任务,实现通用的智能能力。 图表3:大模型的特性图表4:大模型技术原理 通用性 大模型可以快速并大规模地与云计算、互联网等其他技术结合,广泛地应用在经济的各个领域。 涌现性 大模型参数超过百亿级时,模型性能会呈现出指数级增长,同时能够对未经专门训练的问题举一反三。 高投入 大模型具有重投入、长周期的特点,如每次测试需要海量的算力资源,训练一次成本高达千万美元。 工程化 大模型对数据、算法、算力要求极高,需要工程化的经营思路,需要严格把控数据清洗,把控用于关键性训练的数据,和构建大规模高质量训练的算力。 按照功能可分为NLP大模型、CV大模型、科学计算大模型和多模态大模型。 NLP(NaturalLanguageProcessing,自然语言处理)大模型:LLM为NLP大模型的一种,主要用于处理自然语言文本数据,具备强大的语言理解和生成能力,帮助人奏完成问答、创作、文本等工作,例如OpcnAl的GPT系列模型; CV(ComputerVision,计算机视觉)大模型:主要用于处理图像和视频数据,具备强大的围像识别和视频分析能力,如人脸识别、物体检测等,具体可以在智能驾驶、安防等领圾进行利用,例如腾讯的PCAM大模型; 科学计算大模型:主要用于解决科学领圾的计算问题,如生物信息学、材科科学、气侯模拟等,需要处理大规模教值数据,例和华为的盘古气象模型; 多模态大模型:可以同时处理多种类型的模态数据,如文本、围像、语音等,实现跨模态搜索、跨模态生成等任务,已有的渗透应用具休包括搜索引学、办公工具、全融电商等,例如谷歌的VisionTransformer模型。 图表5:AI大模型基本分类 大模型类别 基本功能 下游应用 应用占比 应用表现分析 NLP自然与处理大模型 文本分类情感分析问答系统 金融、泛消费、办公等交互类场景 在交互类场景中发挥重要作用,商业化应用程度高 所处阶段:快速发展期 CV计算机视觉大模型 物体检测人脸识别图像分类 安防、工业、交通、物流、医疗等领域 已助力安防、物流等领域提升视觉泛化,国内众多企业正深耕于研发和内部测试 所处阶段: 发展初期 科学计算大模型 气候模拟生物信息学数值模拟 生物制药、气象预报、材料研发等领域 用于解决复杂科学问题,但需要专门高性能计算机的支持 所处阶段: 雏形阶段 多模态大模型 跨模态检索多模态生成多媒体理解 泛娱乐、传媒、电商等领域 应用潜力较大,但当前仍有关键性问题尚待解决 所处阶段: 雏形阶段 AI大模型掀起多模态和多场景革命,重塑AI技术范式,提升模型能力天花板,应用价值显著提升。多模态融合模型通过充分利用大模型的泛化能力、构建多模态数据集、解决融合和对齐问题,以及提供强大的计算资源支持,可以将不同类型的数据(如图像、视频、声音等)通过预处理转化为统一的表示形式,结合多个模态的信息进行联合建模和分析,从而提升其在多个感知任务上的性能和表现。 图表6:AI大模型的应用场景(按模态区分) 1 大模型演进:工业革命级的生产力工具 3 2 CONTENTS 目大模型现状:GPT引领,百模征战 大模型未来:应用多点开花,产业智能跃迁 4 录投资建议:关注数据端&模型端&应用端 从GPT-1至GPT3.5跨越4年多时间,ChatGPT发布仅一年,GPT迭代开启“加速度”,现已具备多模态能力,并搭建GPTs生态,将定制化模型从ToB推广到ToC。 图表7:GPT产品迭代图 2017-2022年模型内部迭代期:Transformer→GPT-1/2/3→InstructGPT 2017.6,谷歌发布Transformer,成为后来所有LLM的基础架构,也是GPT的基础架构 2018.6,OpenAl发布基于TransformerDecoder架构的GPT-1,模型拥有1.2亿参数 GPT-1 2019.2,OpenAI发布GPT-2,模型拥有15亿参数,具有零样本(zero-shot)的多任务能力 GPT-2 2020.5,OpenAI发布GPT-3,模型拥有1750亿参数,具有小样本 (few-shot)学习的能力 GPT-3 2021.7,OpenAl发布CodeX,加入代码训练,让模型获得理解和生成代码的决定 2022.3,OpenAl发布InstructGPT具有PromptTuning和RLHF技术,能输出符合人类偏好的内容 (对话式ChatGPT+图像识别+语音识别、视觉理解)×GPTs生态 GPT-3.5 2022.11,OpenAl发布InstructGPT的兄弟模型ChatGPT基于GPT-3.5架构使用了对话式的数据组织方式 GPT-4 2023.3,OpenAl发布推出了大型多模态模型GPT-4,不仅能够阅读文字,还能识别图像,并生成文本结果 GPT-4V 2023.9,OpenAl发布推出了具有视觉功能的GPT-4V,专门针对图像输入做评估和判断工作 GPTs+GPT-4Turbo+AssistantAPI 2023.11,在首届OpenAI开发者大会上,OpenAI 正式推出GPTs,向世界展示了GPT-4Turbo •优化与现实语料库数据 集的连接 •支持多轮对话和结果修正,并能够更快速、更有效地进行人机交互 •解决更复杂的任务并增强 安全性 •多模态能力叠加图像识别 •支持图像输入并分析为 GPT-4V的主要革新 •其在视觉理解、描述、推理等诸多方面表现出了类似人类水平的能力 •GPTs:用户针对特定目的定制化ChatGPT,构建自己的AIAgent •GPTStore上线,OpenAI与开发者收益共享 •GPT-4Turbo亮点:更长上下文+更丰富世界知识+更多的控制+多模态能力跨越+定制化+更高的频率上限+大幅降低开发者成本 •发布GPTassistantAPI,减轻开发者调用函数工作,拓展OpenAI收入来源 GPTs:“针对特定目的定制的ChatGPT”。OpenAI正式推出GPTs功能,即每个Plus用户都可以通过自然语言构建定制化GPT,定制版的ChatGPT具备带有任何功能的可能性(在保证隐私和安全的情况下),并将其上传到应用商店GPTStore获得分成收入,OpenAI迎来iPhone时刻。不论是开发者还是不会写代码的普通人,都可以拥有自定义版本的GPT;GPTstore有望为AI应用开发者提供新的触达用户渠道和商业化路径。 低门槛、低成本、定制化的特点,使得GPTs具备普及性和颠覆性。GPTs的开发几乎是零成本,零基础的开发者也能完成定制化GPTs的创作,有望颠覆诸多实用型工具(如录音转文字、视频/文字总结、作文批改、商品比价等),更易为公司和个人实现降本增效,助力生产力提升。 •开发者:定义一个或多个API来连接GPTs到真实世界,如数据库、电子邮件或作为购物助手 •企业客户:部署仅限内部使用的GPTs,以满足其特定用例、部门或专有数据集的需求 •普通用户:有机会尝试更多优秀的GPTs来满足需求 图表8:ChatGPT更低门槛的“APPStore时刻”来临 任何人 制作 无需编码知识,只需要通过对话提供指令设置功能 集合 GPTStore GPTs 用户可以创建并公开分享GPTs,可搜索/可为创作者付费 图表9:OpenAI发布的官方GPTs 赋能/利好 图表10:国外大模型及其合作伙伴 OpenAI 微软 Meta 谷歌 DeepMind Anthropic 2022年11月,OpenAI推出GPT-3.5,参数规模为1750亿 2023年3月,OpenAI发布GPT-4,参数规模为1.8万亿,接受图像和文本输入 2023年9月,OpenAI推出语音和图像输出的GPT-4V,联网功能回归 2023年9月,DeepMind创始人表示,GPT-5在秘密训练,比GPT-4大100倍 2021年6月,微软推出AI代码补全