您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:通信行业深度报告:应用端百花齐放,硬件侧本固枝荣 - 发现报告
当前位置:首页/行业研究/报告详情/

通信行业深度报告:应用端百花齐放,硬件侧本固枝荣

信息技术2023-04-11民生证券上***
通信行业深度报告:应用端百花齐放,硬件侧本固枝荣

ChatGPT引入插件Plugin,开启AI生态。在ChatGPT联网前,用户仅能查询到2021年9月之前的消息,但随着OpenAI开放网络浏览器和代码解释器,用户不仅能够查询到最新新闻。从这一点看,我们认为ChatGPT未来最大的进步在于从“有监督式”学习转向“无监督式学习”。在联网前,ChatGPT都是从已有固话训练集中获取学习素材,需要认为调整训练参数才能提升学习精度;联网后,ChatGPT能够根据实时更新数据素材进行“自我迭代”,搜索精准度、理解准确度都将迎来新的提升。 算力仍是重中之重,带动产业链成长。我们认为ChatGPT体现了当前AI训练速度、训练精度的提升,背后的根本逻辑在于庞大训练数据集的支撑,而对于硬件层面来说,计算与传输是保证ChatGPT平稳运行的核心。根据贝壳财经咨询,北京时间2月9日,由于训练量超负荷,ChatGPT官网无法登录,页面显示“超负荷”,侧面印证了当前的网络资源/计算能力无法保证未来大量涌入的算力需求。ChatGPT的总算力消耗约为3640PF-days,从摩尔定律角度看,以ChatGPT为代表的AI发展速度呈指数级上涨,约每隔3~4个月翻倍(摩尔定律翻倍周期约18个月)。 从ChatGPT所需要GPU数量测算,未来所需要高功率机柜近7.5万个。 根据钛媒体,GPT 3.5完全训练需要A100芯片近3万颗,对应英伟达DGX A100服务器近3750台。考虑到英伟达DGX A100服务器单台最大功率为6.5kw,假设平均功率为4kw/台,则10kw功率机柜可搭载2.5台AI服务器。 为满足3750台AI服务器,需要建设机柜1500个,假设算力需求扩至50倍,共需要高功率机柜约7.5万个。 AI大趋势下,数据中心耗电成为“阿喀琉斯之踵”。数据中心制冷主要采取风冷+液冷,液冷有望成为大数据中心主流方案。根据IDC圈,液冷的冷却能力较风冷而言高1000~3000倍,且液冷对环境要求更低,适应性更强。根据Dell 'Oro统计预测,2022年-2027年数据中心基础设施(DCPI)收入CAGR有望保持8%,超350亿美元。且随着英特尔、英伟达、AMD等处理器与加速器性能的提升,数据中心机架功率密度会再度提升。 投资建议:AI模型及相关应用带动算力增长,建议关注第三方头部IDC运营厂商奥飞数据、数据港、宝信软件(计算机组覆盖)、光环新网、润泽科技(计算机组覆盖);同时我们认为随着未来高密度数据中心兴起,叠加ESG要求,IDC储能温控环境有望核心受益,建议关注科华数据、申菱环境、英维克、依米康。 风险提示:市场竞争加剧,技术更新风险,电价波动风险。 重点公司盈利预测、估值与评级 1应用:ChatGPT引入插件Plugin,AI生态伊始 1.1看海外:ChatGPT插件或开启苹果AppStore模式 插件支持功能促进ChatGPT更好接入第三方应用。北京时间3月24日,人工智能公司OpenAI宣布为ChatGPT添加插件支持,未来可访问第三方应用程序。目前OpenAI针对开发人员及ChatGPT用户,将插件集成至其使用产品的API中,通过“开发—使用”闭环增加用户访问量,从而打造人机交互范式社区。 目前已有多家巨头接入使用插件。 ChatGPT通过插件功能已实现类似Python的效果,赋能百业。根据OpenAI官方演示,ChatGPT接入数学知识引擎Wolfram Alpha后,数值计算精确度得到较大提升。 图1:引入数学知识引擎后,ChatGPT具备较为精确的计算能力 联网打开ChatGPT更多想象空间。在ChatGPT联网前,用户仅能查询到2021年9月之前的消息,但随着OpenAI开放网络浏览器和代码解释器,用户不仅能够查询到最新新闻,同时能够将自己的私人数据如个人文档、笔记、邮件等输入ChatGPT供其训练。从这一点看,我们认为ChatGPT未来最大的进步在于从“有监督式”学习转向“无监督式学习”。在联网前,ChatGPT都是从已有固话训练集中获取学习素材,需要人为调整训练参数才能提升学习精度;联网后,ChatGPT能够根据实时更新数据素材进行“自我迭代”,搜索精准度、理解准确度都将迎来新的提升。 图2:ChatGPT可线上链接多个第三方库资源 打造类AppStore商业模式,多家知名品牌已经接入,AI生态圈正处于起步阶段。目前OpenAI邀请的第一批开发伙伴主要包含Shopify、Slack以及旅游平台Expedia、生鲜电商Instacart、旅游搜索引擎服务商Kayak、在线餐厅预订服务平台OpenTable、 自动化平台Zapier等。 如用户可通过Instacart+ChatGPT插件,发送预定商品指令,ChatGPT处理指令后电商平台Instacart可直接下单并将货品送至客户地址。 我们认为ChatGPT已经成为OpenAI的生态平台底座,开发人员可在OpenAI平台上创建并分享自己基于ChatGPT底层开发的插件。类似于苹果的AppStore允许第三方应用程序在其设备上广泛接入。 1.2析国内:各家大厂纷纷发布大模型 供需两侧增长较快,国内环境给予大模型良好生长土壤。从需求端看,我国AI软件及应用市场增长较快。根据IDC统计,2021年中国人工智能软件及应用市场规模为51亿美元,预计2026年达211亿美元。我们认为当前人工智能已进入大规模应用的关键时期,但过去受高开发门槛、复杂多样应用场景、数据标注等问题桎梏,AI应用并未形成规模化效应。从供给侧看,信息化的发展使得数据量井喷式增长,带来数据“宝藏”的同时也对技术提出更多挑战,但不可否认的是,数据既是AI发展的驱动力,同样也可成为其发展的瓶颈,数据的井喷式增长也带来了算力复杂度提升。根据IDC统计,我国数据规模有望从2021年的18.51ZB增长至2026年的56.16ZB,CAGR 24.9%,增速居于全球第一。 “大模型”是打通人工智能技术通用性“任督二脉”的关键。过去在分散化的模型研发模式下,单一的AI应用场景下多个任务需要由多个模型共同支撑完成,每一个模型建设都需要算法开发、数据处理、模型训练与调优过程。预训练大模型增强了人工智能的通用性、泛化性,基于大模型通过零样本或小样本精调,就可实现在多种任务上的较好效果。大模型“预训练+精调”等模式带来了新的标准化AI研发范式,实现AI模型在更统一、简单的方式下规模化生产。 图3:我国AI软件及应用市场规模 图4:我国数据量规模全球领先 百度:文心大模型已拥有模型+平台+产品构成的全套体系。百度文心已经构建了文心大模型层、工具平台层、产品与社区三层体系。在产品能力上,文心大模型通过与百度飞桨Paddle-Paddle深度学习平台组合,可以满足市场大规模落地需求;在应用能力方面,百度已在金融、能源、制造、城市、传媒、互联网等行业拥有实际落地的标杆案例;在生态能力方面,以社区用户为基础,文心大模型可以实现与开发者、行业用户、上下游产业的正向互动。 百度文心大模型参数量达到2600亿,在市场格局中处于第一梯队。文心大模型构建了“基础+任务+行业”的三级模型体系,基础大模型作为整体的底座来支撑任务与行业大模型的建设,任务和行业大模型则通过结合真实场景与数据反哺基础大模型优化。基础大模型旨在技术挑战、通用性、泛化性探索;任务大模型由对话、搜索、信息抽取、生物计算等多个典型任务构成;最后所得出的行业大模型已经形成了包含了与来自8个行业的头部企业或机构共建的11个行业大模型。 行业大模型是百度文心大模型深入产业落地的重要措施与载体。百度与行业头部企业、机构联合研发的融合行业数据、知识以及专家经验的大模型,在各行业的技术效果突破、产品创新、生产流程变革、降本增效等维度产生价值。如国家电网与百度联合发布知识增强的电力行业大模型;浦发银行与百度在行业数据、大算力和AI算法上优势互补,联合研发面向金融行业的大模型;百度与人民网合作,引入舆情数据中心沉淀的行业知识来更好训练知识增强的传媒行业大模型实现更少的标注数据下大幅提升传媒行业自然语言处理任务效果等。 图5:百度文心大模型全景图 百度文心围绕大模型产业应用的不同研发环节,面向不同开发者或用户,打造系列工具平台与场景化产品。对于开发者拥有面向NLP工程师的大模型套件ERNIEKit;对于下游应用,文心开放了API接口供其使用;对于用户则推出了基于大模型驱动的新一代产业级搜索系统文心百中,以及AI艺术与创意辅助平台文心一格。 华为:盘古大模型已深耕行业,发掘应用。华为的盘古AI大模型项目于2020年立项,并于2021年4月发布“盘古大模型”。依托华为自身的全栈式AI解决方案,将大模型与ModelArts平台深度结合。当前盘古大模型已经发展出包括基础大模型(L0)、行业大模型(L1)、行业细分场景模型(L2)三大阶段的成熟体系。 盘古大模型首个落地应用“矿山AI大模型”。在智能矿山领域,华为旨在将AI应用门槛降低,将应用场景串联,将IT、 Ct 、OT系统相互联系。为此,华为拥有以“矿山AI大模型”为代表的IT技术;以5G、F5G为代表的 Ct 技术;以“矿鸿”操作系统为代表OT技术。“IT+CT+OT”的“3T融合”将矿山内部众多的工作“微场景”联接成为“中场景”,将“中场景”联接成为“巨场景”,再将“巨场景”联接成为“智能矿山”。进而推动集团型能源企业的数字化转型。 华为ModelArts一站式AI平台为开发者提供平台支持。ModelArts平台拥有为机器学习与深度学习提供海量数据据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署的能力,并具有数据处理、算法开发、模型训练、AI应用管理和部署等功能,可以帮助用户快速创建和部署模型,管理全周期AI工作流。 图6:华为ModelArts平台 腾讯:混元大模型已成为深入产业落地的重要措施。腾讯在2022年4月首次对外披露了混元大模型,该大模型作为协同了腾讯预训练研发力量的成果,完整的覆盖了NLP大模型、CV大模型、多模态大模型以及众多行业领域的任务模型。 腾讯太极机器学习平台为混元大模型提供底层支持。腾讯自主研发的一站式机器学习生态服务平台——太极机器学习平台,为AI工程师提供了从数据预处理、模型训练、模型评估到模型服务的全流程高效开发工具,已成为大模型训练的有效保障。 图7:太极-HCF ToolKit加速大模型落地 混元AI大模型已在腾讯多个业务场景中落地。混元大模型先后支持了包括微信、QQ、游戏、腾讯广告、腾讯云等多项产品和业务,通过NLP、CV、跨模态等AI大模型,在创造了增量价值的同时降低使用成本。其中在广告内容理解、行业特征挖掘、文案创意生成等方面的应用,在为腾讯广告带来大幅GMV提升的同时,也初步验证了大模型的商业化潜力。 图8:太极-HCF ToolKit加速大模型落地 阿里巴巴:通义大模型于2022年9月发布并宣布相关核心模型开源开放。 在2022年9月2日,阿里发布"通义"大模型系列,核心模型通过"魔搭"社区向全球开发者开源开放。"通义"系列大模型以统一学习范式和模块化设计理念统一架构、模态、训练、应用等方面,使用开源社区"魔搭"进行模型服务共享,推出"飞天智算平台"提升AI训练效率。目前阿里"通义"大模型已广泛用于电商、设计、医疗等领域,助力其降本增效。 图9:阿里巴巴通义大模型落地 2022年11月,阿里推出AI开源社区"魔搭"(ModelScope)。自2021年起,阿里达摩院先后发布多个版本的多模态及语言大模型,在超大模型、低碳训练技术、平台化服务、落地应用等方面实现突破,引领了中文大模型的发展。 "魔搭"旨在打造下一代开源的模型即服务共享平台,致力降低AI应用门槛。 2023年3月,阿里在"魔搭"上线了"文本到视频生成扩散模型",实现视频生成功能。 2硬件:算力仍是重中之重,带动产业链成长 2.1超越摩尔定律,未来AI算力有望几何式增长