您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[天风证券]:计算机行业:以昇思为基,盘古生态引领中国AI未来 - 发现报告
当前位置:首页/行业研究/报告详情/

计算机行业:以昇思为基,盘古生态引领中国AI未来

信息技术2023-04-11天风证券张***
计算机行业:以昇思为基,盘古生态引领中国AI未来

华为在AI的软硬件布局全面,全体系自主可控且水平国内领先 华为具备全栈全场景AI解决方案,为大模型提供坚实的软硬件平台,整体结构可以分为硬件层(昇腾芯片+服务器)、AI赋能层与模型层。在硬件层华为拥有已经经过验证的训练端、推理端芯片和成体系的服务体系,达到了较好的自主可控;软件层面,公司在AI框架和AI一站式开发平台上都处于国内领先地位;在最上层的大模型,华为在NLP、CV、多模态和科学计算上都有领先的布局。 MindSpore昇思与ModelArts为华为AI软件生态打造了良好的基础 昇思自2020年至今已经成为国内领先的开源AI框架社区,在使用率上与百度飞桨并列国内双雄,针对大模型,昇思也在并行计算、内存复用等领域有针对性的改进;此外昇思拥有完善的生态伙伴体系与强大的“朋友圈”,众多科研机构与上市公司都基于Mindspore开发AI算法,也有包括盘古系列在内的多款大模型是基于Mindspore完成开发。ModelArts作为基于华为云的一站式AI开发平台,也拥有较高的市占率和较完善的产品体系。由此可知华为在AI赋能层处于国内领先的水平,我们认为这会为未来2B大模型应用打下基础。 华为在大模型层布局完善,在NLP大语言模型积累已久,总体实力位列国内第一梯队 华为早在2021年就开展了大规模自回归中文预训练大语言模型的研究,最初与鹏程实验室、北京大学等联合推出了盘古α,此模型与GPT系列结构相似,最高有2000亿参数,可见华为技术积累已久。随后在2023年3月份,公司发表的新论文描述了由华为完全自主开发的盘古Σ,此模型是在盘古α基础上拓展而来的万亿参数稀疏模型,由3290亿token训练而成,从模型结果看,盘古Σ是国内第一梯队的中文大语言模型,无论在中文下游任务、中文对话生成、机器翻译上都处于领先地位,在英语自然语言理解上甚至不输GPT313B版本,我们认为长久的技术积淀造就了华为在大语言模型上的较强能力,未来持续看好基于盘古大语言模型的各类2C和2B应用。 风险提示:AI应用落地不及预期、硬件领域发展不及预期、大模型进展不及预期 1.华为在AI与大模型全栈布局完善,硬/软件皆国内领先 华为具备全栈全场景AI解决方案,为大模型提供坚实的软硬件平台。整体结构可以分为硬件层(昇腾芯片+服务器)、AI赋能层与模型层。 1)在硬件层:华为拥有包括昇腾910与昇腾310在内的训练端与推理端芯片,在此之上有完善的Atlas系列硬件,随后有CANN异构计算架构,此架构对上支持多种AI框架,对下服务AI处理器与编程,发挥承上启下的关键作用,是提升昇腾AI处理器计算效率的关键平台; 2)AI赋能层:华为拥有自主的AI框架昇思MindSpore和一站式开发平台ModelArts。 Mindspore是国内第一梯队的AI框架,生态体系成熟;ModelArts也是基于华为云的头部AI开发平台,助力企业提高开发效率降低开发成本; 3)盘古系列大模型层:华为开发的模型分别为NLP大模型、CV大模型、科学计算大模和多模态大模型。 图1:华为在AI与大模型的全栈布局完善 2.昇思MindSpore:国内领先的AI框架 AI框架是智能经济时代的操作系统。根据中国信息通信研究院编写的《AI框架发展白皮书》,AI框架是AI算法模型设计、训练和验证的一套标准接口、特性库和工具包,集成了算法的封装、数据的调用以及计算资源的使用,同时面向开发者提供了开发界面和高效的执行平台,是现阶段AI算法开发的必备工具。 2.1.国产AI框架呈现MindSpore与PaddlePaddle双寡头态势 Mindspore是使用率最高的国产AI框架之一。在2023年2月Omdia发布的《中国人工智能框架市场调研报告》中,分别针对中国开发者人工智能使用率、大模型使用意愿等进行调研,结果显示昇思MindSpore与PyTorch、TensorFlow、PaddlePaddle等人工智能框架在知名度与使用率市场份额上处于第一梯队,其中国产AI框架中昇思与百度飞浆并驾齐驱;在大模型开发上,Omidia的调查显示,10%的调研用户认为昇思在超大规模模型训练能力上更强。 图2:中国开发者主流人工智能框架使用率11%,仅次于Tensorflow 图3:超大规模模型训练能力位列国产AI框架第一 2.2.Mindspore昇思功能全面,针对大模型特殊优化 昇思MindSpore是一个全场景深度学习框架,旨在实现易开发、高效执行、全场景覆盖三大目标。其易开发表现为API友好、调试难度低;高效执行包括计算效率、数据预处理效率和分布式训练效率;全场景则指框架同时支持云、边缘以及端侧场景。昇思MindSpore包含的主要功能如下: (1)ModelZoo(模型库):ModelZoo提供可用的深度学习算法网络,也欢迎更多开发者贡献新的网络(ModelZoo地址)。 (2)Expression(全场景统一API):基于Python的前端表达与编程接口,支持两个融合(函数/OOP编程范式融合、AI+数值计算表达融合)以及两个统一(动静表达统一、单机分布式表达统一)。 (3)第三方前端:支持第三方多语言前端表达,未来计划陆续提供C/C++、华为自研编程语言前端-仓颉(目前还处于预研阶段)等第三方前端的对接工作,引入更多的第三方生态。 (4)Data(数据处理层):提供高效的数据处理、常用数据集加载等功能和编程接口,支持用户灵活地定义处理注册和pipeline并行优化。 (5)Compiler(AI编译器):图层的核心编译器,主要基于端云统一的MindIR实现三大功能,包括硬件无关的优化(类型推导、自动微分、表达式化简等)、硬件相关优化(自动并行、内存优化、图算融合、流水线执行等)、部署推理相关的优化(量化、剪枝等)。 (6)Runtime(全场景运行时):昇思MindSpore的运行时系统,包含云侧主机侧运行时系统、端侧以及更小IoT的轻量化运行时系统。 (7)Insight(可视化调试调优工具):昇思MindSpore的可视化调试调优工具,能够可视化地查看训练过程、优化模型性能、调试精度问题、解释推理结果。 在支持超大规模模型训练开发方面,昇思MindSpore在进行架构设计时就考虑了大模型开发时遇到的内存占用、通信瓶颈、调试复杂、部署难等问题,针对性的技术研究与创新包括以下几点。 业界领先的全自动并行能力,提供6维混合并行算法,即数据并行、模型并行、流水并行、优化器并行等,一行代码实现模型自动切分、分布式并行计算,开发并行代码量降低80%、系统调优时间下降60%; 极致的全局内存复用能力,在开发者无感知的情况下,自动实现NPU内存/ CPU内存/NVMe硬盘存储的多级存储优化,512卡就可训练10万亿规模的参数模型,极大降低大模型训练成本; 极简的断点续训能力,可解决大集群训练故障导致的任务中断问题,实现自动恢复、继承性 图4:MindSpore总体架构 图5:MindSpore自动并行原理 2.3.Mindspore生态体系与应用场景广泛 截止2023年4月8日,昇思的社区用户超过430万,总Star数超过22.1K。昇思自2020年开发至今走过了3个年头,到2023年3月底,昇思已经拥有了核心贡献者9700+,下载量超过386万,服务企业5500+,MSG足迹遍布国内外30个城市,在码云(Gitee)千万级开源项目中活跃度排名第一。社区伙伴企业遍布各大高校和各类企业,长亮科技、华宇信息、润和软件、多伦科技、新开普等上市公司亦在其中。 图6:昇思的部分生态伙伴企业一览 此外,基于MindSpore,华为和生态伙伴目前已开发出多款面向多模态、遥感、生物医药等领域的大模型: 紫东太初:业界首个三模态千亿参数大模型,支持文本、视觉、语音不同模态间的高效协同,可支撑影视创作、工业质检、智能驾驶等产业应用; 武汉Luojia:遥感领域首个国产化自主可控的遥感专用机器学习框架; 鹏程盘古:业界首个千亿级参数中文自然语言处理大模型,可支持知识问答、知识检索、知识推理、阅读理解等丰富的下游应用; 鹏程神农:面向生物医学领域的人工智能平台,包含蛋白质结构预测等多个模块,为制药企业和医学研究机构提供平台能力,加速新型药物的筛选与创制; 空天灵眸:首个面向大规模跨模态数据的遥感智能解译生成式大模型,共享学习遥感多模态多任务的通用特征,加速AI应用于遥感领域。 图7:基于昇思MindSpore开发的大模型一览 3.AI框架之上,更有业内领先的一站式开发平台 ModelArts是面向开发者的一站式AI开发平台,为机器学习与深度学习提供海量数据预处理及半自动化标注、大规模分布式Training、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。 ModelArts的理念就是让AI开发变得更简单、更方便。从技术上看,ModelArts底层支持各种异构计算资源,开发者可以根据需要灵活选择使用,而不需要关心底层的技术。同时,ModelArts支持Tensorflow、PyTorch、MindSpore等主流开源的AI开发框架,也支持开发者使用自研的算法框架,匹配您的使用习惯。在产品架构上,能够支撑开发者从数据到AI应用的全流程开发过程。包含数据处理、模型训练、模型管理、模型部署等操作,并且提供AI Gallery功能,能够在市场内与其他开发者分享模型。 图8:ModelArts的产品架构 图9:ModelArts架构与AI开发的工作流相契合 华为云的ModelArts在中国机器学习公有云服务市场的份额位居前列。华为云AI开发生产线ModelArts在AI云服务方面的竞争优势明显。历经多年的技术创新,ModelArts已成功在十多个领域进行商业化落地,持续领跑机器学习公有云市场,为AI开发带来变革。据IDC发布的《2022 H1中国AI云服务市场研究报告》统计,华为云在中国机器学习公有云服务市场份额排名第一,迄今为止华为云AI开发生产线ModelArts已经连续五次登上榜首。 图10:2022H1华为云在中国机器学习公有云服务市场中位居前列 在互联网领域,华为云ModelArts基于算法优化、语音质检等途径,有效提升了T3出行司乘安全检测模型的准确率和召回率,使危险驾驶事件率下降38.6%,同时大幅降低模型开发和交付周期。 在自动驾驶领域,针对AI算法训练,华为云ModelArts支撑端到端训练效率提升;分布式多级缓存技术可以将训练时长缩短50%;针对大规模集群训练,拓扑感知调度和动态软路由技术可以提升训练性能30%。 4.盘古系列大语言模型,从2021年-2023年不新突破,凤凰终将涅槃 4.1.鹏程.盘古α:业界首个2000亿参数中文自然语言处理大模型 华为基于MindSpore框架训练出业界首个2000亿参数以中文为核心的预训练生成语言模型。鹏程·盘古α基于“鹏城云脑Ⅱ”和国产MindSpore框架的自动混合并行模式,实现了在2048卡算力集群上的大规模分布式训练,并完成业界首个2000亿参数以中文为核心的预训练生成语言模型。鹏程·盘古α预训练模型支持丰富的场景应用,在知识问答、知识检索、知识推理、阅读理解等文本生成领域表现突出,具备很强的小样本学习能力。 该模型是基于单向的Transformer decoder发展而来。query层堆叠在transformer层之上。 query层的基本结构与transformer层相似,只是引入了一个额外的Query layer,来预测生成下一个query Q的位置。 盘古α从80T原始数据中清洗除了1.1TB高质量中文语料数据集投喂训练,总计250B规模Tokens。海量语料是预训练模型研究的基础,联合团队从开源开放数据集、common crawl网页数据、电子书等收集了近80TB原始数据,搭建了面向大型语料库预处理的分布式集