您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国联证券]:计算机周报:AIGC产业链近况更新 - 发现报告
当前位置:首页/行业研究/报告详情/

计算机周报:AIGC产业链近况更新

信息技术2023-12-31黄楷国联证券W***
计算机周报:AIGC产业链近况更新

AIGC正反馈不断加强 AIGC是人工智能、大数据、云计算等多个技术领域的整合,是一种跨领域的合作发展模式。AIGC的四个核心要素:数据、算力、模型和应用,正在逐步实现正反馈。大模型商业化运营、多模态开发等需要更多的算力资源,同时好的产品可以直接带来更多的需求,属于典型的“供给创造需求”。未来随着技术的进步和应用场景的不断拓展,这4个要素会不断实现正反馈,推动整个行业的创新和发展。 算力产业链加速发展 算力是大模型的底座,呈现加速发展趋势。11月13日英伟达发布了目前世界上最强的AI芯片H200。12月15日,联想两款AI Ready的AI PC产品正式上市。12月19日,摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程KUAE智算中心揭幕。算力网络方面,中国网络设备公司如华为、新华三和锐捷网络,互联网巨头如阿里巴巴、百度、字节跳动、腾讯等在2023年下半年陆续加入UEC联盟。 大模型能力不断提升 国内外大模型厂商持续进行研发投入,大模型能力持续提升。11月7日,OpenAI推出了GPT-4 Turbo,对六个方面进行了升级。12月6日,谷歌发布原生多模态大模型Gemini。12月21日,医渡科技发布自主研发的医疗垂域大模型。12月22日,文心一言等四款国产大模型率先达到国家相关标准。工业和信息化部赛迪研究院预计2023年,我国语言大模型市场规模将达到132.3亿元,增长率将达到110%。 文生视频引领AIGC应用 AIGC快速发展,已在文字、图像、音频、视频等领域得到应用。文生视频领域进展备受关注,Meta、字节跳动、StableAI、Pikalabs等均发布相关产品。文生图领先模型Midjourney发布V6版本,在语义理解、图像质量等方面取得提升。12月25日,昆仑万维AI Agents开发平台“天工SkyAgents”Beta版正式开放测试。 投资建议 建议关注算力、模型、应用三条主线,包括:(1)国产算力基础设施:海光信息、寒武纪-U、中科曙光、浪潮信息、紫光股份、锐捷网络等;(2)AI模型商业化:百度、科大讯飞、商汤、拓尔思等;(3)AI应用:①音视频:万兴科技、海康威视、大华股份等;②图像:美图公司、虹软科技等;③办公:金山办公、福昕软件、泛微网络、用友网络等;④垂直领域:同花顺、恒生电子、宇信科技、中科软、卫宁健康、医渡科技、中科创达等。 风险提示:AI技术发展演进不及预期;商业化进程不及预期;法律政策监管风险;行业竞争加剧。 1.AIGC正反馈持续加强 2023年我们见证了AIGC的快速崛起和破圈发展,虽然过程中有所曲折,但对于AIGC领域而言,可能仅仅是一个开始。在过去的深度学习黄金十年,人工智能的感知、理解能力不断增强,为AIGC的快速发展奠定基础。如今,随着生成算法、大模型、多模态技术等AI技术的持续创新和发展成熟,Al领域正在经历从感知、理解到生成、创造的跃迁。以AIGC为标志Al领域正在迎来下一个时代。融合大模型和多模态技术的AIGC模型,有望成为新的技术平台深度赋能各行各业。未来,“AIGC+”将在经济社会的各个领域持续大放异彩。 1.1AIGC产业链发展迅速 依托于强大的算力基础设施和海量的通用数据,经过训练和不断调优打造出了AIGC大模型,到中间层的垂直化、定制化、个性化的模型工具,再到下游层出不穷的、各种各样的AIGC应用和服务,AIGC的产业生态正在加速形成和发展。AIGC将创造出很大的经济社会价值,其应用不限于互联网领域,也将给文化、娱乐、教育、金融、医疗、公共服务、交通、制造等诸多领域带来积极影响。经历了2023年的喧嚣和炒作,2024年AIGC产业有望迎来更大的发展。 图表1:AIGC产业链图谱 1.2AIGC正反馈不断加强 AIGC是人工智能、大数据、云计算等多个技术领域的整合,是一种跨领域的合作发展模式。AIGC的四个核心要素:数据、算力、模型和应用,正在逐步实现正反馈。例如OpenAI、微软Office和文心一言已经率先实现了商业化,开始了商业覆盖,为了满足用户日益增长的访问需求,算力基础设施将会增加。多模态等更强大的模型也需要更多的算力资源,同时好的产品可以直接带来更多的需求,属于典型的“供给创造需求”。未来随着技术的进步和应用场景的不断拓展,这4个要素会不断实现正反馈,推动整个行业的创新和发展。 图表2:AIGC正反馈不断加强 2.算力产业链加速发展 2.1英伟达推出H200高性能GPU 英伟达在2023年11月13日,全球超算大会(SC2023)上发布了目前世界上最强的AI芯片H200。这款新的GPU是基于H100进行了升级,内存带宽提高了1.4倍,内存容量提高了1.8倍,提高了处理生成式AI任务的能力。 图表3:英伟达H200计算和推理能力显著提升 此外,12月初英伟达CEO黄仁勋在新加坡表示,中国市场占英伟达销售额的20%左右,英伟达将为中国市场提供一套符合美国政府最新规定的新产品。 2.2国产算力持续进步 12月19日,摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程KUAE智算中心揭幕仪式在北京成功举办,宣告国内首个以国产全功能GPU为底座的大规模算力集群正式落地。 图表4:摩尔线程MTT S4000智算加速卡发布 摩尔线程大模型智算加速卡MTTS4000,采用第三代MUSA内核,单卡支持48GB显存和768GB/s的显存带宽。基于摩尔线程自研MTLink1.0技术,MTT S4000可以支持多卡互联,助力千亿大模型的分布式计算加速。同时,MTT S4000提供先进的图形渲染能力、视频编解码能力和超高清8K HDR显示能力,助力AI计算、图形渲染、多媒体等综合应用场景的落地。尤为重要的是,借助摩尔线程自研MUSIFY开发工具,MTTS4000计算卡可以充分利用现有CUDA软件生态,实现CUDA代码零成本迁移到MUSA平台。 KUAE智算中心软硬一体解决方案发布 摩尔线程KUAE智算中心解决方案以全功能GPU为底座,是软硬一体化的全栈解决方案,包括以KUAE计算集群为核心的基础设施、KUAE Platform集群管理平台以及KUAE ModelStudio模型服务,旨在以一体化交付的方式解决大规模GPU算力的建设和运营管理问题。该方案可实现开箱即用,大大降低传统算力建设、应用开发和运维运营平台搭建的时间成本,实现快速投放市场开展商业化运营。 图表5:摩尔线程KUAE智算中心软硬一体解决方案 大模型训练效率提升 摩尔线程支持包括LLaMA、GLM、Aquila、Baichuan、GPT、Bloom、玉言等各类主流大模型的训练和微调。基于摩尔线程KUAE千卡集群,70B到130B参数的大模型训练,线性加速比均可达到91%,算力利用率基本保持不变。以2000亿训练数据量为例,智源研究院700亿参数Aquila2可在33天完成训练;1300亿参数规模的模型可在56天完成训练。此外,摩尔线程KUAE千卡集群支持长时间连续稳定运行,支持断点续训,异步Checkpoint少于2分钟。 2.3AIPC提升端侧AI能力 联想集团联合IDC共同发布的《AIPC产业(中国)白皮书》(以下简称“《白皮书》”)指出:在AI PC的推动下,PC产业生态将从应用为本转向以人为本,从应用驱动转变为意图驱动。传统PC产业生态以操作系统为基础,用户在系统界面中直接进行操作,并管理和应用各式各样的应用程序。AI PC产业生态中,个人智能体将成为第一入口,在大模型与应用生态的支持下,理解用户指令,给出反馈,跨应用进行调度,进而完成复杂任务。 图表6:传统PC与AIPC产业生态差异 模型、应用、算力厂商都需要围绕AI PC(终端)形态下新的以人为本的需求做出改变,在研发工作中对AI的高效运行予以充分的考量,以适应AI PC新时代。 联想持续推动AI PC的加速落地 12月15日,在2023英特尔新品发布会暨AI技术创新派对上,联想集团副总裁、中国首席战略官阿不力克木·阿不力米提正式公布:联想ThinkPad X1 Carbon AI、联想小新Pro 16 AI酷睿版两款AI Ready的AI PC产品,于当天15:00正式上市,预约预售同步开启。 图表7:联想上市两款AI PC产品 2.4算力网络:中国公司陆续加入超以太网联盟 目前AI/HPC训练的网络主要是基于RDMA(Remote Direct Memory Access),技术原理主要是允许CPU、GPU、TPU等加速器将数据直接从发送方内存传输到接收方内存。RDMA的网络层协议有三种选择:分别是InfiniBand(简称IB)、iWarp(internet WideArea RDMA Protocol)、RoCE(RDMA over Converged Ethernet)。 图表8:当前AI训练算力网络技术路线汇总 InfiniBand是一种专为RDMA设计的网络协议,由IBTA(InfiniBand Trade Association)提出,从硬件级别保证了网络无损,具有极高的吞吐量和极低的延迟。 但是InfiniBand交换机是英伟达旗下Mellanox提供的专用产品,采用私有协议,而绝大多数现网都采用IP以太网协议,采用InfiniBand无法满足互通性需求。同时封闭架构也存在厂商锁定的问题,由于未来需要大规模弹性扩展的业务系统,更多用户选择开放标准RoCE。iWarp由IEEE/IETF制定,由于性能较低,已经不是主流解决方案。 RoCE用于未来AI/HPC网络的局限性 RoCE (RDMA over Converged Ethernet)通过Verbs API表达的方式可追溯到上世纪末,由InfiniBand贸易协会(InfiniBand Trade Association,IBTA)进行标准化。随着人工智能模型规模扩大、通信模式及计算方法的多样化,传统基于RoCE的RDMA方案存在诸多问题: 1、RoCE和DCQCN是拥塞控制算法,用于避免链路超限并提高速率。但DCQCN对其下方网络和负载性质敏感,需手动调整性能。未来的AI网络需要一种适用于任何数据中心的传输协议。 2、网络运营商在“无损”网络(InfiniBand和RoCE)上运行RDMA以避免此行为,但效率低。优先级流量控制(PFC)生成逐跳背压以太网是无损的,但背压(Back Pressure)传播导致拥塞树、队头阻塞、环路死锁等,使网络性能下降。PFC/ECN、DCQCN需根据网络情况调整、操作和监控,成本高。未来的AI网络急需不依赖于无损结构的传输协议。 3、无论是在带宽还是对等点数量方面。Verbs API设计规模已经捉襟见肘。RC(可靠连接)传输模式如果不减少快速路径状态,就不适合高速率下的高效硬件卸载。 此外,固有的流程到流程(N*P*P)的可扩展性问题也是一大限制。这些问题还没有完美的解决方案,而未来的AI网络需要能支撑Verbs API设计规模的传输协议。 4、AI应用程序传输大量数据,受NIC QP Scale和AI模型数据交互方式限制,传统RoCE需仔细进行大象流负载均衡以防止链路过载。AI工作负载决定了整个计算周期受限于所有流成功交付,而未来更高性能的AI网络需要改进的负载均衡技术。 超以太网联盟应运而生 为了突破传统以太网的性能瓶颈,满足AI和高性能计算对智能算力日益激增的需求,超以太网联盟(Ultra Ethernet Consortium,UEC)于2023年7月在Linux基金会的牵头下由多家全球头部科技企业联合成立。UEC早期创始成员包括AMD、Arista、博通、思科、Eviden、HPE、Intel、Meta和微软等全球头部科技企业。 图表9:超以太网联盟(UEC)早期创始成员 创始会员具备丰富的网络、人工智能、云和高性能计算大规模部署经验,将为UEC的四个工作组——物理层、链路层、传输层和软件层做出贡献。 图表1