本周策略观点: 1.AI算力需求不断提升,持续关注算力产业链:大模型成为人工智能演进重要方向,智能算力需求几何级增长。随着人工智能大模型的快速发展,国内拥有云计算业务的各大互联网企业纷纷向英伟达进行大额订单采购。其中,字节公司今年已向英伟达订购了超过10亿美元(约为70亿元人民币)的GPU产品,仅字节跳动一家公司今年的采购量就已经接近英伟达去年在中国销售的商用GPU总销售额。AMD推出了一款全新的人工智能GPU Instinct MI300,对比英伟达的H100,MI300X提供的HBM(高带宽内存)密度约为H100的2.4倍,HBM带宽是1.6倍。这意味着AMD的这款产品可以运行比英伟达H100更大的模型。我们持续看好算力相关产业链,包含AI服务器、芯片等投资机会。 2.AI终端应用加速落地,关注机器人等智能终端及边缘计算投资机会:6月14日,讯飞星火APP实现“PC、iOS、安卓、小程序与H5”主流系统的全覆盖,并支持跨设备历史记录同步,使用户可在主流系统平台自由切换。在6月14-16日的2023上海国际嵌入式展中,英伟达展出Jetson边缘计算平台,并带来生态合作伙伴基于相关软硬件在交通、工业、机器人等多个垂直行业领域所构建的解决方案。随着AI终端应用加速落地,我们持续看好机器人等智能终端以及边缘计算投资机会。 市场回顾:本周(2023年6月12日-2023年6月16日,下同)通信(申万)指数上涨7.00%;沪深300指数上涨3.30%,行业跑赢大盘3.70pp。 重点推荐(已覆盖):中国移动、中国电信、中国联通、中兴通讯、中际旭创、天孚通信、美格智能、鼎通科技。 建议关注的标的:运营商:中国联通;主设备商&服务器:浪潮信息、紫光股份、星网锐捷、中科曙光;光模块:新易盛、华工科技、剑桥科技、博创科技;光器件:太辰光;光芯片:仕佳光子、源杰科技;IDC:润建股份、英维克、佳力图、申菱环境、数据港;PCB:兴森科技、沪电股份、深南电路、兴森科技、世运电路、崇达技术;连接器:鼎通科技,瑞可达;线缆:新亚电子;算力模组:美格智能、移远通信、广和通;工业互联网:工业富联、三旺通信;域控制器:经纬恒润、华阳集团、德赛西威、均胜电子、朗特智能、和而泰、拓邦股份;操作系统/软件:中科创达、光庭信息;MR产业链:蓝特科技、兆威机电、领益制造、鹏鼎控股、长盈精密。 风险提示:供应链风险;宏观经济风险;研发进度不及逾期风险;下游需求不确定风险 1.行业观点 1.1近一周行情表现 本周(2023年6月12日-2023年6月16日,下同)通信(申万)指数上涨7.00%; 沪深300指数上涨3.30%,行业跑赢大盘3.70pp。 图表1:本周通信行业涨跌幅前5个股 图表2:本周通信行业跌幅前5个股 在TMT各子板块:电子、通信、传媒以及计算机中,通信周涨幅居第一位。 图表3:TMT各子行业涨跌幅对比(截至2023年6月16日) 通信板块最新估值(市盈率为历史TTM_整体法,并剔除负值)为21.85X,位于TMT 各行业第四位。 图表4:TMT各子行业历史市盈率比较(各年份数据取自当年12月31日) 1.2本周策略观点速览 1.2.1AI算力需求不断提升,持续关注算力产业链 大模型成为人工智能演进重要方向,智能算力需求几何级增长。中国互联网巨头和科技巨头企业相继推出自主研发的AI大模型,这些大模型拥有着千亿、甚至万亿级别的参数,以及需要10TB级别以上的高质量的训练数据,需要极其大量的算力支撑。随着人工智能大模型的快速发展,国内拥有云计算业务的各大互联网企业纷纷向英伟达进行大额订单采购。其中,字节公司今年已向英伟达订购了超过10亿美元(约为70亿元人民币)的GPU产品。目前,仅字节跳动一家公司今年的采购量就已经接近英伟达去年在中国销售的商用GPU总销售额。 美国时间6月13日,AMD举行了重磅发布会,推出了一款全新的人工智能GPUInstinct MI300,并表示这款处理器将于今年晚些时候开始向部分客户发货。这款芯片是AMD针对大语言模型优化的版本,该产品的晶体管数量达到1530亿个,内存达到了192GB,内存带宽为5.2TB/s,Infinity Fabric带宽为896GB/s。对比英伟达的H100,MI300X提供的HBM(高带宽内存)密度约为H100的2.4倍,HBM带宽是1.6倍。这意味着AMD的这款产品可以运行比英伟达H100更大的模型。随着AI算力需求不断提升,我们持续看好算力相关产业链,包含AI服务器、芯片等投资机会。 1.2.2AI终端应用加速落地,关注机器人等智能终端及边缘计算投资机会 6月9日,在科大讯飞24周年庆上,讯飞星火认知大模型V1.5正式发布。时隔一月,讯飞星火认知大模型不仅各项能力持续提升,且在综合能力上实现三大升级:开放式知识问答取得突破,多轮对话、逻辑和数学能力再升级。星火APP同步发布,面向生活、工作等用户高频使用场景上线200多个小助手,用户创作中心还支持持续共创和分享,将打造大模型时代的随身助手。 在6月14-16日的2023上海国际嵌入式展中,位于A358展位的中电港展示了适用于自主机器和诸多其它嵌入式应用的英伟达Jetson边缘计算平台,并带来生态合作伙伴基于相关软硬件在交通、工业、机器人等多个垂直行业领域所构建的解决方案。随着AI终端应用加速落地,我们持续看好机器人等智能终端以及边缘计算投资机会。 建议关注组合: 运营商/国资云:中国移动、中国电信、中国联通、深桑达A; 主设备商&服务器:中兴通讯、浪潮信息、紫光股份、星网锐捷; 光模块:天孚通信、中际旭创、新易盛、光迅科技、博创科技、剑桥科技; IDC:润建股份、英维克、佳力图、申菱环境、数据港、奥飞数据、光环新网; 云计算&大数据:优刻得等; 工业互联网:工业富联、东方国信、三旺通信、东土科技、赛意信息、中控技术、宝信软件; 卫星互联网:万通发展、震有科技、海格通信、航天宏图、中科星图; 物联网/车联网:美格智能、鼎通科技、瑞可达、电连技术、移远通信、广和通; 域控制器:经纬恒润、华阳集团、德赛西威、均胜电子、朗特智能、和而泰、拓邦股份; 操作系统/软件:中科创达、光庭信息、四维图新; PCB/载板:沪电股份、深南电路、兴森科技、世运电路、崇达技术; AI:海康威视、大华股份、科大讯飞; 数据服务:每日互动、易华录、浙数文化、星环科技、安恒信息、山大地纬、拓尔思等; 数据安全:卫士通、深信服、启明星辰; 基础软件:东方通、润和软件; 2.本周专题解析 2.1AI算力需求不断提升,持续关注算力产业链 2.1.1国内外云厂商算力需求高企,英伟达芯片出货量持续上修 大模型成为人工智能演进重要方向,智能算力需求几何级增长。顺应趋势,中国互联网巨头和科技巨头企业相继推出自主研发的AI大模型,例如百度的文心大模型、华为的盘古大模型、阿里巴巴的通义大模型等。这些大模型拥有着千亿、甚至万亿级别的参数,以及需要10TB级别以上的高质量的训练数据,这些大模型训练的背后,都需要极其大量的算力支撑。在大模型复杂程度不断提升、数据量规模高速增长,以及应用场景的持续开拓和深入发展的背景下,智能算力的需求和规模势必将在未来几年迎来爆发式的增长。未来智能算力在算力规模中占比将不断上升,并且将维持40%左右的增速,预计到2030年,中国智能算力规模占比将达到90% 图表5:2018-2027E我国智能算力规模及占比 芯片是计算机负责执行计算任务的核心部件,是实现算力的物理基础。随着人工智能产业的高速发展,为了满足不断增长的算力需求,AI芯片的市场需求将持续上升。人工智能算法需要从海量的图像、语音、视频等非结构化数据中挖掘信息,以及AI大模型的训练、场景化的微调和推理,这些应用场景都依赖于海量的AI芯片提供强大的算力支撑。 然而,传统以CPU为主的通用计算能力已经无法满足多样化的人工智能应用场景的需求。 因此,采用CPU与AI芯片(GPU/FPGA/ASIC)组成的异构计算方案成为当前及未来智能计算的主流解决方案,这种异构计算方案需要大量的AI芯片,具有优秀的并行计算能力和高互联带宽,支持AI计算效能的最大化。 图表6:2019-2025E全球人工智能芯片市场规模预测(亿元) 随着人工智能大模型的快速发展,国内拥有云计算业务的各大互联网企业纷纷向英伟达进行大额订单采购。其中,字节公司今年已向英伟达订购了超过10亿美元(约为70亿元人民币)的GPU产品。 根据《晚点LatePost》报道,字节跳动目前已经采购了10万块A100与H800加速卡,其中H800于今年3月开始生产。目前,仅字节跳动一家公司今年的采购量就已经接近英伟达去年在中国销售的商用GPU总销售额。 2.1.2AMD发布MI300,开启AI芯片算力竞赛 美国时间6月13日,AMD举行了重磅发布会,推出了一款全新的人工智能GPU Instinct MI300,并表示这款处理器将于今年晚些时候开始向部分客户发货。自英伟达发布了AI芯片后,便彻底带动了市场的投资热情,也推动英伟达登上万亿美元市值的高峰。此次AMD发布重磅AI芯片,有望对英伟达当前的市场地位形成一定冲击。 在这次AMD的新品发布会中,核心产品无疑是用于训练大模型的GPU Instinct MI300。 早在今年初,AMD便已经宣布了新一代Instinct MI300,是全球首款同时集成CPU、GPU的数据中心APU。 图表7:AMD MI300A芯片示意图 此外,纯GPU产品被命名为Instinct MI300X,是迄今为止最先进的人工智能芯片,该芯片可以加快ChatGPT和其他聊天机器人使用的生成式人工智能的处理速度,并可以使用高达192GB的内存。 图表8:AMD MI300X芯片示意图 GPU MI300X是本次发布会的重点,这款芯片是AMD针对大语言模型优化的版本,该产品的晶体管数量达到1530亿个,内存达到了192GB,内存带宽为5.2TB/s,Infinity Fabric带宽为896GB/s。对比英伟达的H100,MI300X提供的HBM(高带宽内存)密度约为H100的2.4倍,HBM带宽是1.6倍。这意味着AMD的这款产品可以运行比英伟达H100更大的模型。 AMD现场演示了MI300X运行400亿参数的Falcon模型,而OpenAI的GPT-3模型有1750亿个参数。苏姿丰还用Hugging Face基于MI300X的大模型写了一首关于活动举办地旧金山的诗。这也是全球首次在单个GPU上运行这么大的模型,据AMD介绍,单个MI300X可以运行一个参数多达800亿的模型。 而在未来随着AI模型越来越大,意味着需要更多GPU来运行最新的大模型,而AMD芯片上内存的增加,意味着开发人员不需要那么多GPU,可以为用户节省大量成本。 图表9:AMD MI300与MI250X对比 苏姿丰表示,MI300X将于今年第三季度向一些客户提供样品,并于第四季度量产。同时AMD还发布了AMD Instinct Platform,集合了8个MI300X,可提供总计1.5TB的HBM3内存。 对标英伟达的CUDA,AMD也介绍了自身的芯片软件ROCm,AMD总裁Victor Peng称,在构建强大的软件堆栈方面,AMD取得了真正的巨大进步,ROCm软件栈可与模型、库、框架和工具的开放生态系统配合使用。之所以将重心放在AI芯片,也是因为AMD非常看好未来的AI市场。苏姿丰认为,数据中心人工智能加速器的潜在市场总额将从今年的300亿美元增长到2027年的1500亿美元以上。 2.2AI终端应用加速落地,关注机器人等智能终端及边缘计算投资机会 2.2.1讯飞星火大模型APP上线,支持多终端数据互通,赋能众多细分场景 6月9日,在科大讯飞24周年庆上,讯飞星火认知大模型V1.5正式发布。时隔一月,讯飞星火认知大模型不仅各项能力持