行业要闻追踪:国内外大模型密集发布。本周国内厂商如商汤、阿里、知乎陆续发布其大模型产品,飞书发布AI助手“MyAI”;海外亚马逊推出AI平台Bedrock,InnovativeEyewear推出支持ChatGPT的智能眼镜。算力仍是AI大模型发展的底层基础,持续关注算力基础设施,核心基础设施包括服务器(浪潮信息、紫光股份、中兴通讯等),交换机(锐捷网络、菲菱科思等),光器件光模块(中际旭创、新易盛、天孚通信等);配套设施包括机电设备(科士达等),温控设备(英维克、申菱环境等),高速互联线缆及组件等。端侧AI应用展现潜力,推荐关注智能模组(移远通信、广和通等),AIoT芯片(瑞芯微等)及相关通信芯片。 AI数据安全获重视。网信办发布《生成式人工智能服务管理办法(征求意见稿)》,海外ChatGPT也已引起意大利、美国、西班牙等多国监管关注。AI数据安全提上日程,建议关注可视化环节【恒为科技】、【中新赛克】等。 行业重点数据追踪:1)运营商数据:据工信部,截至2023年2月,5G移动电话用户达5.92亿户,占移动电话用户的34.9%;2)5G基站:截至2023年2月,5G基站总数达238.4万个;3)云计算及芯片厂商:22Q4BAT资本开支合计134亿元(同比-47%,环比-14%);22Q4海外三大云厂商及Meta资本开支合计389.34亿美元(同比+7%,环比-1%)。2023年3月,服务器芯片厂商信骅实现营收2.26亿新台币(同比-47.8%,环比+1.2%)。 行情回顾:本周通信(申万)指数上涨4.48%,沪深300指数上涨0.80%,板块表现强于大市,相对收益3.68%,在申万一级行业中排名第1名。在我们构建的通信股票池里有163家公司(不包含三大运营商),本周平均涨跌幅为5.6%,其中,光器件光模块和工业互联网板块领涨,涨幅分别为21%、11%。 投资建议:继续推荐AI基础设施投资机会 以ChatGPT为代表的AI应用正快速发展,并进行着快速迭代,有望赋能多行业多样化新型应用落地。软端的快速发展离不开硬件基础设备的保障,AI数据中心内部的各类的硬件基础设施环节有望充分受益AI行业进步带来的需求提升。除此以外,AI有望向边缘智能演进,关注端侧算力载体发展: (1)智算中心基础设施:ICT领先企业(紫光股份、浪潮信息、中兴通讯、锐捷网络、菲菱科思等),光器件光模块(中际旭创、天孚通信、新易盛等),IDC温控企业(英维克、申菱环境),IDC电源端企业(科华数据、科士达); (2)边缘智能:智能模组(移远通信、广和通等),AIoT芯片(瑞芯微等); 2023年4月份的重点推荐组合:中国移动、紫光股份、中际旭创、移远通信、申菱环境、三旺通信、科士达。 风险提示:AI发展不及预期、资本开支不及预期、宏观环境变化。 产业要闻追踪 (1)国内外大模型密集发布,AI监管已提上日程 事件: 4月10日,在商汤技术交流日活动上,商汤科技董事长兼首席执行官徐立宣布推出大模型体系“商汤日日新大模型”,包括1800亿参数中文语言大楼型应用平台“商量SenseChat、文生图生成模型“秒画”、3D内容生成平台“宇”(场景生成》、“格物”(物体生成)。 4月11日,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇在云峰会表示,阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造。目前,钉钉、天猫精灵等产品已接入通义千问测试,将在评估认证后正式发布新功能。 4月13日,知乎在北京召开“2023知乎发现大会”,首次公开旗下与面壁智能共建的大模型产品“知海图AI”。官方表示,在热榜上抽取、聚合知乎用户回答的41条内容,“知海图AI”的表现基本接近ChatGPT-4。 4月13日,亚马逊AWS推出推出生成式AI平台Bedrock服务,支持用户通过API访问亚马逊自己的Titan( 泰坦) 大模型; 同时支持调用来自AI21 Labs、Anthropic、Stability AI等第三方的多样化模型。Bedrock一个核心特征是支持企业自定义基础模型,只需少量数据就完成模型定制化和微调。 点评: 亮点一:国内外大模型密集发布 本周国内外大模型密集发布。在ChatGPT的带动下,全球科技公司掀起研究大型语言模型的热潮。本周海内外大厂在先后发布AI大模型产品,包括商汤“日日新SenseNova”、阿里巴巴“通义千问”、知乎“知海图AI”和亚马逊Bedrock。 表1:本周AI相关进展 亮点二:AI驱动智算中心发展,底层基础设施充分受益 大模型应用离不开高算力的AI集群。ChatGPT作为一种人工智能技术驱动的自然语言处理工具,通过连接大量的语料库来训练模型,做到人机交互等场景功能,背后需要大量的算力作为支撑。根据OpenAI数据,目前AI训练的算力需求呈指数级增长——每3.4个月便可翻番。 图1:AI算力需求快速增长 在本周发布《云基建专题(三)AI驱动下光模块趋势展望及弹性测算》中,我们分别基于A100和H100对应的网络架构测算了服务器、交换机和光模块的弹性: (1)A100架构下,服务器、交换机、光模块的市场弹性分别为60%、19%、28%。 基于下游应用呈现规模角度,即按照单GPT4.0模型对于服务器需求用量测算。 假设1:单个应用的需求角度看,服务器潜在用量为1.5万台。 假设2:全球假设国内和海外有潜在20家公司可能形成同样类型规模应用。 假设3:网络结构比例按照单个SuperPOD方式部署,即服务器:交换机:光模块的用量比例=1:1.2:32.1 假设4:服务器价格参考英伟达价格,为20万美元;交换机结合Mellanox售价,假设为2.5-3w美金,光模块根据交换机速率,现在主流为200G,假设单个售价为250美金。 表2:A100下游应用大规模使用角度硬件需求角度测算 (2)H100网络架构下,服务器、交换机、光模块市场弹性分别为78%、8%、28%。 假设1:单个应用的需求角度看,服务器潜在用量为7716台。 假设2:全球假设国内和海外有潜在20家公司可能形成同样类型规模应用。 假设3:网络结构比例按照单个SuperPOD方式部署,服务器:交换机:400G光模块:800G光模块用量比例=1:0.375:8:12。 假设4:服务器价格参考性能提升的幅度,假设提升为50万美元;交换机假设单价较200G时期提升2.5倍,对应为5w美金,光模块假设400G光模块单个售价为400美金,800G光模块售价为1000美金。 表3:H100下游应用大规模使用角度硬件需求角度测算 除此以外,随着数据中心交换机通信速率提升,数据中心短距离通信所需的高速线缆发展迅速。随着AI集群、高性能计算机(HPC)的发展,数据中心所需的光传输速率不断提升。并且CLOS架构下,数据中心东西向流量将呈指数级增长,分布式存储、超融合网络等发展将推动数据中心内的高速互联需求持续增长。而伴随着大型和超大型数据中心的自建和新建,先进的IDC一体化设计大大地提升了单机柜功率容量,从而有效缩小了服务器接入的垂直布线距离,DAC的性价比优势将推动高速铜缆需求更快增长。据LightCounting预测,2023年到2027年,AOC和高速传输铜缆的年复合增长率分别为14%和25%,预计2027年市场规模均突破10亿美元。 图2:DAC和AOC市场规模预测(百万美元) 超算/智算中心的基础设施也将迎来同步升级、发展: (1)机电设备方面,超算/智算数据中心中高压直流备电比例有望进一步提升。 数据中心电力设备作为核心发动机,主要包括:1)配变电系统(包含10~20KV配电柜、变压器、);2)备用电源系统:柴油发电机组;3)UPS电源系统:(交流UPS、直流UPS、输入/输出配电柜、蓄电池组)。传统数据中心建设中,柴油发电机组、电力用户站、UPS设备分别占到总成本的23%、20%、18%。而智算/超算数据中心相较于传统的数据中心,机柜功率密度和算力等级的大幅提升,我预计采用高压直流供电的模式占比会进一步提升,对于高压直流电源采购比例有望进一步提升,单KW电源端成本占比有望优化。 表4:超算/智算中心电气技术要求 (2)温控设备:液冷技术有望成为主流。液冷散热器通过液体流动与散热器内部表面摩擦带走大量的热量而起到散热作用,与一般的风冷散热器相比,液冷能够大幅提高降温效果,目前主要分为间接式/直接式液冷技术。其中,间接液冷技术是指服务器热源与液冷剂之间没有直接接触的换热过程,主要分类有冷板式与热管式;直接液冷技术是指冷却剂与电子元器件直接接触的换热过程,主要分类有喷雾式、喷淋式、浸没式三种。 目前国内高密度的云数据中心以及智算中心主要以冷板式液冷为主,超算中心主要以浸没式液冷为主。未来,考虑到对服务器改变形态的大小以及综合成本等,我们认为在服务器热力密度为15-20KW阶段,冷板式液冷对于服务器的形态变化相对较小、冷却液环节占比较低,环保等方面有望优先采用,随着算力密度的进一步增加,浸没式液冷整体散热能力有望进一步增强,推广度有望逐步打开。 图3:浸没式液冷工作原理 图4:冷板式液冷工作原理 根据赛迪顾问的数据,以液冷数据中心对传统市场进行替换作为市场规模测算基础,结合华为、阿里巴巴和中科曙光对液冷数据中心的替换率调查,预计2025年我国液冷数据中心的市场规模将破1200亿元,2021-2025年均复合增速25%。 (此处口径为液冷对应的数据中心规模),冷板式及浸没式液冷占比分别达到59%/41%,而AI等应用场景的加速发展下,数据中心液冷产业的渗透速度有望进一步加快增长。 图5:浸没式液冷工作原理 图6:冷板式液冷工作原理 会、生态文明建设的深度融合,物联网应用也持续升级,随着数据量的快速提升,边缘计算应用有望加速渗透。 图7:AI处理的重心向边缘转移 芯片厂商预研技术,推动大模型端侧应用。芯片厂商积极预研前沿技术,支撑大模型在端侧的运行 。 例如高通通过对AI引擎和AI软件栈的更新 , 增强Transformer等大模型模型的推理速度,已实现在端侧的独立运行——今年2月高通在MWC巴塞罗那演示了Stabe Diffusion在手机上实现AI绘图。更高的AI算力能力也在逐渐从旗舰级芯片下放至主流产品,例如骁龙第二代7+的AI性能大幅提升。无独有偶,华为3月23日举行的春季旗舰新品发布会,宣布华为P60系列搭载了智慧搜图新功能,该能力是多模态大模型技术的应用,也反映了边缘智能的趋势。随着芯片厂商优化大模型在端侧芯片的运行能力,端侧的边缘AI有望进一步发展,实现多模态大模型在边缘的应用。 图8:通过高通AI软件栈部署StableDiffusion 图9:高通实现全球首个终端侧(手机)AI模型的运行 图10:第二代骁龙7+集成的高通AI引擎性能提升2倍 图11:华为P60搭载智慧搜图 AI模组是算力的重要承载载体,具备了SoC异构计算的特性,为智能终端设备提供高算力支撑。智能模组是端侧设备重要的算力载体,目前相关厂商如移远通信、广和通等的智能模组产品在机器人、机器视觉等方向上已有落地应用。随着AI逐步向边缘侧部署,尤其是大模型在边缘侧运行,智能模组作为算力承载单元发挥更大作用。 图12:移远通信智能模组用于机器人AI开发 图13:移远通信智能模组用于边缘计算与机器视觉能力设备 图14:广和通AI智能模组SCA825-W 图15:广和通AI智能模组SC161和SC171 亮点四:AI监管提上日程,数据安全重要性提升 网信办发布《生成式人工智能服务管理办法(征求意见稿)》。《办法》提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。 ChatGPT引起海外多国监管关注。意