您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[源达信息]:人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展 - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展

信息技术2024-03-26吴起涤、程治源达信息董***
AI智能总结
查看更多
人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展

证券研究报告/行业研究 Kimi智能助手热度高涨,国产大模型加速发展 ——人工智能专题研究系列五 投资评级:看好 分析师:吴起涤执业登记编号:A0190523020001wuqidi@yd.com.cn研究助理:程治执业登记编号:A0190123070008chengzhi@yd.com.cn 人工智能指数与沪深300指数走势对比 000300.SH885728.TI 10% 0% -10%-20%-30%-40% 2023/32023/62023/92023/12 资料来源:同花顺iFinD,源达信息证券研究所 相关报告: 1.《人工智能专题研究系列一:大 模型推动各行业AI应用渗透》2023.08.02 2.《人工智能专题研究系列二:AI大模型开展算力竞赛,推动AI基础 设施建设》2023.08.03 3.《人工智能专题研究系列三:Gemini1.0有望拉动新一轮AI产业革新,算力产业链受益确定性 强》2023.12.12 4.《人工智能专题研究系列四:OpenAI发布Sora文生视频模型, AI行业持续高速发展》2024.02.19 投资要点 Kimi智能助手爆火,AI大模型商业化可期 2024年3月18日月之暗面公告Kimi智能助手的上下文窗口已从20万汉字拓展至200万汉字,更长的上下文窗口意味着大模型可以更精准细微的捕捉用户需求。我们认为长上下文窗口将有助于大模型类智能产品的商业化落地,目前Kimi已在智能搜索、高效阅读、资料整理、辅助创作和编程助力等方面具有国际先进表现,数据显示2024年2月Kimi月访问量居于国内第三,最新周访问量达225万次,国产大模型产品商业化加速推进。 百度/阿里发布大模型新品,国产大模型进展加速 百度智能云基于千帆大模型平台发布多款新品,包括文心大模型、轻量大模型和垂直场景模型等多个系列。3月22日阿里通义千问宣布免费开放1000万字的长文档处理功能。我们认为Kimi热度出圈及文心一言和通义千问的新品迭代有望激发国内大模型行业的竞争意识,加快国内其他大模型产品的更新迭代速度,长期看将利好国内AI产业发展。从中短期来看,算力仍是发展AI产业的首要基础,建议关注AI算力产业链的相关机遇。 AI行业加速发展,关注算力产业链机会 算力是大模型行业发展的基础,大模型的训练参数量可高达千亿级,背后是大规模数据中心的支持,发展人工智能行业需要先发展算力基础设施。服务器、光模块和芯片是算力基础设施中的核心器件,预计算力基础设施的建设将极大拉动上述器件的需求,其中光模块和服务器国内公司的份额较高,在产品迭代基础上量价齐升逻辑明确。而芯片目前国产化率仍较低,具备较大国产化空间,卡脖子风险下自主可控紧迫度提升,相关制造产业链值得关注。 投资建议 1)服务器:算力缺口是明确发展机遇,建议关注:浪潮信息、中科曙光等; 2)光模块:AI产业拉动高速光模块需求,建议关注:中际旭创、新易盛等; 3)光芯片:光芯片决定光通信效率和稳定性,25G及以上光芯片国产化率仍有较大提升空间,建议关注:源杰科技等。 风险提示 AI技术发展不及预期,AI商业化推进不及预期,中美贸易摩擦加剧,国产化及市场开拓不及预期。 请阅读最后评级说明和重要声明 目录 一、事件:Kimi智能助手爆火,AI产业商业化有望加快3 二、算力产业链:高速光模块加快放量,国产厂商有望充分受益5 三、建议关注8 1.中际旭创8 2.新易盛9 3.浪潮信息10 四、投资建议11 五、风险提示12 图表目录 图1:月之暗面推出智能助手产品Kimi3 图2:Kimi具备论文阅读和总结能力3 图3:Kimi可以完成代码问题的解答3 图4:Kimi访问量逐周攀升4 图5:国内大模型产品月访问量情况(百万次)4 图6:百度智能云推出多款大模型新品4 图7:AI大模型中东西向流量显著增加5 图8:叶脊网络架构适用于东西向流量传输5 图9:NvidiaDGXH100架构示意图6 图10:中际旭创2018-2023年营收情况8 图11:中际旭创2018-2023年归母净利润情况8 图12:新易盛2018-2023年营收情况9 图13:新易盛2018-2023年归母净利润情况9 图14:浪潮信息2018-2023年前三季度营收情况10 图15:浪潮信息2018-2023年前三季度归母净利润情况10 表1:叶脊网络架构对光模块数量需求大幅提升5 表2:NvidiaDGXH100架构所需GPU、交换机数量6 表3:中际旭创在2022年全球光模块企业排名中位居第一7 2 一、事件:Kimi智能助手爆火,AI产业商业化有望加快 月之暗面(MoonshotAI)创立于2023年3月,团队核心成员曾参与GoogleGemini、GoogleBard、盘古NLP和悟道等多个大模型的研发,多项核心技术被GooglePaLM、MetaLLaMa、StableDiffusion等主流产品采用。2023年10月月之暗面推出全球首个支持输入20万汉字的智能助手产品Kimi。 图1:月之暗面推出智能助手产品Kimi 资料来源:月之暗面官网,源达信息证券研究所 根据月之暗面近期公告,Kimi智能助手的上下文窗口已从20万汉字拓展至200万汉字。上下文窗口即界面输入窗口和输出窗口的长度总和,更长窗口意味着大模型可以更精准细微的捕捉用户需求,提供更好服务。我们认为长上下文窗口将有助于大模型类智能产品的落地,目前Kimi已在智能搜索、高效阅读、资料整理、辅助创作和编程助手等方面具有国际先进表现,为用户提供高效服务。Kimi智能助手有望推动国产大模型产品的商业化进程。 图2:Kimi具备论文阅读和总结能力图3:Kimi可以完成代码问题的解答 资料来源:Kimi官网,源达信息证券研究所资料来源:Kimi官网,源达信息证券研究所 Kimi自2023年10月发布后,经过多次迭代及优化,可用性持续增强。根据Similarweb数据,2024年2月以来Kimi周访问量持续攀升,截至2024年3月11日-17日,周访问量已达225万次。根据AI产品榜,2024年2月Kimi月访问量已在国内大模型中位居第三,仅次于文心一言和通义千问。 图4:Kimi访问量逐周攀升图5:国内大模型产品月访问量情况(百万次) 250 200 150 100 50 0 访问量(万次/周) 2024年1月2024年2月 20 15 10 5 0 2/19-2/252/26-3/33/4-3/103/11-3/17 文心一言通义千问Kimi讯飞星火 资料来源:Similarweb,源达信息证券研究所资料来源:AI产品榜,源达信息证券研究所 百度智能云基于千帆大模型平台发布多款新品。产品包括适用于通用复杂场景的文心大模型:ERNIE3.5、ERNIE4.0;轻量大模型:ERNIESpeed、ERNIELite和ERNIETiny;垂直场景模型:ERNIECharacter、ERNIEFunctions。 3月22日阿里通义千问大模型宣布向所有人免费开放1000万字的长文档处理功能,成为目前全球文档处理容量最大的AI应用。 图6:百度智能云推出多款大模型新品 资料来源:百度智能云官网,源达信息证券研究所 Kimi智能助手的爆火有望推动国内大模型行业发展。Kimi智能助手的爆火及在上下文长度下的突破,有望推动大模型产品的商业化落地及国内AI产业发展。我们认为Kimi有望激发国内大模型行业的竞争意识,加快文心一言和通义千问等大模型产品的更新迭代速度,长期看将利好国内AI产业发展。从中短期来看,算力仍是发展AI产业的首要基础,建议关注AI算力产业链的相关机遇。 二、算力产业链:高速光模块加快放量,国产厂商有望充分受益 高算力需要与高效传输架构相匹配。AI大模型通常由多个服务器作为节点,并通过高速网络架构组成集群合作完成模型训练。因此在模型中东西向流量(数据中心服务器间的传输流量)大幅增加,而模型训练过程中南北向流量(客户端与服务器间的传输流量)较少,由于叶脊网络架构相较传统三层架构更适用于东西向流量传输,成为现代数据中心主流网络架构。 图7:AI大模型中东西向流量显著增加图8:叶脊网络架构适用于东西向流量传输 资料来源:华为云,源达信息证券研究所资料来源:鹅厂网事,源达信息证券研究所 叶脊网络架构大幅增加对光模块数量需求。由于叶脊网络架构中东西向流量大,因此服务器与交换机相连均需使用光模块,从而大幅增加对光模块数量需求。同时AI大模型的高流量对带宽提出更高要求,800G光模块相较200G/400G光模块具有高带宽、功耗低等优点,有望在AI大模型网络架构中渗透率提升。 表1:叶脊网络架构对光模块数量需求大幅提升 架构类型 传统三层架构 改进等三层架构 叶脊网络架构 光模块相对于机柜倍数 8.8 9.2 44/48 资料来源:中际旭创定向增发募集说明书,源达信息证券研究所 我们以NvidiaDGXH100网络架构为例。该架构适配NvidiaH100GPU,采用叶脊网络架构,分为1-4个SU单元类型(8个GPU组成一个H100服务器节点,32个服务器节点组成一个SU单元)。其中4-SU单元架构由127个服务器节点组成(其中一个节点用于安装UFM网络遥测装置),具有1016个H100GPU、32个叶交换机、16个脊交换机。 表2:NvidiaDGXH100架构所需GPU、交换机数量 资料来源:Nvidia,源达信息证券研究所 我们以NvidiaDGXH100架构为例测算GPU与光模块的对应数量。在4-SU的NvidiaDGXH100架构中,每32台服务器节点组成一个SU单元,并与8台叶交换机相连,因此服务器节点与叶交换机之间共有1024个连接(32×8×4);32台叶交换机需分别与16台 脊交换机相连,因此叶交换机与脊交换机之间共有512个连接(32×16); 在NvidiaDGXH100的目前方案中,脊-叶连接采用800G光模块,需要1024个800G光模块;叶-服务器连接中,每个服务器节点通过一个800G光模块与两台叶交换机向上连接,需要512个800G光模块(128×4),同时每台叶交换机通过一个400G光模块与一个服务器节点连接,需要1024个400G光模块(128×8)。综上计算得一个4-SU单元的DGXH100架构需要1016个GPU、1536个800G光模块、1024个400G光模块,GPU:800G光模块:400G光模块的比例约等于1:1.5:1。 图9:NvidiaDGXH100架构示意图 资料来源:Nvidia,源达信息证券研究所 国产光模块厂商在2022年全球光模块企业TOP10排名中占据7席。TOP10中国内企业为中际旭创(Innolight)、华为(Huawei)、光迅科技(Accelink)、海信(Hisense)、 新易盛(Eoptolink)、华工正源(HGG)、索尔思光电(已被华西股份收购)。而在高端光模块领域,中际旭创已在2022年实现800G光模块批量出货。 表3:中际旭创在2022年全球光模块企业排名中位居第一 2018 2021 2022 FinisarInnolight Ⅱ-Ⅳ&Innolight Innolight&Coherent Hisense Huawei(HiSilicon) Cisco(Acacia) Accelink Cisco(Acacia) Huawei(HiSilicon) FOIT(Avago) Hisense Accelink Lumentum/Oclaro Broadcom(Avago) Hisense Acacia Eoptolink Eoptolink Intel Accelink HGG Aoi Molex Intel Sumitomo Intel SourcePhotonics 资料来源:Lightcounting,源达信息证券研究所 三、建议关注