您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:计算机:国内顶尖大模型巡礼:MiniMax - 发现报告
当前位置:首页/行业研究/报告详情/

计算机:国内顶尖大模型巡礼:MiniMax

信息技术2024-04-25刘高畅、陈芷婧国盛证券B***
计算机:国内顶尖大模型巡礼:MiniMax

请仔细阅读本报告末页声明 证券研究报告 | 行业深度 2024年04月23日 计算机 国内顶尖大模型巡礼:MiniMax 全栈自研大模型,打造全球领先AGI生态。1)MiniMax成立于2021年12月,是一家通用人工智能科技公司,致力于与用户共创智能。MiniMax自主研发了不同模态的通用大模型,包括万亿参数的MoE文本大模型、语音大模型以及视觉大模型。基于不同模态通用大模型,公司已推出多款AI原生应用。公司创始人为商汤前副总裁闫俊杰,核心团队成员技术背景强大。截至2024年初,公司估值已超过25亿美金,新一轮为阿里巴巴领投,验证其技术地位。2)2024年1月,MiniMax全量发布大语言模型abab6,为国内首个数千亿参数级别MoE大语言模型。同年4月,MiniMax推出万亿参数MoE大语言模型abab6.5。根据公司官方微信公众号,在各类核心能力测试中,abab6.5已与GPT4、Claude 3 Opus、Gemini 1.5 Pro等全球顶尖大语言模型接近。3)产品端,MiniMax在B端C端广泛布局。2C而言,基于不同模态的通用大模型,MiniMax推出生产力工具海螺AI、沉浸式AI内容社区星野等原生应用;2B而言,MiniMax开放平台为企业和开发者提供安全、灵活、可靠的API服务,助力快速搭建AI应用。 技术前瞻全面转向MoE,已超越GPT3.5、追赶GPT4。1)自2022年底ChatGPT推出以来,大模型已成为全球科技必争之地。目前,业内大模型主要包括两种流派,Dense与MoE。在传统的Dense模型中,所有的参数都会对所有的输入数据进行处理。而在MoE模型中,用户可以仅针对整个系统的某些特定部分执行动态激活计算。2)相比Dense架构,MoE在相同计算资源下,训练速度更快,模型上限更高,是世界顶尖模型的主流选择。①在训练阶段,MoE能够在远少于Dense模型所需的计算资源下进行有效的预训练。这意味着在相同的计算预算条件下,用户可以显著扩大模型或数据集的规模。②在微调阶段,MoE模型可能从指令式微调中获益更多,高于Dense模型。③在推理阶段,尽管对内存需求较高,MoE模型的推理速度远快于具有相同数量参数的Dense模型。3)目前,MoE已成为业内共识,GPT4、Gemini、Mixtral等全球一流模型均已采用MoE架构。而MiniMax为了进一步提升模型在复杂任务下的效果,从2023年6月开始全面转向MoE模型,并于2024年4月全量发布为国内首个万亿参数级别MoE大语言模型abab 6.5,体现了其深刻的技术前瞻性与战略执行能力。 万卡算力集群为基,平台与产品已为全球客户广泛认可。1)在算力储备方面,根据公开信息,截至2023年,公司已拥有数千卡以上的常态化训练和万卡级推理算力资源池,支撑单日过亿次调用。2)在B端生态方面,自2023年4月,MiniMax发布开放平台以来,MiniMax陆续服务了近20,000家企业客户和开发者,其中包括金山办公、小红书、腾讯、小米和阅文在内的多家头部互联网公司。截止至2024年1月16日,即大语言模型abab6发布前,MiniMax开放平台平均单日的token处理量达到了数百亿。3)在C端产品方面,用户可以在星野根据自定义的外表、性格、语音,创立独特AI形象并收集卡牌,星野全球数据表现亮眼,月活已突破千万级别,商业化潜力大;另外,海螺AI作为公司国内推出的个人AI助理,用户可提出问题,获得详尽的解决方案,且可语音通话并和AI外教练习口语。 着眼AGI,与用户共创智能。MiniMax的理念是“Intelligence with Everyone”,即与用户共创智能。公司创始人闫俊杰在采访中提到“AGI不是大杀器,是普通人每天会用的一个产品、一个服务”;公司副总裁和开放平台负责人魏伟也在采访里提到,“目前距离实现真正的AGI仍然有很长的路要走。我们的目标是在算法上持续保持领先,在业务上始终为用户创造实际的价值。”我们认为,凭借扎实的大模型基座、广泛的应用生态、敏锐的技术前瞻性、果断的投入决心、优秀的人才团队,以MiniMax等为代表的国产大模型已逐步跻身全球一流科技梯队,AGI正在加速到来。 风险提示:AI技术迭代不及预期;经济下行超预期;行业竞争加剧。 增持(维持) 行业走势 作者 分析师 刘高畅 执业证书编号:S0680518090001 邮箱:liugaochang@gszq.com 分析师 陈芷婧 执业证书编号:S0680523080001 邮箱:chenzhijing3659@gszq.com 相关研究 1、《计算机:Meta发布Llama3,开源生态再迎重大更新》2024-04-20 2、《计算机:Tesla Robotaxi即将面世,自动驾驶真元年已经到来》2024-04-14 3、《计算机:AI现象级产品曙光出现》2024-04-13 -48%-32%-16%0%16%2023-042023-082023-12计算机沪深300 2024年04月23日 P.2 请仔细阅读本报告末页声明 内容目录 一、全栈自研大模型,打造全球领先AGI生态 .......................................................................................................... 3 二、技术前瞻全面转向MoE,超越GPT3.5、追赶GPT4 ............................................................................................. 7 三、万卡算力集群为基,平台及产品已获全球客户广泛认可..................................................................................... 12 四、风险提示 ....................................................................................................................................................... 18 图表目录 图表1:MiniMax技术理念 ...................................................................................................................................... 3 图表2:公司现有大模型部分布局 ............................................................................................................................ 4 图表3:MiniMax开放平台文本大模型接口计费标准 .................................................................................................. 4 图表4:MiniMax开放平台语音大模型接口计费标准 .................................................................................................. 5 图表5:星野产品界面 ............................................................................................................................................. 5 图表6:海螺AI产品界面 ........................................................................................................................................ 6 图表7:MiniMax历史融资 ...................................................................................................................................... 6 图表8:GPT用户数高速增长 .................................................................................................................................. 7 图表9:MoE模型架构 ............................................................................................................................................ 8 图表10:MoE模型较Dense模型从指令微调中受益更多 ........................................................................................... 8 图表11:GPT-4性能对比 ........................................................................................................................................ 9 图表12:Mixtral 8x7b性能对比 ............................................................................................................................... 9 图表13:Gemini 1.5百万字符的上下文窗口远超同类模型 ....................................................................................... 10 图表14:abab6.5测试结果 ................................................................................................................................... 11 图表15:黄仁勋于英伟达GTC大会上表示GPT或采用1.8万亿参数的MoE结构 ...................................................... 11 图表16:MiniMax开放平台部分合作伙伴 .....................................................................................................