【#参数规模翻倍、Agentic能力大跃升】GLM-5总参数量翻倍扩张至744B(激活参数40B),相比前代GLM-4.5的355B(激活参数32B)实现了大幅扩容。 同时,GLM-5在各项核心基准测试平均提升约20%,综合实力比肩Claude Opus 4.5与GPT-5.2。 在SWE 【国金计算机&科技】GLM5技术解析:国产模型进入算力换效果阶段,Token消耗指数级提升! 【#参数规模翻倍、Agentic能力大跃升】GLM-5总参数量翻倍扩张至744B(激活参数40B),相比前代GLM-4.5的355B(激活参数32B)实现了大幅扩容。 同时,GLM-5在各项核心基准测试平均提升约20%,综合实力比肩Claude Opus 4.5与GPT-5.2。 在SWE-bench Verified测试中得分达到77.8%,BrowseComp得分75.9%。 【GLM-5采用DSA稀疏注意力架构,在处理长序列时直接将GPU注意力算力成本降低了一半。 此外,模型深度适配国产芯片生态,通过极致的W4A8量化策略,在单台节点即可媲美国际双GPU集群,并将长序列场景下的部署成本大幅削减50%。 【#“交替思考”模式、国产模型进入算力换效果阶段】GLM5引入了“交替思考”(Interleaved Thinking),在每次回复和调用工具前进行深度推理。 ##正如我们在年度策略《两仪生四象,超级时代》中所强调,Interleaved Thinking会带来海量的长前缀预填充,从而带来算力的指数级提升 【#VibeCoding向VibeAgent转变】GLM-5致力于推动Al从被动的代码生成向自主规划、迭代的“Agentic Engineering”转变。 在内部真实场景测试集CC-Bench-V2中展现了出色的端到端处理能力;#综合参考Openrouter的Token调用看、我们认为:国产模型能力的下限从“抽卡”到“工业化可用”,达到了Coding、Agent稳定可用的要求,后续受益于Token放量+出海。