🚀 技术突破2026-04-07

GLM-5.1开源发布:754亿参数模型支持8小时自主任务,超越Claude Opus 4

⚡ Z.ai发布新一代旗舰模型GLM-5.1,754亿参数MoE架构,在SWE-Bench Pro达到58.4%,采用MIT许可证完全开源。

📌 核心突破

2026年4月7日,Z.ai正式发布GLM-5.1模型,这是一个754亿参数的Mixture-of-Experts(MoE)架构模型。其最大亮点是能够执行长达8小时的自主任务,在数百轮迭代、数千次工具调用中持续优化,专门针对智能体工程(Agentic Engineering)设计。⚡

📊 性能对比
📋 GLM-5.1 vs 顶级模型性能对比
基准测试GLM-5.1Claude Opus 4.6GPT-5.4
SWE-Bench Pro58.4% ✨56.8%55.2%
Terminal-Bench 2.063.5% ✨60.2%58.9%
BrowseComp79.3% ✨76.1%74.8%
许可证MIT(完全开源)闭源闭源
💡
GLM-5.1在多项关键基准测试中超越顶级闭源模型!
💡 技术亮点
🔥 GLM-5.1的三大突破
1️⃣

长周期任务执行

能在数百轮迭代、数千次工具调用中持续优化,适合复杂软件工程、GPU内核优化、Web应用构建等场景

2️⃣

目标对齐能力

在长达8小时的执行过程中,始终保持与初始目标一致,不会偏离任务方向

3️⃣

MIT完全开源

模型权重已在HuggingFace和ModelScope公开,支持本地部署和商业化使用

🔄 GLM-5.1长周期任务执行流程
GLM-5.1754B参数代码生成SWE-Bench Pro终端任务Terminal-Bench网页浏览BrowseComp仓库生成NL2Repo⏱️ 支持长达8小时的连续任务执行
🛠️ 如何使用
💻 三种使用方式

1️⃣ 在线试用

通过Z.ai平台或支持GLM-5.1的代码智能体(如Claude Code、OpenCode等)使用

2️⃣ 本地部署

支持vLLM、SGLang等推理框架,权重已在HuggingFace公开

3️⃣ 订阅计划

GLM Coding Plan用户可立即启用,限时优惠至4月底(高峰期3×,非高峰期1×)

💡 行业意义🌟

开源模型的崛起

GLM-5.1的发布标志着开源模型在复杂任务上已超越顶级闭源模型。MIT许可证意味着开发者可以自由使用、修改和商业化,这为AI Agent应用开发提供了强大的基础模型,可能推动AI Agent生态的爆发式增长。

🎯 总结

📰 新闻要点

  • ✅ Z.ai发布GLM-5.1,754亿参数MoE架构
  • ✅ 支持长达8小时的自主任务执行
  • ✅ SWE-Bench Pro达到58.4%,超越Claude Opus 4.6
  • ✅ MIT许可证完全开源,权重已公开
  • ✅ 专为智能体工程设计,适合复杂软件工程任务
  • ✅ 标志着开源模型在复杂任务上超越闭源模型