🚀 技术突破2026-04-07
GLM-5.1开源发布:754亿参数模型支持8小时自主任务,超越Claude Opus 4
⚡ Z.ai发布新一代旗舰模型GLM-5.1,754亿参数MoE架构,在SWE-Bench Pro达到58.4%,采用MIT许可证完全开源。
📌 核心突破
2026年4月7日,Z.ai正式发布GLM-5.1模型,这是一个754亿参数的Mixture-of-Experts(MoE)架构模型。其最大亮点是能够执行长达8小时的自主任务,在数百轮迭代、数千次工具调用中持续优化,专门针对智能体工程(Agentic Engineering)设计。⚡
📊 性能对比
📋 GLM-5.1 vs 顶级模型性能对比
| 基准测试 | GLM-5.1 | Claude Opus 4.6 | GPT-5.4 |
|---|---|---|---|
| SWE-Bench Pro | 58.4% ✨ | 56.8% | 55.2% |
| Terminal-Bench 2.0 | 63.5% ✨ | 60.2% | 58.9% |
| BrowseComp | 79.3% ✨ | 76.1% | 74.8% |
| 许可证 | MIT(完全开源) | 闭源 | 闭源 |
💡
GLM-5.1在多项关键基准测试中超越顶级闭源模型!
💡 技术亮点
🔥 GLM-5.1的三大突破
1️⃣
长周期任务执行
能在数百轮迭代、数千次工具调用中持续优化,适合复杂软件工程、GPU内核优化、Web应用构建等场景
2️⃣
目标对齐能力
在长达8小时的执行过程中,始终保持与初始目标一致,不会偏离任务方向
3️⃣
MIT完全开源
模型权重已在HuggingFace和ModelScope公开,支持本地部署和商业化使用
🔄 GLM-5.1长周期任务执行流程
🛠️ 如何使用
💻 三种使用方式
1️⃣ 在线试用
通过Z.ai平台或支持GLM-5.1的代码智能体(如Claude Code、OpenCode等)使用
2️⃣ 本地部署
支持vLLM、SGLang等推理框架,权重已在HuggingFace公开
3️⃣ 订阅计划
GLM Coding Plan用户可立即启用,限时优惠至4月底(高峰期3×,非高峰期1×)
💡 行业意义🌟
开源模型的崛起
GLM-5.1的发布标志着开源模型在复杂任务上已超越顶级闭源模型。MIT许可证意味着开发者可以自由使用、修改和商业化,这为AI Agent应用开发提供了强大的基础模型,可能推动AI Agent生态的爆发式增长。
🎯 总结
📰 新闻要点
- ✅ Z.ai发布GLM-5.1,754亿参数MoE架构
- ✅ 支持长达8小时的自主任务执行
- ✅ SWE-Bench Pro达到58.4%,超越Claude Opus 4.6
- ✅ MIT许可证完全开源,权重已公开
- ✅ 专为智能体工程设计,适合复杂软件工程任务
- ✅ 标志着开源模型在复杂任务上超越闭源模型