Anthropic 把最强模型藏起来了——结果自己把它泄露了
🔐 一个 CMS 配置失误,曝光了 AI 史上最「危险」的模型。Anthropic 的安全团队大概经历了史上最尴尬的一周 😅
3月26日,Fortune 记者在例行数据浏览中发现 Anthropic 约 3000 份未公开内部文档 暴露在公开缓存中。这些文档揭示了一个代号 Mythos(内部名 Capybara)的超级模型——Anthropic 有史以来最强的 AI,在网络安全和编程能力上实现了「质的飞跃(step-change)」。
但真正让人震惊的不是模型有多强,而是 Anthropic 因为风险太高而主动拒绝发布。🤯
网络攻击能力
在基准测试中远超所有现有模型,能快速发现、理解并利用软件漏洞
编程能力
在编程基准上大幅领先 Claude Opus,更强的复杂系统架构设计能力
学术推理
多步骤逻辑推理和跨学科知识综合显著提升
发布状态
不公开!仅限少数网络安全防御机构在严格限制下使用
史上最尴尬的数据泄露
数据暴露
Anthropic 将技术评估文档存储在公开可访问的数据缓存中,被 Fortune 记者发现
媒体报道
Fortune 于3月26日发布独家报道,随后 Mashable、WinBuzzer 等跟进
Anthropic 确认
Anthropic 证实正在测试 Mythos,但强调仅用于网络安全防御研究
市场反应
多家网络安全公司股价应声下跌,反映市场对 AI 赋能攻击的担忧
Anthropic 内部评估认为 Mythos 带来的风险是 "史无前例的":
攻防失衡:模型的漏洞利用能力远超防御方应对速度,可能大幅降低网络攻击门槛
预示浪潮:这只是"一波模型浪潮"的开端,后续模型可能更加强大
精准利用:能理解并利用复杂的软件漏洞,攻击效率远超人类黑客
- 🔑 防御方也能用它来发现漏洞
- 📊 透明度有助于行业安全讨论
- 🔬 开源社区可以协同改进防御
- 🌍 隐藏模型并不能阻止坏人
- ⛔ 攻击门槛被大幅降低
- 💀 攻击速度远超防御响应
- 🌐 恶意行为者可能大规模滥用
- ⚠️ 一旦泄露无法收回
Mythos 事件揭示了三个重要信号:
AI 能力已接近"危险阈值"
领先AI公司开始主动限制模型发布,这在历史上还是第一次
AI 安全的悖论
最重视安全的公司,在基础数据管理上犯了低级失误——安全不只是模型层面的事
开源 vs 封闭的新争论
当模型能力足够强大时,是否应该开放?这可能成为2026年最激烈的辩论话题
🎓 一句话总结
Mythos 泄露是 AI 发展史上的标志性事件——不是因为它展示了多强的能力,而是因为它让所有人第一次真切地看到:AI 能力的边界正在逼近危险线,而行业对此的态度正从「全力加速」转向「谨慎刹车」。⚡