美国政府与三大AI巨头签约:未发布模型须先过安全审查
📅 2026年5月5日📰 CNBC⏱️ 阅读时间 4 分钟
🔒 AI模型发布前要先过政府审查!美国与五大AI公司签约,前沿模型安全审查时代来临。
协议核心内容
美国商务部下属的人工智能标准与创新中心(CAISI)与三家科技巨头签署了新协议:
- Google DeepMind
- Microsoft
- xAI(马斯克旗下)
🏛️ 加上此前已签约的OpenAI和Anthropic,美国五大AI公司全部纳入政府审查框架。
审查什么?
根据协议,CAISI将对前沿AI模型进行:
- 部署前评估: 在模型公开发布前,评估其能力和潜在风险
- 部署后研究: 模型上线后持续监测和评估
- 针对性安全研究: 针对特定国家安全风险进行专项评估
这意味着AI公司不能再「先发布,后补救」了——政府要在模型上线前就看到它的能力。
触发因素:Mythos事件
这一政策的加速推进,部分源于Anthropic的Claude Mythos Preview模型。
⚠️ Mythos模型具有识别软件漏洞的强大能力,引发了政府对AI安全风险的担忧——如果这种能力被滥用,后果不堪设想。
这直接促使政府考虑成立新的AI工作组,研究对AI模型的审查机制,可能通过行政命令设立。
政策转向:从放松到收紧
这一动向标志着美国政府AI监管政策的重大转向:
- 此前: 政策偏向「放松监管」,鼓励AI创新
- 现在: 政策趋向「收紧监管」,强调安全审查
🔄 转变的核心逻辑:当AI能力突破某个阈值后,放任自流的风险已超过过度监管的代价。
全球AI监管竞赛
美国并非唯一在加强AI监管的国家:
- 欧盟: AI法案已正式生效,全球首个AI监管框架
- 中国: 工信部启动「模数共振」行动,推动AI标准化
- 联合国: 中国与赞比亚推动AI能力建设国际合作
AI监管正在从「各自为战」走向全球协调。但各国对「安全」的定义和标准仍存在巨大差异。
白宫表示最终决定将由总统公布。无论结果如何,AI模型的安全审查时代已经到来。
📰 来源:CNBC / NIST