特朗普政府拟对AI模型实施发布前审查,监管风向急转
🏛️ 风向变了。就在一年前,特朗普政府还在拆除AI监管护栏;现在,白宫正在讨论对前沿AI模型实施发布前安全审查——这几乎是此前被否决的AI监管方案的翻版。导火索?Anthropic的Mythos模型网络安全风险,让华盛顿彻底坐不住了。
监管新动向一览
- 📋 发布前审查:AI模型在公开发布前需经过安全评估
- 🏢 首批对象:Google、Microsoft、xAI等头部公司的模型
- 👥 AI工作组:白宫考虑设立新的AI工作小组负责审查
- 🔥 导火索:Anthropic Mythos模型的网络安全风险引发警觉
- 🔄 政策转向:从拆除监管护栏到重建审查体系
2025年12月,特朗普签署行政命令,废除了拜登时期的AI安全监管框架,称其「阻碍创新」。当时硅谷一片欢呼,AI行业以为迎来了监管蜜月期。
然而不到半年,局面彻底逆转。据POLITICO和CNBC报道,白宫正在讨论一系列针对前沿AI模型的新行政措施,包括:模型发布前的安全审查机制,以及设立新的AI工作小组来评估AI模型的潜在风险。
促成这次政策急转的关键事件,是Anthropic的Mythos模型暴露出的网络安全风险。
Fortune杂志指出,Mythos模型的网络安全能力远超预期,引发了华盛顿对AI安全风险的重新评估。此前,许多国会议员认为AI安全风险更多是理论上的担忧,但Mythos让这种担忧变得具体而紧迫。
🔍 为什么Mythos让华盛顿紧张?
- • 模型展示了远超预期的网络攻防能力
- • 现有安全评估框架无法有效衡量此类风险
- • 商业竞争压力可能让公司低估风险就发布模型
- • Anthropic自身已暂停Mythos的部分功能——这说明连最注重安全的AI公司也无法完全控制风险
据多家媒体报道,正在讨论中的措施包括:
- 1. 模型发布前安全审查
AI公司在发布新模型前,需要将其提交给政府指定的审查机构进行安全评估,重点关注网络安全、生物风险和社会影响。
- 2. 成立AI工作小组
白宫拟设立新的AI工作小组,集合技术专家、安全研究人员和行业代表,负责制定审查标准和流程。
- 3. 首批审查对象
Google、Microsoft、xAI等头部公司的最新模型将是首批审查对象,范围可能逐步扩大。
最大的讽刺在于:特朗普政府正在拥抱的AI监管思路,正是它一年前亲手否决的。
拜登2023年的行政命令曾要求AI模型在发布前接受安全测试,特朗普上台后将其废除,称其「抑制创新」。如今,出于国家安全考量,类似的机制又被重新搬上议程——只是换了个名字。
🤔 几个值得关注的问题
- • 审查标准谁来定?政府懂技术吗?
- • 审查会不会成为大公司的护城河,扼杀小公司创新?
- • 开源模型怎么审?代码公开了,谁来为下游使用负责?
- • 审查速度跟得上模型迭代速度吗?
- • 只审美国公司?海外模型怎么管?
无论如何,AI监管的放任时代已经结束。接下来是规则如何制定的问题——而这个过程中,技术能力、商业利益和国家安全将三方博弈,最终结果可能没有谁能完全满意。