一、五角大楼的最后通牒
2026年2月,一场关于AI安全的博弈在华盛顿悄然展开。美国国防部长Pete Hegseth向Anthropic下达最后通牒:周五前解除Claude模型的军事应用限制,否则将终止合同并将公司列入供应链风险名单。
Anthropic CEO Dario Amodei的回应掷地有声:"我们无法在良心上接受五角大楼的要求。"他明确表示,新版合同条款"在防止Claude被用于大规模监控美国人或全自动武器方面几乎没有进展"。
这场对峙的焦点在于:军方要求对Claude模型"所有合法目的"开放使用,而Anthropic坚持保留安全护栏,禁止模型用于大规模监控和自主武器系统。五角大楼发言人Sean Parnell态度强硬:"我们不会让任何公司来决定我们的运营决策。"国防部负责研究与工程的副部长Emil Michael更是在X平台上公开抨击Amodei"有上帝情结"。
这种公开施压的方式引发了两党议员的担忧。共和党参议员Thom Tillis批评国防部处理方式"不专业",民主党参议员Mark Warner则表示"深感不安",认为这表明国防部"完全无视AI治理"。

二、Anthropic为何宁丢2亿合同也要坚守底线
Anthropic成立于2021年,由前OpenAI研究副总裁Dario Amodei和妹妹Daniela Amodei联合创立。公司从诞生之初就以"AI安全"为核心使命,愿景是构建可靠、可解释、可控制的AI系统。
这次对峙中,Amodei展现了一个AI公司CEO罕见的立场:宁可失去价值2亿美元的政府合同,也不愿放弃安全原则。他在声明中写道:"国防部的两个威胁本质上相互矛盾——一个把我们标记为安全风险,另一个却称Claude对国家安全至关重要。"
值得注意的是,Anthropic是最后一家常驻五角大楼合同中坚持保留安全限制的AI公司。Google、OpenAI和马斯克的xAI已先后向军方开放了技术使用权限。Amodei在内部备忘录中写道:"我们花了多年时间构建安全护栏,不是为了在最大压力下第一个妥协。"
Anthropic的坚持有其深层考量。Claude目前已被用于军事情报分析等敏感场景,如果完全解除限制,模型可能被用于:大规模监控(扫描海量公民数据识别潜在威胁)、自主武器决策(在无人工干预下选择攻击目标)、虚假信息战(自动生成针对性宣传内容)。这些用途恰恰触及AI安全的红线。

三、AI军事化的临界点
这场博弈折射出AI行业面临的核心困境:当国家安全与企业伦理发生冲突,该如何选择?Anthropic与五角大楼的对峙,为整个AI行业敲响警钟。
安全原则不是营销话术。当真正的考验到来,企业是否有勇气坚守?政府合同可能带来巨额收入,但也可能侵蚀企业核心价值。如果所有AI公司都向军方妥协,安全护栏将形同虚设。
在这场博弈中,Anthropic选择了坚守。无论最终结果如何,这个决定都将在AI伦理史上留下重要一笔。正如参议员Warner所言,这凸显了国会"为国家安全场景制定强制性AI治理机制"的紧迫性。
AI的未来不应只有一种声音。当技术力量日益强大,谁来为它划定边界?Anthropic给出了自己的答案——哪怕代价是失去最大的客户。



