最后的“护栏”:Anthropic对抗五角大楼的72小时,以及硅谷的觉醒

2026-03-02 15:51:40

2026年2月27日,下午5:01。


这是美国国防部发给AI公司Anthropic的“最后通牒”截止时间。五角大楼的要求简单粗暴:要么拆除Claude模型的所有安全护栏,允许军方用于“一切合法用途”——包括大规模监控和自主武器;要么滚出价值2亿美元的合同,并被钉在“供应链风险”的耻辱柱上。


在这个时间到来前的几小时,一场没有硝烟的战争在华盛顿与硅谷之间爆发。OpenAI、谷歌的员工,甚至包括“AI教父”杰弗里·辛顿和神秘的伊利亚·苏茨克沃,突然站在了同一条战线上。





那两道绝不退让的“红线”


Anthropic的“罪状”,是它在合同里固执地画了两条线。


在过去的几个月里,美军已经在秘密行动中使用了Claude,包括在年初涉及委内瑞拉的军事行动中,Anthropic甚至是在行动曝光后才得知自己的技术被用于实战 。这让秉持“安全优先”理念的创始团队不寒而栗。


面对五角大楼的压力,Anthropic CEO Dario Amodei给出了明确的回应:


拒绝“杀戮机器人”:坚决禁止将Claude用于完全自主的武器系统。Amodei认为,即便是最先进的AI,其可靠性也远远不足以在战场上做出生死攸关的瞬间判断 。


拒绝“老大哥”:坚决禁止将Claude用于对美国公民的大规模无差别监控。


五角大楼无法接受这种“讨价还价”。国防部长Pete Hegseth认为,在战争规划的AI整合时代,任何技术限制都是对国家安全的不负责任。甚至在谈判破裂后,特朗普亲自下场,在社交平台上怒斥Anthropic是“极左疯子”,并宣布联邦机构全面封杀。


The Guardian 报道截图




不只是聊天,更是军方的“最强大脑”


为什么五角大楼不惜撕破脸也要得到Claude?——

因为它是目前唯一被允许接入美国国防部机密系统的商业AI模型 。


Claude的能力早已超越了普通的聊天机器人。


  1. 情报分析:它能处理和分析美军最高级别的敏感情报,吞吐量达到百万token级别。
  2. 作战规划:在模拟推演中,Claude能根据实时战况提供多套战术建议。
  3. 代码能力:随着Claude Opus 4.6的发布,其“计算机使用”能力极大增强,能像人类一样操作电脑、编写代码、执行复杂的自动化任务。


这种“强大”,让Anthropic感到恐惧。他们担心如此强大的工具一旦装上“自主的扳机”,将引发不可控的人道灾难。


(Anthropic官网对于此次事件的声明)




3800亿美元的“慢钱”逻辑


虽然丢了军方的订单,但Anthropic在资本市场依然是香饽饽。就在2月中旬,他们刚完成了300亿美元的G轮融资,估值飙升至3800亿美元。


这背后藏着一个与OpenAI截然不同的“赚钱逻辑”。


OpenAI走的是“流量路线”,靠ChatGPT的20美元月费吸引上亿用户,薄利多销。而Anthropic走的是“企业服务路线”,虽然用户数少,但客单价极高。数据显示,Claude的每月活跃用户能产生211美元的收入,而OpenAI的每周活跃用户仅能带来25美元。


令人意想不到的是,特朗普的“封杀令”反而成了Claude最好的广告。


就在白宫宣布禁用、国防部将其列为“供应链风险”后,Claude在苹果美国区App Store的免费应用排行榜上像坐火箭一样蹿升,并在周末一举超越ChatGPT,登顶榜首。


数据机构SensorTower显示,Claude的排名在一月底还在前100名外徘徊,二月底直接冲上第一。Anthropic发言人透露,过去一周内,每天的新注册用户数都在刷新历史纪录。


与今年一月相比,Claude的免费用户数增长超过60%,付费订阅用户数量在年内翻番。这充分说明,公众将Anthropic的坚持视为一种“有良知”的行为,用下载量投出了信任票。


(Anthropic官网对于此次事件评论的声明)




危机公关与“民心所向”


Anthropic这次虽然丢了政府的面子,却赢得了市场的“里子”。


透明化沟通:CEO Amodei没有回避媒体,而是直接发文解释“为什么我们不能昧着良心答应”,将复杂的伦理问题翻译成了大众能理解的“良知” 。


民众共鸣:在旧金山办公室外,民众自发写下支持语;Claude Code之父看到民众的支持感动落泪——这些画面在社交媒体上病毒式传播,把Anthropic塑造成了“对抗强权的勇士”。


竞对站台:奥特曼在CNBC采访中公开支持Anthropic,并强调OpenAI在与五角大楼的协议中也设置了相同的“安全护栏” 。这种对手的认可,比任何公关稿都有说服力。




没有赢家的博弈,与全人类的输家


这场博弈远未结束,但未来的走向已经出现几条清晰的脉络:


法律战:Anthropic已经放话,如果政府真的将其列为“供应链风险”,他们将法庭见。这势必引发关于美国宪法第一修正案与企业商业权利的长久辩论。


分化的硅谷:OpenAI虽然迅速补位签了合同,但它强调也保留了“技术性保障措施” 。硅谷并未完全倒向政府,而是形成了一种“有条件合作”的新模式。真正的“鹰派”或许是马斯克的xAI,但其模型的安全性和可靠性仍在接受政府内部的审查。


上市之路的变数:Anthropic原计划最早2026年上市。虽然这轮风波提升了其公众好感度,但被联邦机构禁用,无疑会对其To B的营收预期造成短期波动。




这场对峙没有硝烟,却关乎每一个人的未来。因为如果AI真的彻底拆除了安全的刹车,无论是用于监控还是杀戮,全人类都将成为这场博弈中唯一的、彻底的输家。


华盛顿的风还在吹,硅谷的火还在烧。而Claude登顶App Store的瞬间,或许就是民众对于那个“有护栏的未来”,投下的最朴素的一票。(微信公众号:塔猴AI情报局)


下载塔猴APP,关注微信公众号「塔猴AI情报局」,查看更多干货!

记得点赞、转发、推荐,祝大家AI路上不迷路!


声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
AI 伦理与治理
模型安全
企业级大模型