2月28日清晨,硅谷AI圈的消息比重庆小面的辣油还炸——以Claude大模型安全对齐技术著称的Anthropic,突然被美国政府“拉黑”了。彭博社的报道刚出,不少工程师握着咖啡杯的手都顿了:特朗普直接下令所有联邦机构停止使用Anthropic技术,长赫格塞斯紧接着在X上补刀,将其列为“供应链风险企业”,给军方承包商划了红线:“敢和Anthropic合作?就别想接军方的活。”

这场封杀的导火索,是Anthropic“撞了政府的枪口”。上个月五角大楼找上门,要求“无限制使用其AI模型”用于敏感军事项目,Anthropic的回应没绕弯子:“我们的AI从设计那天起,就带着‘安全锁’——无限制的要求,违背我们的技术伦理。”没想到这一句“不”,直接让公司成了政府的“眼中钉”。

但Anthropic的“硬气”,反而点燃了硅谷员工的共鸣。代表亚马逊、谷歌、微软和OpenAI员工的两大联盟当天就发,把Anthropic称作“行业里的‘硬骨头’”。信里的话像花椒入锅,戳得不少从业者心里发疼:“如果我们的公司跟着五角大楼的‘无限制’走,那我们每天写代码时念的‘AI for good’,不就成了人的口号?”

员工们没光喊口号。他们直接给公司甩了“问题清单”:要求公开与国土安全部、海关边境保护局等“高压机构”的合同——亚马逊员工联盟问得直白:“之前特朗普搞驱逐行动时,我们的云服务给边境部门用了多少?得给大家一个说法。”谷歌员工的联盟更直接:“Alphabet要是有本事,就像Anthropic那样,对五角大楼说‘不’——别一边赚着员工的代码钱,一边偷偷把技术卖给搞种族隔离的部门。”

其实这场风波早有苗头。去年谷歌员工抗议军事项目“Men”、微软员工要求停止向移民局售AI工具,Anthropic的遭遇不过是把“AI的边界”摆到了台面上:一边是政府想把AI变成“听话的工具”,一边是企业和员工想守住“技术的底线”。有位OpenAI的重庆籍工程师跟我聊:“今天帮Anthropic说话,不是帮一家公司——是帮我们自己守住做技术的‘良心’。要是连‘不做伤害人的AI’都做不到,写代码和写病毒有什么区别?”

现在硅谷的讨论区里,有人说Anthropic“傻”,放着军方的钱不赚;也有人说“这才是AI公司该有的样子”。但不管怎么吵,Anthropic的“拒绝”已经把一个终极问题写进了热搜:AI到底该为谁服务?就像一位老编导朋友说的:“有时候,一家公司的‘说不’,比一百篇论文更能让人明白——技术的温度,从来都在‘敢拒绝’的勇气里。”

这场风波里,最动人的不是“封杀”本身,是硅谷员工们的“共鸣”。当他们把Anthropic的立场当成“行业榜样”时,其实是在说:AI不是武器,不是工具,是该带着“人”的温度的——而这份温度,需要每一家公司、每一个从业者,敢对“无限制”说“不”。

AI企业Anthropic遭美政府全面封杀