Anthropic:装糊涂的高手
日期:2026-02-25 11:12:51 / 人气:3
北京时间2月24日,Anthropic在官方博客发布了一篇措辞强硬的文章,指控三家中国AI公司——DeepSeek、月之暗面(Moonshot)和MiniMax(稀宇科技)——通过约24000个虚假账户,与Claude产生了超过1600万次交互,目的是“非法提取”Claude的能力来训练自己的模型。
Anthropic将这种行为称为“蒸馏攻击”(distillation attacks),并将其上升到了国家安全的高度。博文声称这些行为不仅违反了服务条款,还“强化了出口管制的合理性”,甚至可能帮助“部署前沿AI用于进攻性网络行动、虚假信息运动和大规模监控”。
这篇博文的技术证据看似扎实,实则经不起推敲。一个技术上最强的AI公司,为何会发表如此漏洞百出的“大字报”?答案很简单:它的真正目标并非技术社区,而是华盛顿。那些技术上的模糊之处,正是Anthropic精心设计的“装糊涂”策略的一部分。
不到1%的DeepSeek,100%的标题位
让我们先看数据。三家公司的蒸馏规模差异巨大:MiniMax超过1300万次交互,月之暗面超过340万次,而DeepSeek只有约15万次。换句话说,DeepSeek在这1600万次交互中占比不到1%。
然而,在Anthropic的博文标题、推文,以及随后所有英文媒体的报道中,排序始终是“DeepSeek、Moonshot和MiniMax”。Anthropic对三家公司的描述也颇有玄机:MiniMax的蒸馏规模最大,策略最具适应性;月之暗面的操作最具技术野心;相比之下,DeepSeek的15万次交互在技术层面几乎微不足道。
但Anthropic对DeepSeek的描述却着墨最多,因为它包含了华盛顿最能感知到“杀伤力”的细节。DeepSeek自2025年初以来已成为美国AI政策辩论中最具标志性的名字,象征着出口管制争议、中美AI竞争焦虑,以及“中国AI是否真的只靠自主创新”的核心疑问。把DeepSeek放在第一位,整篇博文自动激活了这套完整的政治叙事框架。
“蒸馏攻击”:一个被武器化的术语
蒸馏(knowledge distillation)是机器学习领域一项成熟且普遍的技术,核心思路是用一个强大的“教师模型”的输出来训练一个较小的“学生模型”。所有主要AI实验室都在使用这项技术,Anthropic自己也承认,“前沿AI实验室会定期蒸馏自己的模型”。
用竞争对手的API输出来训练自己的模型?这在行业内几乎是公开的秘密。2025年初DeepSeek R1模型发布时,Databricks CEO Ali Ghodsi就直言,蒸馏技术“极其强大,极其廉价,而且对任何人都可用”。Google的威胁情报团队也刚发布报告,称在2025年期间“识别并阻断了来自世界各地研究人员和私营企业的模型提取活动”。
违反服务条款?确实成立。但这本质上是一个合同违约事件,而非知识产权盗窃。美国版权局2025年1月确认,AI模型的输出并不享有版权保护。然而,Anthropic在博文中完成了一次概念偷换,将这种合同违约行为重新定义为“攻击”。
“蒸馏攻击”这个术语将一个中性的机器学习概念与军事化的“攻击”一词绑定在一起,配合博文中反复出现的“国家安全”、“生物武器”、“威权政权”、“出口管制”等关键词,将商业行为升级为国家安全事件。整篇文本的语言选择是刻意且系统性的。
为什么是现在:一条被忽视的时间线
要理解这篇博文,必须将其放回更大的背景中。2月16日,Axios报道称五角大楼警告Anthropic将“付出代价”,并威胁将其列为“供应链风险”。2月18日,CNBC报道双方合同谈判陷入僵局。2月20日,NBC报道称Anthropic因质疑Claude在1月美军突袭抓捕委内瑞拉总统马杜罗行动中的使用方式,与五角大楼的关系“达到沸点”。2月23日,Axios报道国防部长Hegseth将于次日召见Anthropic CEO Dario Amodei,同一天,Elon Musk的xAI与五角大楼签署了协议,接受了“所有合法用途”条款。
也是在2月23日,Anthropic发布了这篇蒸馏博文。一篇通篇强调国家安全、出口管制、中国威胁的技术报告,恰好在CEO被五角大楼召见的前一天发出,恰好在2亿美元国防合同悬而未决之际发出。如果这是一次纯粹的技术披露,为什么不在检测到蒸馏行为时就公布?为什么要等到与五角大楼的关系降至冰点的这一刻?
“我可以蒸馏全世界的知识,但你不能蒸馏我的输出”
Anthropic的道德立场还面临另一个尴尬。就在一个月前,法院解封的文件揭露了Anthropic的“巴拿马计划”(Project Panama):这家公司花费数千万美元,从二手书商大量购买实体书,用工业液压切割机切掉书脊,高速扫描每一页,然后将纸质书销毁回收。在此之前,Anthropic联合创始人还曾从盗版网站下载了数百万本书用于早期模型训练。去年,Anthropic以15亿美元和解了相关版权诉讼。
一边是蒸馏全世界人类作品来训练自己的模型,一边是指控别人蒸馏自己的模型输出并将其定性为国家安全威胁。这种双标并未逃过社交媒体的审视。科技评论人Gergely Orosz一针见血地指出:“Anthropic在网上抓取受版权保护的材料,创建一个收费模型,不支付补偿,这显然是公平的?现在Anthropic抱怨其他公司付费使用模型,来创建任何人都能免费使用的模型,这就不公平了?”
从法律角度看,这两件事的性质确实不同。但从道德叙事的角度看,一家靠“蒸馏”人类知识起家的公司,指控别人“蒸馏”自己的输出是“攻击”,这中间的说服力落差显而易见。
结语:Anthropic在蒸馏什么?
Anthropic自己不会没意识到这些矛盾,但显然它决定装糊涂。因为这篇博文的目的,从来不只是技术披露。这是一次在五角大楼关系危机中的战略表态,用真实的技术证据,包装了一个服务于自身利益的国家安全叙事。
当“AI安全领导者”与“国防承包商”这两个身份发生冲突,当五角大楼要求它在安全限制上让步,Anthropic需要一个故事来重新证明自己对国家安全的价值。指控中国公司蒸馏Claude,恰好就是这样一个故事。
一家公司学会了把商业竞争包装成国家安全叙事,把合同违约包装成“攻击”,把行业普遍存在的灰色地带包装成单方面的受害者故事。我们也许需要问的不只是“谁在蒸馏Claude”,还有“Anthropic在蒸馏什么”。它正在从真实的技术事件中,蒸馏出一套服务于自身政治生存的叙事。

作者:杏鑫娱乐
新闻资讯 News
- 230亿身家石家庄首富,被带走调查02-25
- AI重构华尔街02-25
- 贝因美被“反杀”?讨要5000万定...02-25
- 当礼盒滞销、年味稀薄:这是“社...02-25

