Anthropic 指控中国 AI 公司进行“工业规模蒸馏攻击”,开源大模型训练陷入争议
美国顶尖人工智能公司 Anthropic 近日发布了一篇措辞严厉的博文,公开指控三家中国 AI 公司——DeepSeek、月之暗面(Moonshot AI)和 MiniMax——对旗下 Claude 模型实施了“工业规模的蒸馏攻击”。
根据 Anthropic 的定义,“蒸馏攻击”是指竞争对手通过大规模、有组织地访问其模型,提取其核心能力以训练自身模型的行为。Anthropic 强调,模型蒸馏本身是一种“广泛应用且合法的训练方法”,但通过数以万计的虚假账户、规避平台检测的手段进行大规模提取,则构成了“非法”的工业规模攻击。Anthropic 在报告中详细描述了攻击模式:这三起蒸馏行动在操作手法上高度相似,均借助虚假账户与代理服务进行大规模访问,以规避平台检测。攻击者使用了约 2.4 万个虚假账户,与 Claude 进行了超过 1600 万次交互,目标高度集中于 Claude 在“代理式推理”、工具调用以及代码生成等核心差异化能力。
Anthropic 声称,其通过 IP 地址关联、请求元数据、基础设施特征等多项技术证据,对相关行为进行了高置信度归因。该公司指出,与正常的用户使用不同,蒸馏攻击呈现出高度重复的模式:大量请求集中在少数几个领域,提示结构高度相似,且直接瞄准对训练 AI 模型最有价值的内容。
在被点名的三家公司中,DeepSeek 作为国内知名的开源大模型提供商,尤其受到关注。DeepSeek 此前以开放模型权重和相对优秀的性能获得了大量开发者的青睐。然而,Anthropic 的指控将其置于“通过非常规手段获取能力”的争议之中。

虽然目前 DeepSeek 等公司尚未对此事做出正式公开回应,但这一指控无疑给中国 AI 公司的国际形象和开源策略带来了挑战。业界有分析认为,在尖端芯片获取受限的背景下,通过 API 访问和知识蒸馏来快速提升模型能力,成为一些实验室缩短与前沿模型差距的潜在路径。
Anthropic 表示将持续加强防御,包括更严格的速率限制、异常流量检测、账户行为模式识别,以及隐藏链式思维推理过程等。部分公司已开始将链式思维仅作为内部计算,不再直接输出,以降低被蒸馏的风险。
对于中国 AI 行业而言,此次事件可能带来几个直接影响:
- 国际合作的信任成本增加:中国公司与海外主流 AI 平台的 API 合作与数据使用可能面临更严格的审查。
- 技术路径的反思:依赖公开 API 进行大规模数据收集和模型增强的路径风险增高,可能促使更多公司转向完全自主的数据构建和训练循环。
- 开源策略的调整:如何在坚持开源精神的同时,清晰界定自身技术的来源与原创性,将成为像 DeepSeek 这样的开源模型提供商必须回答的问题。

Anthropic官方原文:https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks



发表回复