美國人工智能公司Anthropic周一(2月23日)指控中國企業DeepSeek大規模利用其人工智能助手Claude,以訓練和開發自身人工智能模型。數日前,Anthropic的主要競爭對手OpenAI也曾指控DeepSeek採取類似手段「竊取」其模型技術。
法新社報道,Anthropic周一在官網發佈聲明稱,除DeepSeek外,另外兩家中國人工智能新創公司——Moonshot AI(月之暗面科技,旗下產品為Kimi)以及MiniMax(迷你極,開發Talkie接口)——也曾對Claude進行類似操作。
DeepSeek於2025年1月因推出人工智能模型V3而引發業界震動。該模型於2024年12月底上線,外界普遍認為其性能已可與美國最先進的人工智能產品相抗衡;而DeepSeek則宣稱,其研發投入僅為美國科技巨頭相關支出的一小部分。
Anthropic表示,這三家中國機構共創建約2.4萬個賬戶,分別接入Claude,並累計進行超過1600萬次對話。公司指控,這些行為旨在進行所謂「蒸餾」(distillation)操作,即通過借鑑性能更強模型生成的回答,訓練和開發能力較低的新模型。
Anthropic指出,「蒸餾」技術本身並不違法,許多人工智能企業都會利用該方法,開發更精簡版本的自家模型。然而,這種技術也可能被濫用,使企業以遠低於傳統研發成本的方式,加速開發自身產品。
聲明稱,這類操作還可能繞過原始模型的安全規則與限制,為潛在的惡意用途打開空間。
Anthropic進一步指,DeepSeek曾要求Claude披露其生成回答時的全部步驟,這些信息有助於改進自身模型。此外,公司表示,已識別出部分DeepSeek開發人員,這些人員曾研究Claude在回答涉及異議人士、威權體制等敏感議題時的處理邏輯和回應方式。
Anthropic認為,這些做法「很可能」旨在訓練DeepSeek模型,使其在涉及 中共當局審查的話題時轉移或規避相關討論。
相關指控公佈之時,科技業界正密切關注DeepSeek即將發佈的新一代模型V4。數日前,OpenAI已向美國國會提交備忘錄,指控DeepSeek採取類似手段「竊取」其模型技術。
亞洲金融/美國AI巨頭Anthropic,剛撕開中國AI的面具:三家人工智能實驗室DeepSeek、月之暗面(Moonshot)和MiniMax,發起了大規模的非法攻擊活動,試圖竊取Claude的功能,以改進其自身模型。這些實驗室通過約24,000個欺詐賬戶,與Claude進行了超過1600萬次對話交互,違反了我們的服務條款和區域訪問限制。
美國AI巨頭Anthropic,剛撕開中國AI的面具:三家人工智能實驗室DeepSeek、月之暗面(Moonshot)和MiniMax,發起了大規模的非法攻擊活動,試圖竊取Claude的功能,以改進其自身模型。這些實驗室通過約24,000個欺詐賬戶,與Claude進行了超過1600萬次對話交互,違反了我們的服務條款和區域訪問限制。… pic.twitter.com/PXfY5byKHq
— 亞洲金融 Asia Finance (@AsiaFinance) February 23, 2026
這些實驗室使用了一種名為「蒸餾」的技術,即利用功能更強大的模型的輸出來訓練功能較弱的模型。蒸餾是一種廣泛使用的訓練方法。例如,前沿人工智能實驗室通常會蒸餾自己的模型,從而為客戶創建更小、更便宜的版本。但蒸餾也可能被用於非法目的。未經授權對競爭對手的模型進行蒸餾則違反了服務條款。

REUTERS - Dado Ruvic
三家公司操作手法類似:用大量虛假賬戶,繞過Anthropic對中國的訪問限制。MiniMax超過1300萬次交互,主要提取編程和工具使用能力;月之暗面340萬次,瞄準智能體推理和計算機視覺;DeepSeek手法最為陰暗:讓Claude反向「複述」自己的推理過程來生成思維鏈訓練數據,還讓Claude生成政治敏感問題的"安全回答",疑似用於訓練自家模型的審查迴避能力。
Anthropic表示已通過IP位址、請求元數據等信息,將攻擊溯源定位到具體實驗室,甚至具體研究人員,並稱這一發現說明,中國AI公司的快速進步,並非靠自主創新,而是在一定程度上依賴對美國模型能力的提取。這些攻擊的強度和複雜性都在不斷增加。應對這些攻擊需要行業參與者、政策制定者和更廣泛的人工智能界迅速採取協調一致的行動。
Anthropic正開發產品、API和模型層面的安全措施,旨在降低模型輸出被非法算法提煉的可能性,同時又不影響合法用戶的體驗。但任何一家公司都無法獨自解決這個問題。正如前面提到的,如此大規模的算法提煉攻擊需要人工智能行業、雲服務提供商和政策制定者之間的協調應對。發佈這些信息,是為了讓所有利益相關者,都能了解相關證據。

















