美國人工智慧公司 Anthropic 週一向法院提起訴訟,試圖阻止五角大廈將其列入國家安全「供應鏈風險」名單。此舉標誌著這家 AI 企業與美國政府之間,圍繞人工智慧軍事用途限制的衝突進一步升級,也引發外界關注政府與科技公司在 AI 使用權限上的權力邊界。
根據路透社報導,Anthropic 在提交至加州聯邦法院的訴狀中表示,美國政府的決定「史無前例且違法」,並主張該認定侵犯了公司在美國憲法下的 言論自由與正當程序權利。公司要求法院撤銷五角大廈的供應鏈風險認定,並阻止聯邦機構執行相關限制。
Anthropic 在聲明中表示:「政府不應動用其龐大的權力,僅因企業的受保護言論而進行懲罰。」
這場衝突源於五角大廈上週四宣布,將 Anthropic 列為國家安全供應鏈風險。該認定限制政府及其承包商在部分情況下使用 Anthropic 的 AI 技術。知情人士稱,Anthropic 的 AI 模型 Claude 曾被用於與伊朗相關的軍事行動,而五角大廈希望在 AI 使用上擁有更大的彈性。
然而,Anthropic 拒絕移除其技術中的安全限制。該公司在產品政策中明確禁止 AI 被用於完全自主武器系統或大規模國內監控。國防部長 Pete Hegseth 隨後決定將其列為供應鏈風險。
五角大廈則強調,美國法律而非私人企業應決定如何保衛國家安全,並要求在合法範圍內能夠 「對 AI 進行任何用途的使用」。官員認為,企業對 AI 使用設置限制,可能在某些情況下影響軍事行動。
一名美國國防部高級官員表示,在 Anthropic 提起訴訟後,雙方重新談判的可能性已大幅降低。美國國防部研究與工程副部長 Emil Michael 指出,該公司提出法律挑戰「並不令人意外」,但不會改變五角大廈的決定。
此次爭議也被視為測試美國政府對科技企業影響力的重要案例。分析人士指出,案件結果可能決定 AI 技術的最終使用權究竟掌握在政府還是企業手中,並對整個人工智慧產業產生長遠影響。
Anthropic 長期積極與美國國家安全機構合作。執行長 Dario Amodei 曾表示,公司並不完全反對 AI 用於軍事用途,但認為目前一代 AI 技術尚不足以在關鍵戰場場景中保持可靠與準確。因此公司對完全自主武器設下明確限制。
這場衝突對 Anthropic 的商業前景也帶來潛在衝擊。Wedbush 分析師 Dan Ives 表示,政府的供應鏈風險認定可能使部分企業客戶暫停使用 Claude,直到法律爭議塵埃落定。
Anthropic 在法庭文件中警告,若黑名單決定維持,公司 2026 年營收可能因此減少數十億美元。公司公共部門負責人 Thiyagu Ramasmy 表示,政府的行動已對公司造成「即時且難以彌補的損害」。
一些合作夥伴的反應也顯示影響已經出現。Anthropic 首席商務長 Paul Smith 表示,一家原本與公司簽有數百萬美元年度合約的合作夥伴已改用競爭對手的生成式 AI 模型,導致超過 1 億美元的潛在收入管道消失,同時與多家金融機構總值約 1.8 億美元的合作談判也受到影響。
此外,Anthropic 週一還向 華盛頓特區聯邦上訴法院提起另一宗訴訟,挑戰政府依據更廣泛法律將其列為供應鏈風險的決定。該法律可能導致公司被整個聯邦政府體系全面排除。
值得注意的是,一份支持 Anthropic 的 法律意見書也在週一提交。該文件由 37 名來自 OpenAI 與 Google 的研究人員與工程師聯署,其中包括 Google 首席科學家 Jeff Dean。這些科技專家警告,若政府因企業公開討論 AI 風險而施壓,可能削弱整個產業的創新能力。