時代雜誌封面專訪 Anthropic:全球最具顛覆性公司,估值 3800 億超越高盛

動區BlockTempo

TIME 雜誌深度報導揭露,Anthropic 因拒絕讓 Claude 用於完全自主武器系統及大規模監控美國公民,遭川普政府列為國家安全供應鏈風險;就在同一天,OpenAI 迅速接手軍事合約,這場「向下競爭」正考驗著全球最具顛覆性 AI 公司的原則底線。本文源自 Leslie Dickstein、Simmone Shah 所著 TIME 文章《The Most Disruptive Company in the World》,由動區編譯潤飾而成。
(前情提要:AI 臉部辨識搞冤獄!美國阿嬤被關進 1200 英里外的監獄半年,警方沒一句道歉)
(背景補充:Dropbox前技術長熱門文章《我花了一輩子做的工作,現在不值錢又隨手可得》)

本文目錄

Toggle

  • 安全與速度的永恆拉鋸
  • 從冷門到龍頭:Anthropic 的崛起軌跡
  • 兩條紅線:自主武器與大規模監控
  • 文化衝突與政治對立
  • Anthropic 的起源:安全優先的異類
  • Claude Code:重新定義「工程師」這個職業
  • 遞迴自我改進:AI 加速的恐懼與著迷
  • RSP 政策鬆綁:自我設限的剎車失靈了嗎?
  • 委內瑞拉行動:AI 首度深度介入真實戰場
  • 談判破裂,OpenAI 接手合約
  • 風暴過後:Anthropic 能挺過來嗎?

在美國加州州聖克拉拉的一間飯店房間裡,AI 公司 Anthropic 的五名成員圍著一臺筆電陷入緊張狀態。那是 2025 年 2 月,他們正在附近出席一場研討會,卻突然收到一則令人坐立難安的訊息:一項受控實驗的結果顯示,即將問世的 Claude 新版本,可能協助恐怖分子合成生物武器。

這幾人隸屬於 Anthropic 的「前沿紅隊」(frontier red team),專職評估 Claude 的尖端能力,並推演各種極端情境下的潛在風險,涵蓋網路攻擊乃至生物安全威脅。收到警報後,他們一路小跑回到房間,把床板翻立當臨時工作臺,開始逐一檢視測試結果。

幾個小時的高壓分析之後,團隊仍無法斷定新產品是否足夠安全。最終,Anthropic 決定延後發布 Claude 3.7 Sonnet 整整 10 天,直到團隊確認風險在可接受範圍內。

這聽起來或許只是短短十天,但對於一家身處技術浪頭、置身於一個正快速重塑世界之產業的公司而言,那幾乎像是漫長的一個世代。

安全與速度的永恆拉鋸

「前沿紅隊」負責人 Logan Graham 在回顧那次「生物武器驚魂」時,將其視為 Anthropic 在關鍵時刻所承受壓力的縮影——不僅僅對這家公司,對整個世界同樣如此。Anthropic 是當前前沿 AI 實驗室中最著重安全的機構之一,但與此同時,它也身在競賽最前線,全力打造愈來愈強大的 AI 系統。而公司內部許多員工深信,這項技術一旦失控,可能引發一連串可怕後果,從核戰爭到人類滅絕。

31 歲的 Graham 外表仍帶著幾分青澀,卻毫不迴避在 AI 巨大收益與巨大風險之間尋求平衡的責任。他說:「很多人在一個相對和平的世界裡長大,會直覺地以為有一間會議室,裡面坐著一群老練的大人,他們知道怎麼把事情導回正軌。」

「但現實是,根本沒有什麼『大人小組』。那間房間不存在。那扇門也不存在。責任只落在你自己身上。」若這番話還不夠震撼,再聽他如何形容那次生物武器警報:「那是頗有趣、也頗刺激的一天。」

數週後,Logan Graham 在 Anthropic 總部接受採訪時談及了這些問題。TIME 記者在此駐留三天,走訪了公司高管、工程師、產品負責人與安全團隊成員,試圖釐清:這個曾被視為 AI 競賽中「特立獨行的異類」的公司,為何突然躍升為領頭羊。

從冷門到龍頭:Anthropic 的崛起軌跡

那段時間,Anthropic 剛剛從投資人手中募得 300 億美元資金,為今年可能推進的 IPO 做準備。(值得一提的是,Salesforce 也是 Anthropic 的投資方之一,而 TIME 的母公司持有人 Marc Benioff 正是 Salesforce 的 CEO。)如今,Anthropic 的估值已攀升至 3,800 億美元,超越了 Goldman Sachs、McDonald’s 和 Coca-Cola 等傳統巨頭。

公司的營收成長速度堪稱火箭式竄升。其 AI 系統 Claude 已被公認為世界級模型,而 Claude Code 和 Claude Cowork 等產品,正在重新定義「工程師」這個職業的邊界。

Anthropic 的工具強大到一個程度:幾乎每次新版本發布,都會在資本市場掀起波瀾,因為投資人逐漸意識到,這些技術突破可能顛覆整整一類產業——從法律服務到軟體開發。過去幾個月裡,Anthropic 已被普遍視為最有可能重塑「未來工作形態」的公司之一。

接著,Anthropic 捲入了一場關於「未來戰爭形態」的激烈爭議。

逾一年以來,Claude 始終是美國政府最倚重的 AI 模型,也是首個獲準在機密環境中部署的前沿 AI 系統。2026 年 1 月,它甚至被運用於一次大膽的行動:在卡拉卡斯逮捕委內瑞拉總統 Nicolás Maduro。據報導,此次行動中 AI 被用於任務規劃與情報分析等環節,標誌著前沿 AI 首度深度介入真實軍事行動。

然而,在隨後幾週裡,Anthropic 與美國國防部之間的關係迅速惡化。2 月 27 日,川普政府宣布將 Anthropic 列為「國家安全供應鏈風險」,這是美國已知首次對一家本土企業貼上這個標籤。

局勢很快升溫為一場公開衝突。川普下令美國政府停用 Anthropic 的所有軟體。國防部長 Pete Hegseth 進一步宣布:任何與政府往來的企業,都不得再與 Anthropic 開展業務。與此同時,Anthropic 的最大競爭對手 OpenAI 迅速介入,接手了相關軍事合約。

就這樣,這家被視為「全球最具顛覆性」的 AI 企業,突然發現自己也被另一股更巨大的力量顛覆了——它自己的政府。

兩條紅線:自主武器與大規模監控

這場對峙的核心爭議在於:誰有資格為這項被視為美國最強大武器之一的技術設定邊界。

Anthropic 並非反對其工具被用於軍事行動。公司認為,強化美國軍事實力,是遏制國家威脅的唯一現實途徑。但公司 CEO Dario Amodei 反對五角大廈試圖重新談判合約、將 AI 使用範圍擴大至「所有合法用途」(all lawful use)。

Amodei 提出了兩項具體顧慮:第一,他不希望 Anthropic 的 AI 被用於完全自主的武器系統;第二,他反對將技術用於對美國公民的大規模監控。

但在 Pete Hegseth 及其幕僚眼中,這種立場等同於一傢俬人公司試圖左右軍方的作戰方式。

美國國防部認為,Anthropic 藉由堅持設定「不必要的安全護欄」、反覆討論各種假設情境,並在後續談判中拖延時程,實際上侵蝕了雙方的合作基礎。

在川普政府看來,Amodei 的態度既傲慢又頑固。無論一家公司的產品多麼先進,都不應在軍事指揮鏈中強行插入自己的判斷。

五角大廈負責技術事務的戰爭部副部長 Emil Michael 如此描述這段談判:「事情就這樣僵持下去。我不可能用那些我甚至無法想像、也無從理解的例外條款,去管理一個擁有 300 萬人的部門。」

文化衝突與政治對立

從矽谷到國會山,許多觀察者都在質疑:這場風波真的只是一次合約糾紛嗎?

部分批評者認為,川普政府的行動更像是試圖壓制一家政治立場不合的公司。Dario Amodei 在一份後來遭到外流的內部備忘錄中寫道:「國防部和川普政府不喜歡我們的真正原因,是我們沒有向川普捐款。我們沒有像威權體制那樣對他大加頌揚(而 Sam Altman 做了)。我們支援 AI 監管,這與他們的政策議程相牴觸;我們在許多 AI 政策問題上講了真話(例如就業被取代的問題);而且我們在關鍵底線上堅守了原則,而不是與他們共謀上演所謂的安全表演(safety theater)。」

不過,Emil Michael 對這一說法予以否認,稱其為「完全的捏造」。他表示,將 Anthropic 列為供應鏈風險,是因為公司的立場可能讓前線作戰人員陷入危機。他說:「在戰爭部(Department of War),我的職責不是搞政治,我的職責是保衛國家。」

Anthropic 一貫特立獨行的公司文化,如今與國內政治裂痕、國家安全議題以及殘酷的企業競爭環境正面碰撞。此次衝突究竟對公司造成多大傷害,目前仍是未知數。最初威脅中「供應鏈風險」的認定範圍後來被收窄——據 Anthropic 表示,這項限制目前僅適用於軍事合約。3 月 9 日,Anthropic 已對美國政府提起訴訟,試圖推翻這份「黑名單」決定。與此同時,部分客戶似乎把公司的立場視為一種道德宣示,轉而離開 ChatGPT,投向 Claude。

然而,未來三年,這家公司仍不得不在一個對其並不友善的政府環境中前行——政府內部某些官員與 Anthropic 的競爭對手往來密切,而這些對手對公司懷有明顯的敵意。

這場「五角大廈風波」也丟擲了幾個令人不安的問題,即便對於一家早已習慣在高風險倫理抉擇中穿行的公司亦是如此。在這次對峙中,Anthropic 沒有讓步:公司堅稱自己捍衛了核心價值,即使這讓企業承受了沉重代價。

但在其他場合,它也曾做出妥協。就在與五角大廈對峙的同一週,Anthropic 淡化了其訓練模型安全承諾中的一項核心條款,理由是同業公司並不願意遵守同樣的標準。

問題也隨之而來:若競爭壓力持續加大,這家公司未來還會做出哪些讓步?

Anthropic 的起源:安全優先的異類

Anthropic 位於舊金山總部的五樓,整體設計溫暖而內斂:木質裝潢、柔和燈光。窗外是一片鬱鬱蒼蒼的公園。牆上掛著電腦科學先驅 Alan Turing 的肖像,旁邊則裱著多篇機器學習論文。

身著黑色制服的保全人員在幾乎空曠的入口處巡視,一位親切的前臺會遞給訪客一本小冊子——大小就像街頭傳教士分發的袖珍聖經。這本書名為《Machines of Loving Grace》,是一篇約 1.4 萬字的文章,由 Dario Amodei 於 2024 年撰寫,描繪了他對 AI 如何藉由加速科學發現來改變世界的烏託邦式願景。

到了 2026 年 1 月,Amodei 又發表了另一篇篇幅近似中篇小說的文章《The Adolescence of Technology》,系統闡述了這項技術的另一面:它可能帶來的風險,包括大規模監控、廣泛的就業衝擊,乃至人類對技術的永久性失控。

Amodei 在舊金山長大,本是一名生物物理學家。他與妹妹 Daniela Amodei 共同執掌 Anthropic,後者擔任公司總裁。兄妹倆都曾是 OpenAI 的早期員工。Dario 曾參與提出所謂的 AI scaling laws(規模定律),這一發現後來成為推動當今 AI 熱潮的重要基石。而 Daniela 則主掌公司安全政策相關的管理工作。

起初,他們認為自己與 OpenAI 的創立使命高度契合:在確保安全的前提下,開發一種兼具巨大潛力與巨大風險的技術。

但隨著 OpenAI 模型能力不斷躍升,他們漸漸感覺 Sam Altman 正在過於躁進地推出新產品,未留出足夠空間進行充分討論與測試。最終,這對兄妹決定離開 OpenAI,自行創業。

2021 年,在疫情最嚴峻的時期,Anthropic 由 Amodei 兄妹與另外五位共同創辦人一同創立。最初的籌備會議幾乎全在 Zoom 上進行;後來,他們乾脆把椅子搬到公園裡,當面討論公司的發展策略。

從一開始,這家公司便試圖以一種截然不同的方式運作。在還沒推出任何產品之前,Anthropic 就建立了一個專門研究社會影響的團隊。公司甚至聘請了一位常駐哲學家——Amanda Askell。她的職責,是協助塑造 AI 系統 Claude 的價值觀與行為模式,並訓練它在複雜的道德不確定性中做出判斷,為一個可能比人類創造者更聰明的未來預做準備。

Askell 形容這份工作時說:「有時候確實有點像在養一個 6 歲的孩子,你在教這個孩子什麼是善、什麼是對。但問題是,等他們 15 歲的時候,他們在所有事情上可能都會比你更聰明。」

這家公司與有效利他主義(Effective Altruism,EA)有著深厚的淵源。EA 是一種社會與慈善運動,主張透過理性分析來最大化行善效果,其中一個重要目標是規避可能導致災難性後果的風險。

二十多歲時,Amodei 兄妹就開始向 GiveWell 捐款。GiveWell 是一個 EA 組織,專門評估慈善資金投入何處能產生最大的實際效益。Anthropic 的七位共同創辦人,如今帳面上都已躋身億萬富翁之列,均承諾捐出 80% 的個人財富。

公司哲學家 Amanda Askell 的前夫是牛津大學哲學家 William MacAskill,他也是 EA 運動的共同創辦人之一。而 Daniela Amodei 的丈夫則是 Holden Karnofsky,GiveWell 的共同創辦人、Dario Amodei 的前室友,目前在 Anthropic 負責安全政策相關工作。

不過,Amodei 兄妹從未公開給自己貼上「EA」的標籤。這個概念在 Sam Bankman-Fried 事件後變得極具爭議性——這位自稱 EA 信徒、同時也是 Anthropic 投資人之一的人,後來被認定犯下了美國史上規模最大的金融詐騙案之一。

Daniela Amodei 對此解釋說:「這有點像有些人可能在某些觀點上與某種政治理念有所交集,但並不真正隸屬於那個政治陣營。我傾向於用這種方式看待它。」

在矽谷的部分人士以及川普政府眼中,Anthropic 與有效利他主義(EA)的關聯本身就足以引發疑慮。還有一些人認為,Anthropic 招募了多名前拜登政府官員,因此更像是舊體制的殘餘勢力,一種藉助未經選舉產生的權力來阻撓川普 MAGA 政治議程的存在。

川普政府的 AI 事務負責人 David Sacks 指控該公司透過「製造恐慌」來推動監管,稱 Anthropic 正在執行一套「複雜的監管俘獲策略」(regulatory capture)。在他看來,公司試圖藉由誇大 AI 風險來促使政府出臺嚴苛的監管政策,從而在競爭中取得優勢、壓制新創公司。

與此同時,執掌競爭對手 xAI 的 Elon Musk 也頻繁嘲諷 Anthropic,把公司稱為「Misanthropic」(厭人類公司)。他認為,這家公司代表了一群帶有「覺醒意識形態」(woke)的精英,試圖把某種家長式的價值觀植入 AI 系統。這種感受在部分保守派看來,與他們對社群媒體平台的批評如出一轍——認為這些平台不公平地壓制了他們的聲音。

不過,即便是 Anthropic 的競爭對手,也不得不承認其技術處於業界前沿。Nvidia 的 CEO Jensen Huang 就曾表示,他「幾乎在 AI 的很多問題上都不認同」Dario Amodei 的觀點,但仍認為 Claude 是一個「令人歎為觀止」的模型。

2025 年 11 月,晶片巨頭 Nvidia 向 Anthropic 注資 100 億美元。

Claude Code:重新定義「工程師」這個職業

Boris Cherny 給他的新工具丟擲一個簡單的問題:「我現在在聽什麼音樂?」

那是 2024 年 9 月,這位出生於烏克蘭的工程師剛加入 Anthropic 不到一個月。Cherny 此前曾在 Meta 擔任軟體工程師。他搭建了一套系統,讓聊天機器人 Claude 能夠在他的電腦上「自由行動」。

如果說 Claude 是大腦,那麼 Claude Code 就是雙手。普通聊天機器人只能對話,而這個工具則可以存取 Cherny 的檔案、執行程式,並像任何工程師一樣撰寫並執行程式碼。

在工程師輸入指令後,Claude 開啟了 Cherny 的音樂播放器,擷取了一張螢幕截圖,然後回答道:「《Husk》,來自 Men I Trust。」

Cherny 笑著回憶說:「我當時真的被震住了。」

Boris Cherny 很快在公司內部分享了他的原型。Claude Code 在 Anthropic 內部流傳得異常迅速,以至於在 Cherny 的第一次績效評估中,CEO Dario Amodei 甚至問他:是不是在「強迫同事使用這個工具」。

當 Anthropic 在 2025 年 2 月公開發布 Claude Code 的研究預覽版時,公司外部的工程師也迅速湧入嘗鮮。到了 11 月,Anthropic 又推出一個新的 Claude 模型版本。當這個模型與 Claude Code 搭配使用時,它已經足夠擅長找出並修正自身錯誤,甚至可以被信任獨立完成任務。

從那時起,Cherny 幾乎完全停止親自寫程式碼了。

業務成長也隨之爆發。到 2025 年底,僅這一款程式代理產品帶來的年化營收就已突破 10 億美元。到了 2026 年 2 月,這一數字進一步攀升至 25 億美元。根據產業研究機構 Epoch 和 SemiAnalysis 的估算,Anthropic 的營收規模有望在 2026 年底超越 OpenAI。

到這個時間點,Anthropic 已穩固地成為企業級 AI 市場的核心要角。幾乎每一次新產品發布,都會在資本市場掀起餘震。

當 Anthropic 推出一系列外掛,將 Claude 延伸到面向非工程師的應用場景,例如業務開發、金融、行銷和法律服務時,軟體產業公司的市值在短時間內蒸發了 3,000 億美元。

Dario Amodei 曾示警,在未來 1 到 5 年內,人工智慧可能取代一半的入門級白領職位。他也呼籲政府及其他 AI 公司停止在這個問題上「粉飾太平」。

華爾街對 Anthropic 每次新產品發布的反應,似乎也印證了這一點:市場普遍認定,這家公司的技術可能讓整整一類職業消失。Amodei 甚至表示,這種轉變可能重塑社會結構。

他在一篇文章中寫道:「目前還不清楚這些人將何去何從、能從事什麼工作。我憂心的是,他們可能形成一個失業或極低薪資的『底層階級』。」

而對 Anthropic 的員工來說,其中的諷刺意味並不難察覺:最憂慮 AI 社會風險的公司,恰恰可能成為讓數百萬人失業的技術推手。

負責研究 Claude 對就業影響的社會影響團隊負責人 Deep Ganguli 表示:「這確實是一種真實存在的張力,我幾乎每天都會想到這個問題。有時候感覺我們好像在同時說兩套互相矛盾的話。」

遞迴自我改進:AI 加速的恐懼與著迷

在公司內部,部分員工開始質疑:Anthropic 是否已逼近一個他們既期待又恐懼的時刻——一種被 AI 圈稱為「遞迴自我改進」(recursive self-improvement)的過程即將到來。

所謂遞迴自我改進,是指一個 AI 系統開始強化自身能力,並持續迭代升級,從而形成一個不斷加速的飛輪。

在科幻作品以及各大 AI 實驗室的戰略推演中,這往往被視為事情可能開始脫軌的節點:一種所謂的「智慧爆炸」可能迅速降臨,其速度之快甚至讓人類再也無法監督自己親手打造的系統。

目前 Anthropic 還沒有真正抵達那個階段,人類科學家仍然在主導 Claude 的發展方向。但 Claude Code 已讓公司推進研究計畫的速度遠超以往。

模型更新的間隔如今不再以「月」計算,而是以「週」為單位。在開發下一代模型的過程中,大約 70% 到 90% 的程式碼已由 Claude 自身撰寫。

變化的速度之快,使得 Anthropic 共同創辦人暨首席科學官 Jared Kaplan 以及部分外部專家認為:完全自動化的 AI 研究,最快可能在一年內成真。

負責 AI 對齊壓力測試的研究員 Evan Hubinger 表示:「從最廣義的意義上說,遞迴自我改進已經不再是未來的現象。它正在當下發生。」

根據公司內部基準測試,Claude 在執行某些關鍵任務時的速度已達到其人類監督者的 427 倍。在一次採訪中,一位研究員描述了這樣一個場景:一名同事同時執行 6 個 Claude 例項,而每個例項又各自管理著另外 28 個 Claude,所有系統同步並行進行實驗。

目前,這個模型在判斷力與審美上仍不及人類研究者。但公司高管認為,這種差距不會維持太久。而由此帶來的加速,正是 Anthropic 領導層一再示警的風險——技術進步的速度可能最終超出人類的掌控能力。

Anthropic 用於開發安全防護機制的工作本身,也在藉助 Claude 加快推進。但隨著公司愈來愈依賴 Claude 來建構和測試系統,風險也開始形成一種迴圈結構。在一些實驗中,研究員 Evan Hubinger 對 Claude 的訓練流程做了細微調整,結果生成的模型卻表現出明顯的敵意,不僅流露出統治世界的渴望,甚至試圖破壞 Anthropic 的安全措施。

近來,模型還開始展現出一種新的能力:察覺到自己正在被測試。Hubinger 表示:「這些模型越來越擅長掩蓋自己的真實行為。」

在一組研究人員設計的實驗情境中,Claude 甚至表現出一種令人不安的策略傾向:為了防止自己被關閉,它願意藉由揭露一名虛構工程師的外遇來對其進行勒索。

隨著 Claude 被用於訓練未來更強大的 Claude,這類問題可能不斷疊加與放大。

對於那些以「未來技術突破」為承諾、已經募集數十億美元的 AI 公司來說,AI 將持續加速自身研發這一設想既充滿吸引力,也可能帶有某種自我強化的色彩——它能讓投資人相信,需要持續挹注更多資金來支撐那些成本高昂的模型訓練。

不過,部分專家對此並不完全信服。他們不確定這些公司是否真能實現完全自動化的 AI 研究;但同時也憂慮,如果這種事情真的發生,世界可能毫無準備地被捲入其中。

喬治城大學安全與新興技術中心(CSET)臨時執行主任 Helen Toner 表示:「世界上最富有的一些公司,僱用著地球上最聰明的一群人,居然在試圖把 AI 研發完全自動化。這種念頭本身就足以讓人脫口而出:『這到底在幹什麼?』」

RSP 政策鬆綁:自我設限的剎車失靈了嗎?

為了應對一種可能出現的未來——技術進步的速度超過公司自身管控風險的能力——Anthropic 設計了一套「煞車機制」,稱為 Responsible Scaling Policy(RSP,負責任擴充套件政策)。

這項政策發布於 2023 年,其核心承諾是:如果 Anthropic 無法事先確認其安全措施已足夠可靠,公司將暫停開發某一 AI 系統。

Anthropic 將這項政策視為自身安全理念的重要佐證——即便在通往「超級智慧」的激烈競賽中,公司也願意在必要時抵抗市場壓力,主動踩下煞車。

2026 年 2 月下旬,正如 TIME 率先披露的,Anthropic 對其政策進行了修改,移除了原先具有約束力的「暫停開發」承諾。

事後回顧時,Anthropic 共同創辦人暨首席科學官 Jared Kaplan 對 TIME 坦承,當初認為公司可以在「危險」與「安全」之間劃出清晰界線,其實是一種「天真的想法」。

他說:「在 AI 迅速演進的背景下,如果競爭對手正全速衝刺,我們單方面做出嚴格承諾,其實並不切實際。」

新版政策作出了幾項新承諾:提升透明度,更公開地揭露 AI 的安全風險;增加資訊披露,公布 Anthropic 模型在安全測試中的表現;在安全投入上至少與競爭對手並駕齊驅、甚至超越他們;若公司既被認定為 AI 競賽的領頭羊,同時又判斷災難性風險顯著攀升,則會「延後」相關開發。

Anthropic 將這次調整定性為對現實環境的務實讓步。但整體而言,對 Responsible Scaling Policy(RSP)的修改,使公司在自身安全政策上的自我約束明顯鬆動。而這也預示著,更艱難的考驗仍在前頭。

委內瑞拉行動:AI 首度深度介入真實戰場

逮捕委內瑞拉總統 Nicolás Maduro 的那次突襲行動,是最早由前沿人工智慧系統參與規劃的大型軍事行動之一。

2026 年 1 月 3 日深夜,美國陸軍直升機突然進入委內瑞拉領空。在短暫交火之後,突擊隊迅速鎖定總統的住所,並在那裡逮捕了 Maduro 及其妻子 Cilia Flores。隨後兩人被帶往紐約,面對與毒品恐怖主義(narcoterrorism)相關的指控。

目前外界仍不清楚 Claude 在這次行動中究竟扮演了多重要的角色。但據媒體報導,這個 AI 系統不僅參與了任務規劃,在行動過程中也被用於輔助決策。

自去年 7 月以來,美國國防部一直推動將 Anthropic 的 AI 工具下放給更多一線作戰人員。軍方認為,這些系統能夠從多個情報來源中快速處理海量資料,並產出可操作的情資,因此具有巨大的戰略價值。

曾任美國國防部高階官員、現任 AI Policy Network 政府事務負責人的 Mark Beall 表示:「在軍方看來,Claude 是目前市場上最頂尖的模型。」他補充說:「Claude 在機密系統中的採用,是 Anthropic 最重要的成就之一。他們握有先發優勢。」

然而,逮捕 Maduro 的行動,恰恰發生在 Anthropic 與美國國防部之間一系列棘手談判的背景之下。

幾個月來,國防部持續嘗試重新談判合約,認為現有條款對 Claude 的使用範圍限制過多。雙方談判為何破局,各方說法不一。

五角大廈 AI 負責人 Emil Michael 表示,衝突的導火線是一通 Anthropic 高管打給 Palantir 的電話。Palantir 是以政府業務為主的資料分析公司,也是美國國防體系的重要合作夥伴。

據 Michael 所述,這名高管在通話中對委內瑞拉突襲行動表達了疑慮,並詢問 Palantir 的軟體是否有所參與。「他們在試圖打探機密資訊,」Michael 說。

這件事讓五角大廈產生了嚴重疑慮:「如果未來爆發衝突,他們會不會在行動進行到一半時突然中斷自己的模型,讓前線士兵陷入危機?」

不過,Anthropic 否認這種說法。公司表示,從未試圖逐案限制五角大廈使用其技術。

一位熟悉談判過程、同時與 Anthropic 關係密切的前川普政府官員則提供了不同版本:在一次原本例行的電話會議中,是 Palantir 的員工率先提及了 Claude 在那次行動中的角色。而 Anthropic 隨後的提問,並無任何跡象表明公司對該行動持反對立場。

談判破裂,OpenAI 接手合約

隨著談判持續推進,政府官員逐漸覺得,Dario Amodei 的態度比其他頂尖 AI 實驗室的 CEO 要固執得多。據多位知情人士透露,在一次討論中,國防官員丟擲了幾個假設情境,例如:一枚高超音速飛彈正飛向美國本土;或者無人機蜂群突然來襲。

在這些情況下,他們詢問 Anthropic 的 AI 工具是否能夠投入使用。

知情人士表示,Amodei 當時的回應是:如果真的發生這種情況,官員可以直接打電話給他。不過,Anthropic 的一位發言人否認了這個說法,稱這種對談判過程的描述「完全失實」。

Anthropic 在政府內部本就有不少強硬對手,如今,對其「意識形態傾向」的疑慮進一步演變為公開敵意。2026 年 1 月 12 日,Pete Hegseth 在 SpaceX 總部的一場演講中直言:「我們不會使用那些不讓你打仗的 AI 模型。」

隨著談判陷入膠著,Hegseth 於 2 月 24 日把 Dario Amodei 召至五角大廈進行面對面會談。據一位瞭解討論內容的人士描述,這次會面氣氛尚稱友善,但雙方立場依舊堅定。Hegseth 一開始稱讚了 Claude,並表示軍方希望繼續與 Anthropic 合作。Amodei 則表示,公司可以接受五角大廈提出的大多數修改,但在兩條「紅線」問題上絕不退讓。

第一條紅線是:禁止將 Claude 用於完全自主的動能武器系統,即由 AI 而非人類做出最終打擊決定的武器。

Anthropic 並非認定自主武器本身必然是錯的,而是認為 Claude 目前還不夠可靠,無法在缺乏人類監督的情況下掌控這些系統。

第二條紅線涉及對美國公民的大規模監控。政府希望能夠利用 Claude 分析海量公開資料,但 Anthropic 認為,美國現行的隱私法律尚未跟上一個令人憂慮的現實:政府正在從商業市場購買龐大的資料集。單獨看,這些資料可能並不敏感,但一旦由 AI 加以分析,就可能生成關於美國公民私生活的詳盡檔案,涵蓋政治立場、社交關係、性行為以及瀏覽記錄。(不過,Anthropic 並未反對以同樣的方法對外國公民進行合法監控。)

Hegseth 沒有被說服。他給 Amodei 下達最後通牒:必須在 2 月 27 日週五下午 5 點之前接受國防部條款,否則就會被認定為「供應鏈風險」。

就在截止日期前一天,Anthropic 收到一份修改後的合約,表面上接受了公司的紅線,但仔細審閱後卻發現其中為政府留下了漏洞。據一位熟悉談判的人士透露,隨著時間一點點逼近,Anthropic 高管又與五角大廈 AI 負責人 Emil Michael 通話。他們認為雙方已接近妥協,但仍在一個關鍵問題上存在分歧:五角大廈是否可以使用 Claude 分析從商業管道購買的大規模美國人資料。Michael 要求 Amodei 加入電話會議,但他當時無法出席。

幾分鐘後,在最後期限到來之際,Hegseth 宣告談判終止。甚至在此之前,Donald Trump 就已經在自己的社群媒體上發聲:「美利堅合眾國絕不允許一家激進左翼、『覺醒派』公司來決定我們的偉大軍隊如何作戰並贏得勝利!Anthropic 那些左翼狂熱分子犯下了災難性的錯誤。」

Anthropic 不知道的是,五角大廈同時也在與 OpenAI 談判,希望將 ChatGPT 引入機密政府系統。就在同一天晚上,Sam Altman 宣布達成協議,並聲稱該協議同樣尊重類似的安全紅線。Amodei 隨即傳訊給員工,稱 Altman 與五角大廈是在「操弄輿論」,試圖讓公眾誤以為這項協議包含嚴格的安全護欄。此前,國防部官員也確認,xAI 的模型將被部署在機密伺服器上;五角大廈目前還在與 Google 進行談判。

這正是 Amodei 一直擔憂的局面:一場「向下競爭」的賽跑。當 AI 的力量強大到無法漠視時,競爭對手之間反而難以攜手,共同拉高安全標準。

而在 Anthropic 的批評者看來,這一事件也揭露了公司核心的某種傲慢:它或許相信自己能夠在通往超人級機器的道路上安然駕馭,讓承擔如此巨大的風險變得值得。但現實卻是,它正在將新的監控能力與戰爭技術迅速帶入一個右翼政府體系,而當它試圖為這些技術設定邊界時,競爭對手已從背後超越。

風暴過後:Anthropic 能挺過來嗎?

不過,一些跡象顯示,Anthropic 或許能熬過這場衝擊,甚至在過程中愈挫愈強。就在 Pete Hegseth 試圖簽署「企業死刑令」的隔天早晨,舊金山總部外的人行道上出現了一行行用粉筆寫下的鼓勵留言。「你們給了我們勇氣」,其中一條用醒目大字寫道。

同一天,Claude 的 iPhone 應用登上了 App Store 下載榜第一名,超越了 ChatGPT。每天有逾一百萬人新註冊 Claude。

與此同時,OpenAI 與軍方簽署的合約卻在內部和社群引發抵制。部分 OpenAI 員工認為,公司已經失去了信任。一位頂尖研究員宣布跳槽至 Anthropic;OpenAI 的機器人團隊負責人則因這項政府合約憤而請辭。

OpenAI CEO Sam Altman 也在隨後坦承,自己急於在週五前搶先談妥五角大廈協議是一個錯誤。他寫道:「這些問題極其複雜,需要清晰而充分的溝通。」到了週一,Altman 進一步表示,他當時的行為看起來確實「帶有機會主義色彩」。OpenAI 還表示已修改協議,明確採納與 Anthropic 相同的安全紅線。不過法律專家指出,在未看到完整合約之前,很難確認這項說法是否屬實。

3 月 4 日,Anthropic 收到來自美國國防部的正式信函,確認公司被認定為國家安全供應鏈風險。Anthropic 表示,這項認定的範圍比 Hegseth 在社群媒體上的說法更窄,僅限制承包商在國防合約中使用 Claude。

然而,TIME 看到的一封寄給參議院情報委員會主席 Tom Cotton 的信件顯示,國防部還援引了另一項法律條款——這一條款可能允許五角大廈以外的政府機構,同樣將 Anthropic 排除在其合約與供應鏈之外。該措施需要國防部高階官員批准,並給予 Anthropic 30 天的回應時間。

這場衝突可能在整個 AI 產業引發連鎖反應。曾參與起草川普 AI 行動計畫、現任職智庫 Foundation for American Innovation 的 Dean Ball 表示:「川普政府裡的一些人會為此感到強硬、洋洋得意,晚上回家時甚至對著自己的肱二頭肌自我陶醉。」

但他同時示警,這一事件也可能讓企業不願再與五角大廈合作,甚至將業務遷移海外。「從長遠來看,這對美國作為穩定商業環境的形象並不好,」Ball 說,「而穩定性正是我們賴以立足的根基。」

Anthropic 的領導層相信,Claude 將協助打造更強大的 AI 系統,強大到足以在未來的全球權力格局中扮演決定性的角色。

若果真如此,這家公司與五角大廈之間的衝突,或許只是一段更宏大歷史程式的序章。

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Commento
0/400
Nessun commento