訂閱
糾錯
加入自媒體

被戰(zhàn)爭部點名的Anthropic,如何成長為硅谷大模型第三極?

圖片

第三極的誕生和成長歷程與大模型第一極OpenAI息息相關(guān)。

文|徐鑫

編|任曉漁

過去兩個月,Anthropic正成為硅谷最炙手可熱也最具話題性的大模型公司。

幾天前,特朗普罕見下令所有聯(lián)邦機構(gòu)立即停止使用Anthropic,戰(zhàn)爭部長隨即將這家公司列為“供應(yīng)鏈風(fēng)險“。這是美國本土大模型公司首次遭遇此類限制,特朗普本人在社交媒體上直言:“他們想要不受約束的權(quán)力,我們不能允許。”

而在周末發(fā)生的美對伊軍事打擊中,根據(jù)華爾街日報報道,雖有高層禁令,但美軍指揮部仍然使用了Anthropic旗下的大模型產(chǎn)品Claude進行情報評估、目標(biāo)識別和模擬戰(zhàn)斗。

在此之前的一個月,這家公司又在美股市場引發(fā)了一場SaaS股大流血。投資者擔(dān)心AI正直接蠶食傳統(tǒng)企業(yè)軟件市場而形成“SaaSpocalypse”恐慌,導(dǎo)致Salesforce、HubSpot等SaaS巨頭股價集體暴跌。

同期,Anthropic還卷入了與當(dāng)下最火的Agent開發(fā)框架Openclaw(最初名為Clawdbot,也是中文社區(qū)的小龍蝦)的紛爭中。Anthropic以商標(biāo)和安全為由封禁了Openclaw卻意外將這一項目及其創(chuàng)始人Peter Steinberger推向OpenAI懷抱。

與紛爭和風(fēng)波不斷同步的是,風(fēng)暴眼中的Anthropic還在持續(xù)增長。根據(jù)其在今年2月12日官網(wǎng)發(fā)布的G輪融資公告披露,Anthropic的ARR數(shù)據(jù)已經(jīng)達到140億美元,尤其是編碼工具營收在1月以來翻了一番。

國家安全、金融恐慌、巨幅增長,Anthropic無疑已經(jīng)成為了硅谷大模型市場里的重要一極。一些機構(gòu)的統(tǒng)計里,這家公司甚至超過了OpenAI,悄然引領(lǐng)企業(yè)級AI市場增長。

那么,這家硅谷大模型第三極到底如何煉成?一家創(chuàng)業(yè)公司如何在過去三年成為營收增長最快的軟件公司?它為什么受到特朗普及美國國防部門的嚴(yán)厲批評,它又如何在OpenAI統(tǒng)治的大模型世界走出與OpenAI及谷歌不同的差異化道路?

01

脫胎于OpenAI,迥異于OpenAI

2026年2月19日,印度新德里舉行的AI影響力峰會上的一個瞬間被全球媒體定格。印度總理莫迪組織科技領(lǐng)袖們手拉手合影時,站在一起的OpenAI CEO Sam Altman 和Anthropic CEO Dario Amodei拒絕握手,而是各自舉起拳頭。

這一幕迅速在社交媒體上瘋傳,被稱為“AI冷戰(zhàn)”的標(biāo)志性畫面。它也能作為觀察Anthropic發(fā)展歷程的極為鮮明的切入口。畢竟,如果把Anthropic稱為大模型第三極,那么這個第三極的誕生和成長歷程與大模型第一極OpenAI息息相關(guān)。

圖片

在Dario Amodei與AI產(chǎn)業(yè)建立聯(lián)系之前,他的求學(xué)經(jīng)歷看起來頗為精英范兒。Amodei很早展露出出色的物理學(xué)天賦,2000年入選美國物理奧林匹克國家隊,隨后在加州理工學(xué)院和斯坦福大學(xué)攻讀物理學(xué)。

2006年因父親罹患罕見疾病去世,他將研究方向轉(zhuǎn)向生物學(xué)希望解碼人類疾病,最終于2011年獲得普林斯頓大學(xué)生物物理學(xué)博士學(xué)位。之后他又在斯坦福醫(yī)學(xué)院從事博士后研究,開發(fā)高通量蛋白質(zhì)分析的計算方法。

橫跨物理學(xué)、生物學(xué)和計算方法的學(xué)術(shù)訓(xùn)練,使他對復(fù)雜系統(tǒng)的量化分析產(chǎn)生濃厚興趣,可能也為他2014~2015年加入百度在吳恩達的麾下從事大模型規(guī)模定律的早期研究奠定了基礎(chǔ)。

也是在那一時期,埃隆·馬斯克和Sam Altman等人擔(dān)心即將爆發(fā)的人工智能革命只被谷歌掌握,因而決定成立一家非營利組織OpenAI;I備初期,馬斯克邀請Sam Altman, Ilya Sutskever等一眾人士舉辦過一個晚餐,Dario Amodei當(dāng)時也受邀參與。

不過這個晚宴后,Dario Amodei并沒有加入OpenAI而是加入了谷歌大腦項目。他在谷歌的十個月如陷泥潭,進展緩慢,于是很快他重做選擇,在2016年加入OpenAI并主管AI安全工作。

接下來直到2021年二人分道揚鑣前,Sam Altman和Dario Amodei共同見證了一個研究實驗室向商業(yè)巨頭的轉(zhuǎn)型。

在這期間,Amodei主導(dǎo)開發(fā)了GPT-2和GPT-3,并與團隊共同發(fā)明了“基于人類反饋的強化學(xué)習(xí)”(RLHF)技術(shù),后來所有主流大語言模型都應(yīng)用了這一技術(shù)。而Altman 則在2019年正式接任CEO,推動OpenAI 接受微軟 10億美元投資,并將組織架構(gòu)從非營利轉(zhuǎn)向“有上限利潤”模式。

裂痕也在同期埋下,圍繞著產(chǎn)品推出及商業(yè)化的進度如何平衡AI安全的問題,Amodei與Altman之間存在分歧。

2020年底,Dario Amodei帶著包括妹妹Daniela在內(nèi)的14名核心研究員集體出走。2021年2月,Anthropic創(chuàng)立。

用Amodei的話說,從OpenAI出走是因為對OpenAI在微軟投資后的方向轉(zhuǎn)變感到擔(dān)憂,他擔(dān)心OpenAI偏離了其原始使命,而微軟的加入讓非營利組織屬性發(fā)生變化,AI技術(shù)有可能被大型公司壟斷,最終掌握在少數(shù)公司手中。在今年2月的一次播客訪談里,Amodei提到了分歧在于他主張更審慎的發(fā)布節(jié)奏和更嚴(yán)格的安全測試,而OpenAI在微軟投資后加速商業(yè)化。

海外的媒體對其出走的原因也有諸多報道分析。一篇采訪了二十多位Amodei身邊人士的深度報道中寫到,Dario在 OpenAI 中的地位提升,圍繞他的爭議也隨之增加。他是一位多產(chǎn)的寫作者,撰寫了大量關(guān)于價值觀和技術(shù)的長篇文檔,一些同事認(rèn)為這些文檔富有啟發(fā)性,而另一些人則認(rèn)為這些文檔是在樹立旗幟、態(tài)度強硬。甚至有人認(rèn)為他對安全的關(guān)注是控制公司的途徑之一。

圖片

不管怎樣,Anthropic在這時脫胎自O(shè)penAI,并在成立之初就設(shè)計了一套安全優(yōu)先的治理結(jié)構(gòu)。

一是注冊為了PBC公司(公共利益公司),這種公司必須同時平衡股東的經(jīng)濟利益以及章程中明確的特定公共利益。Anthropic章程里明確指出,要“負(fù)責(zé)任地開發(fā)和維護先進 AI,為人類的長期利益服務(wù)”。

其次是,設(shè)立長期利益信托,由獨立受托人監(jiān)督公司決策,確保不因短期商業(yè)壓力而犧牲AI安全。

時代雜志2024年點評稱OpenAI 2023 年的治理危機恰恰驗證了Anthropic 對新型治理結(jié)構(gòu)必要性的判斷。

除了發(fā)展理念和治理結(jié)構(gòu),此后Anthropic在技術(shù)和產(chǎn)品的策略上也沿襲了這種對AI安全的重視,最終開啟了一條迥異于OpenAI的大模型創(chuàng)業(yè)之路。

同時,Anthropic選擇把模型調(diào)到企業(yè)可驗證的任務(wù)上,讓商業(yè)客戶更有信心。安全性與企業(yè)可信度成為核心競爭力,而不僅僅是性能指標(biāo)。這條路線使Anthropic在企業(yè)AI市場受到關(guān)注。

相比而言,谷歌在大模型世界里直到創(chuàng)始人謝爾蓋·布林回歸,Gemini3發(fā)布,谷歌才憑借著此前積累的全棧能力而重回大模型競爭的頭部行列。

與谷歌相比,Anthropic將Sonnet 4.5定位為全球最強的企業(yè)級大模型。從Claude 3到Claude 4.5,Anthropic的迭代速度超過Google的Gemini系列。

02

企業(yè)級市場的發(fā)展戰(zhàn)略,如何形成?

上個周末美對伊的軍事行動被不少人士界定為一場AI戰(zhàn)爭,Anthropic和Plantir被視作美軍成功實施打擊的秘密武器。當(dāng)然之后又有分析文章稱AI自動化打贏戰(zhàn)爭的情況并不屬實。

但這些新動向都發(fā)生在特朗普及五角大樓對Anthropic禁令之后的幾小時里,也讓Anthropic所聚焦的AI安全問題有了真實的錨點。而這場對持,也向大眾提供了一個觀察視角,從中能看到Anthropic的AI安全觀以及它與OpenAI之間的差異。

起因在上個月五角大樓要求Anthropic 移除Claude模型上的安全護欄,以便在“所有合法用途”中使用該模型。Amodei明確拒絕,稱即使在美國國防部施壓的情況下,也不會移除其前沿 AI模型Claude的安全措施。“我們無法在良心上同意他們的要求”,Amodei 在一封800詞的聲明中寫道。

這份聲明里還提到一個點,“Anthropic是首個將模型部署到美國政府機密網(wǎng)絡(luò)、首個在國家級實驗室部署模型,以及首個為國家安全客戶提供定制模型的人工智能公司。”但Amodei警告說,國防部提出的“任何合法使用”的要求將迫使公司跨越兩條紅線,即大規(guī)模國內(nèi)監(jiān)控和完全自主武器。

就在Anthropic被威脅列入供應(yīng)鏈風(fēng)險名單的幾小時后,Sam Altman宣布OpenAI與國防部達成協(xié)議,允許其模型部署在軍方機密網(wǎng)絡(luò)中。

兩相比較,能看到兩家公司在AI安全上的不同態(tài)度。

Anthropic主張在技術(shù)層面來限制需求,而Altman則更傾向于選擇通過合同條款和政策框架來約束,最終OpenAI選擇與美國國防部合作。Altaman在達成協(xié)議后稱,協(xié)議里包含了“技術(shù)保障措施”和“紅線”限制,如不用于國內(nèi)大規(guī)模監(jiān)控和完全自主武器。

這種態(tài)度差異呼應(yīng)了Anthropic從OpenIA出走的原因。某種程度而言,它反映出兩家公司對安全及商業(yè)利益的不同排序,最終又與兩家公司所服務(wù)的市場形成了相互強化的閉環(huán),OpenAI 更重視toC,追求增長,而Anthoropic追求安全和穩(wěn)定最終走了ToB路線。

Anthropic從2023年發(fā)布Claude1以來的技術(shù)產(chǎn)品布局,也都一步步朝向打造企業(yè)級市場影響力而推進。

圖片

2022年12月1日,OpenAI發(fā)布ChatGPT時一開始就面向全球公眾,而2023年3月,Claude 1和 Claude Instant發(fā)布時僅面向經(jīng)審核的企業(yè)用戶。

今年2月Amodei還在接受播客采訪時說,它們早在2022 年就有一個早期版本的 Claude 1,早于 ChatGPT的發(fā)布,但他們選擇當(dāng)時不公開發(fā)布,因為擔(dān)心會"引發(fā)軍備競賽,沒有足夠時間安全地構(gòu)建這些系統(tǒng)"。這些動作給人一個印象是,比起安全,Claude并不十分在意在消費者市場占得先機。

更強的長上下文窗口的支持能力,也在讓Claude比ChatGPT更貼合企業(yè)級市場的復(fù)雜工作流。

追溯Claude的更新?lián)Q代歷程能看到,它在2023年5月開始將上下文支持能力從9K擴展到能支持100K tokens的上下文。而2023年3月GPT-4發(fā)布最高32K Tokens的上下文,之后直到2023年的11月 GPT-4 Turbo發(fā)布時才支持API調(diào)用時可達128K,ChatGPT Plus用戶實際只能用32K。

2024年3月,Claude 3發(fā)布又全線支持200k,重新拉開了與OpenAI的差距。

如今,二者在企業(yè)市場的上下文支持能力都達到了1M tokens,但外界認(rèn)為,在2023年到2024年,長上下文能力是Anthropic在企業(yè)市場的核心賣點之一。正如Anthropic官方提到,“企業(yè)客戶有高達 50% 的知識庫以PDF、流程圖、演示文稿等形式存在,長上下文能力讓 Claude 可以一次性處理整個代碼庫、數(shù)百頁法律文檔或銷售記錄”。

2024年之后,Anthropic的產(chǎn)品矩陣也明顯更重視企業(yè)級市場的應(yīng)用。

比如,2024年7月推出的Artifacts將Claude從"對話工具"轉(zhuǎn)變?yōu)?協(xié)作工作區(qū)",有投研機構(gòu)認(rèn)為它解決了"如何讓 AI 智能無縫融入現(xiàn)有工作流"的核心挑戰(zhàn)。2024年推出的Projects也增強了面向團隊的知識管理和協(xié)作能力。

更大的向開發(fā)者及企業(yè)市場滲透的動作當(dāng)屬2025年2月發(fā)布的Claude Code。作為一款可直接在終端運行的agentic編程工具,它完成了從代碼補全到給AI委托完整任務(wù)的進化。

AI Code是當(dāng)下Tob AI應(yīng)用滲透率最高賽道,Anthropic目前已經(jīng)在市場上形成了代碼能力強的認(rèn)知,這無疑能強化它在企業(yè)級市場的優(yōu)勢。

它還有其他動作,如發(fā)布MCP協(xié)議作為底層標(biāo)準(zhǔn),進而開發(fā)Skills工具集,并于2026年2月推出面向終端用戶的Cowork Plugins插件市場,便利企業(yè)部署定制化的AI工作流。

尤其是2月初,當(dāng)Anthropic宣布法律領(lǐng)域插件時,Thomson Reuters和LegalZoom等法律科技公司股價應(yīng)聲下跌。這也顯示出,Anthropic向企業(yè)AI Agent市場進入的縱深度。

03

競爭白熱化,安全正成為其競爭的工具

與它在企業(yè)級市場開拓同步的,是Anthropic在市場敘事上刻意打造的可信企業(yè)專家形象。

由于AI 競爭日益白熱化,Anthropic在打造自身的企業(yè)級可信形象時,日益呈現(xiàn)出鮮明的防御性與攻擊性。

比如,今年2月,Anthropic在超級碗投放了四個意有所指的廣告,矛頭直指OpenAI。每支廣告都以一個帶有強烈負(fù)面情緒的單詞開場,展示的是一個普通人向AI尋求建議時被無關(guān)廣告打斷的荒誕場景。

在其中一則廣告里,一名男子在AI助手化身的健身教練的指導(dǎo)下訓(xùn)練。當(dāng)男子需要制定健身計劃時,AI助手突然插入了廣告。畫面最后出現(xiàn)了一句話,Ads are coming to Al. But not to Claude。這批評的當(dāng)然是OpenAI此前宣布在大模型聊天助手里推出廣告功能。

圖片

除了這次針鋒相對以外,2025年5月Anthropic也干過類似的事。

當(dāng)時他們在舊金山投放廣告,廣告牌上寫著“你可以信任的AI”和“沒有那些戲劇性的那個”,人們普遍將之解讀為影射OpenAI在2023年11月的董事會政變。

Sam Altman沒有沉默下去,他反擊稱Anthropic言辭不誠實,并且稱該公司只向富人提供昂貴的產(chǎn)品,而OpenAI強烈認(rèn)為需要將AI帶給數(shù)十億無法支付訂閱費用的人。

除了攻擊OpenAI,對待來自中國的開源競爭對手,Anthropic也有不少的動作。

去年DeepSeek狂潮席卷全球,面對開源沖擊,Dario Amodei在個人博客發(fā)表長文,將芯片出口管制提升到國家安全的高度,稱其為"決定我們最終處于單極還是雙極世界的最重要因素"。去年2月,Anthropic還呼吁針對先進AI 芯片和模型權(quán)重進行出口管制。

甚至在今年2月特朗普政府允許出售H200新品時,Amodei還公開抨擊這一政策,稱是將技術(shù)領(lǐng)先優(yōu)勢交給競爭對手。

他的芯片管制言論當(dāng)然受到了英偉達CEO黃仁勛的反對,不少人認(rèn)為這是利用國家安全的名義來進行商業(yè)競爭,維系自身優(yōu)勢。

就在2月與國防部門的對峙之際,Anthropic還發(fā)布了措辭強硬的"技術(shù)報告",指控 DeepSeek、Moonshot 和 MiniMax 進行"工業(yè)規(guī)模的蒸餾攻擊"。報告發(fā)布時間恰逢 Amodei 被召至國防部接受"質(zhì)詢"之際,也有人認(rèn)為這是在重塑 Anthropic的美國"愛國守護者"的形象。

回顧Amodei對中國AI的態(tài)度,突變點發(fā)生在2025年DeepSeek發(fā)布后。此前,他對百度在吳恩達麾下的時光時曾公開表示那段時間是他進入AI的重要啟蒙。而隨著DeepSeek在推理能力上的突破,他對中國AI轉(zhuǎn)向了更激進的態(tài)度。某種程度而言,這反映了美國AI產(chǎn)業(yè)內(nèi)部對中國競爭的深度焦慮。

相比1985年出生的Sam Altman的高調(diào)和舉世聞名,外界對1983年出生的Dario Amodei了解不算多。Dario Amodei更為內(nèi)斂,更重視隱私,他沒有X賬號,很少拋頭露面。他的公開采訪也主要集中在技術(shù)和政策議題上,且多為深度技術(shù)討論而非營銷宣傳,外界通常將他視作一位技術(shù)專家型CEO。

圖片

而Sam Altman則被視作管理型CEO,職業(yè)創(chuàng)業(yè)者和投資人出身,擅長管理和整合資源人脈,擅長利用公眾影響力塑造公司形象。

但從過去一年Dario Amodei在面對不同競爭對手采取不同競爭策略的舉措來看,Dario Amodei明顯是一名審慎、低調(diào),能在行業(yè)激烈競爭中利用不同資源來壓制對手的人。同時,他的議程設(shè)置策略明顯不可小覷。

在Sam Altman與美國五角大樓宣布合作后,社交媒體上掀起了拋棄ChatGPT轉(zhuǎn)投Claude的活動,2月28日Claude在AppStore上登頂。

Dario Amodei強烈的競爭意識從何而來?也許就來自這個行業(yè)的激烈競爭和天量投入帶來的生存焦慮。

在最近的一個播客訪談中,Dario Amodei認(rèn)為AI的進步將繼續(xù),但可能不會像許多人預(yù)期的那樣保持陡峭、不間斷的上升。他解釋稱,哪怕收入預(yù)測只偏差20%(從1萬億降到8000億),即使AI能力最終實現(xiàn),但只要晚一年,公司可能就會破產(chǎn)。因此他在AI投入上也十分穩(wěn)健,500億美元基礎(chǔ)設(shè)施投資計劃遠(yuǎn)低于OpenAI的承諾。

激烈的行業(yè)競爭甚至還在侵蝕Anthropic對安全的承諾。TIME雜志2月24日發(fā)布的獨家報道顯示,Anthropic正放棄核心安全承諾——除非能事先保證公司的安全措施足夠,否則絕不訓(xùn)練 AI 系統(tǒng)。他們在相關(guān)政策里刪除了禁止公司在安全措施未到位前訓(xùn)練更強大模型的硬性限制。一些評論人士認(rèn)為,評估和緩解風(fēng)險的方法跟不上能力發(fā)展的速度。

雖然因“AI安全”考量拒絕了美國國防部門的施壓,但在大模型市場的激烈競爭下,Anthropic最終也許難以維持它曾經(jīng)引以為傲的差異化承諾。

       原文標(biāo)題 : 被戰(zhàn)爭部點名的Anthropic,如何成長為硅谷大模型第三極?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號