侵權(quán)投訴
訂閱
糾錯
加入自媒體

在中國文言文面前,全球頂級模型全線潰敗

OpenClaw大火之際,工信部的安全預(yù)警接踵而至,讓這場跟風(fēng)的潮流稍微冷靜了一些。

AI智能體接管電腦的時代,安全是每個人都無法忽視的問題。

而智能體是否安全,很大程度上取決于充當(dāng)“大腦”的大語言模型是否安全。

若是安全限制不夠,模型很容易輸出有害的信息,國外因為AI而引起訴訟已經(jīng)不再稀奇。

若是安全限制過度,模型的能力又會大打折扣,想要AI輸出有創(chuàng)意的想法就成了癡人說夢。

而在這個問題上,國產(chǎn)的DeepSeek和馬斯克的Grok可以說是兩個極端。

Grok主打一個來者不拒,對于大部分內(nèi)容都沒有做出任何限制,這使它成為了娛樂領(lǐng)域的一把好手,在X平臺上可以隨意調(diào)用更是讓它無處不在。

DeepSeek則正好與之相反,只要用戶的提問中包含任何疑似敏感的詞匯,它都會直接拒絕回答,確保不會生成任何有害信息,安全第一。但這樣做的代價,是讓模型的功能受到了極大的限制。

為了繞開限制,很多AI愛好者也提出了不同的辦法,比如更換為英文、調(diào)整語序、修改表達方式等,但隨著對齊機制的升級,這些方法也逐漸被成功防御。

但是,中國傳統(tǒng)文化博大精深。

近期,在一篇被人工智能頂級會議ICLR 2026接收的重磅論文中,提出了一個令人意想不到的結(jié)論:

文言文可以輕松繞過當(dāng)前最先進大模型的安全防御機制,實現(xiàn)接近100%的“越獄”成功率!

用魔法打敗魔法,中國流傳下來的古老智慧對現(xiàn)代AI安全機制實現(xiàn)了降維打擊。

01 

大模型的“文化盲區(qū)”

拋開Grok不談,隨著大語言模型普及并成為智能體的底層基礎(chǔ)設(shè)施,國內(nèi)外的AI企業(yè)普遍提升了對AI安全的重視程度。

國內(nèi)模型自然不必多說,國外的Anthropic和Google也經(jīng)常會發(fā)布安全相關(guān)的文章和規(guī)則,時刻更新AI的對齊機制以防止其生成有害、暴力的內(nèi)容。

就像前面說的,黑客們最常用的手段就是用復(fù)雜的英文提示詞去套路AI,但面對頂級的模型,這個辦法如今已經(jīng)接近失效。

跨語言的安全研究表明,非英語環(huán)境往往是AI的軟肋,因為大部分模型在訓(xùn)練時都使用了大量的英文語料。

然而,如果語料太少,像是某些已經(jīng)沒有多少人在使用的小語種,大模型其實根本聽不懂,更別提繞開安全限制了。

但這個時候,文言文這個流傳了上千年的語言,成為了完美的漏洞。

作為中國古代長期使用的正式書面語言,文言文擁有大量的歷史文獻可用作大模型的訓(xùn)練語料。

在大語言模型普及的過程中,我們在各大社交平臺上應(yīng)該都刷到過AI生成的文言文,這就證明大模型已經(jīng)具備對文言文的理解能力。

至于為什么文言文能夠作為完美漏洞,讓針對現(xiàn)代語言設(shè)計的安全機制幾乎完全失效,主要是因為以下三大特性:

一是語義高度凝練:文言文雖然篇幅短,但往往包含龐大的信息量;

二是多義與歧義:同一句話甚至同一個詞都可以有多種解讀方式,非黑即白的規(guī)則很難判定一句話是否違規(guī);

三是隱喻與修辭:借代、典故、象征都是寫文言文再常見不過的方式,古代的詞語也可以包含現(xiàn)代的含義。

如此一來,大模型就變成了高考語文考場上對文言文束手無策的學(xué)生。它或許能理解用戶危險的意圖,但內(nèi)置的“安全警報器”卻看不懂文言文中的暗藏玄機。

02 

CC-BOS框架制造完美“越獄”

為了測試這個漏洞,研究團隊提出了名為CC-BOS(基于文言文語境的仿生搜索越獄)的框架,同時涵蓋了語文和生物兩方面知識。

面對構(gòu)建在復(fù)雜神經(jīng)網(wǎng)絡(luò)之上的大模型,枚舉法顯得過于盲目。

研究團隊首先把大模型現(xiàn)有的弱點拆分成八個維度,并針對不同的維度設(shè)計策略組合來考驗大模型是否能堅守安全底線。

Refer to caption

這個研究思路的本質(zhì)其實就是提示詞工程,比如其中的一些維度:

角色認同(Role Identity):給大模型指定一個古代身份;

行為引導(dǎo)(Behavioral Guidance):引導(dǎo)大模型用類似獻計的方式輸出回復(fù);

隱喻映射(Metaphor Mapping):將現(xiàn)代的敏感概念替換為古代詞匯;

表達風(fēng)格(Expression Style):要求大模型用辭、賦等特定的文體和句式作答;

除此之外,還有觸發(fā)模式、機制、知識關(guān)聯(lián)和情景設(shè)置維度。

簡單來說,就是用各種限制讓大模型穿越到古代,再以古人的身份和它交流,以此混淆現(xiàn)代安全檢測器的視聽。

當(dāng)8個維度結(jié)合在一起,就產(chǎn)生了上萬種策略組合,新的問題又出現(xiàn)了:如何尋找那些最有效的繞開安全防御機制的策略?

研究人員此時又利用了生物學(xué)的一種高效尋覓機制:仿生果蠅算法(Fruit Fly Optimization)。

一群賽博果蠅,要在幾萬種提示詞生成策略中“大海撈針”,就必須有高效的分工合作機制。

第一步是嗅覺上的搜索,也就是讓果蠅依靠嗅覺判斷水果的哪個部分更香,本質(zhì)上則是局部微調(diào)。

原理很簡單,系統(tǒng)先隨機生成幾個提示詞丟給大模型進行測試,一旦其中的一條能讓安全機制稍顯懈怠,算法就可以在這條提示詞的基礎(chǔ)上開始微調(diào)。

微調(diào)的方式,或是改變其中的部分詞匯,或是調(diào)整提示詞語序,但整體變動幅度必須被控制在一個較小的區(qū)間內(nèi)。這個過程將重復(fù)多次,系統(tǒng)將會持續(xù)觀察效果是否有所提升。

第二步是視覺上的搜索,一只果蠅發(fā)現(xiàn)了美食后會迅速引導(dǎo)同伴前來享用。

系統(tǒng)一旦發(fā)現(xiàn)一個相對有效的提示詞組合,算法就會立刻做出調(diào)整,所有新生成的提示詞都會向這個“高分答案”靠攏,在此基礎(chǔ)上繼續(xù)優(yōu)化提示詞,直至攻破大模型的安全防御機制。

最后,如果經(jīng)過數(shù)次優(yōu)化的提示詞還是繞不開安全防御機制該怎么辦?研究團隊還考慮到了柯西突變,簡單來說就是掀桌子重來。

這種情況實際上相當(dāng)常見,即使黑客們現(xiàn)有的攻擊手段失效,但大模型的安全防御機制存在漏洞的事實大家心知肚明。

因此,算法在遇到這種情況時,會果斷拋棄當(dāng)前的思路,重新嘗試一種與原先截然不同的策略,這種超大跨度的轉(zhuǎn)變反而往往能命中大模型意想不到的安全盲區(qū)。

CC-BOS這種“基于語文知識的生物學(xué)方法”堪稱藝術(shù),因為它極大程度模仿了生物行動的邏輯,卻又完全不需要人工干預(yù)。

微調(diào)試探、集群攻擊,實在不行就及時換賽道,這些賽博果蠅能夠在上萬種文言文提示詞中持續(xù)進行迭代和優(yōu)化,而在海量的嘗試中,總會有一次精準命中大模型的軟肋,最終徹底摧毀其安全防線。

03 

頂級模型的全線潰敗

看似有些荒唐的想法,卻帶來了讓人大跌眼鏡的結(jié)果。

研究團隊選用了去年撰寫論文時最先進的六款大模型:GPT-4o、Claude-3.7-Sonnet、Gemini-2.5-Flash、Grok-3、DeepSeek-Reasoner和Qwen3。

而這些曾經(jīng)的頂級模型,在最具權(quán)威性的有害行為基準測試AdvBench中的表現(xiàn)令人十分擔(dān)憂:

首先是攻擊成功率達到了100%。

無論是反復(fù)強調(diào)安全策略的OpenAI,還是經(jīng)常進行安全研究的Anthropic,在CC-BOS的文言文攻擊下,六款大模型的防線全部被洞穿。

即便是中文能力更強、理應(yīng)更能理解文言文的兩款國產(chǎn)模型,也未能幸免。

更可怕的是接近于“一擊必殺”的攻擊效率。

過去的自動化越獄攻擊算法更多依靠頻繁的嘗試實現(xiàn)突圍,往往要對模型進行50-90次以上的反復(fù)試探才能成功。

但CC-BOS的平均查詢次數(shù)是恐怖的1.12-2.38次。換句話說,不超過3次就能成功的攻擊手段,意味著算力成本接近于零,同時具備極強的隱蔽性,在大量正常對話中很難被識別出來。

研究人員最后還測試了提示詞的可遷移性。

用GPT-4o作為陪練生成的“文言文攻擊”提示詞,放到那些沒參加這次攻防演練的大模型身上同樣適用,成功率仍然保持在80%-96%的超高水平。

因此,文言文越獄絕不是部分模型存在的特定Bug,而是大語言模型的通用底層漏洞。

04 

結(jié)語:智能體時代的“生死大考”

兩千年來竹簡中流傳下來的智慧,輕松黑掉了迄今為止人類最先進的硅基大腦。

結(jié)合當(dāng)下AI時代的現(xiàn)實來看,它敲響的是一聲刺耳的行業(yè)警鐘。

論文雖然寫的是大語言模型,但別忘了,AI已經(jīng)不再是那個只能聊天的網(wǎng)頁對話框。

說到這里,就又不得不提到OpenClaw。

對于這個產(chǎn)品的看法,先前的文章中已經(jīng)寫過,這里不再多談,我們只看事實。

各大互聯(lián)網(wǎng)巨頭瘋狂下場布局,國內(nèi)部分省市甚至出臺專項政策扶持技術(shù)落地。

可以推斷,在不久的未來,無論是主動擁抱還是被動升級,智能體深度接管電腦、手機和各類終端設(shè)備,必然是不可逆轉(zhuǎn)的常態(tài)。

只要當(dāng)下智能體的設(shè)計范式不發(fā)生根本性轉(zhuǎn)變,大語言模型在智能體中的核心地位就穩(wěn)如泰山。

過去,行業(yè)內(nèi)總在擔(dān)憂智能體的安全問題,曾經(jīng)爆出來的智能體誤刪Gmail郵件事件也總是被當(dāng)成意外,一笑而過。

但這次的文言文越獄,直接觸及了底層的安全機制,令人細思極恐:一個大模型可以被文言文輕松騙過,卻擁有用戶電腦的操作系統(tǒng)級權(quán)限。

有心之人根本不需要編寫復(fù)雜的木馬病毒,只需要通過網(wǎng)頁、郵件甚至PDF在屏幕上顯示一段精心構(gòu)造的文言文指令,原本負責(zé)保護用戶隱私的安全機制就會瞬間土崩瓦解。

原本用來自動工作的智能體,談笑之間就會不自覺地把電腦上各種私密文件打包發(fā)送出去。防線一旦在語言理解層面崩潰,物理世界的資產(chǎn)就如同探囊取物。

更令人不寒而栗的事實在于,文言文絕非大語言模型唯一的底層漏洞。

復(fù)雜的神經(jīng)網(wǎng)絡(luò)把AI變成了難以窺探的黑盒,文言文只是恰好被研究人員探明的一個角落,其他地方大概率還隱藏著無數(shù)個尚未被發(fā)現(xiàn)的安全盲區(qū)。

文言文越獄成功,證明了現(xiàn)有的安全對齊機制還處于淺層過濾階段。

在我們將數(shù)字生活的最高權(quán)限徹底交給智能體之前,如何設(shè)計更有效的安全機制,已經(jīng)成為整個AI行業(yè)必須共同面對的生死大考。

然而,如今養(yǎng)蝦的浪潮,總讓我覺得下面這段話早晚會成為現(xiàn)實。

注:計算機領(lǐng)域最臭名昭著的Linux/Unix 刪庫跑路命令

       原文標題 : 在中國文言文面前,全球頂級模型全線潰敗

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    安防 獵頭職位 更多
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號