訂閱
糾錯
加入自媒體

深度丨前OpenAI聯(lián)創(chuàng)Ilya Sutskever:情感是終極算法,盈利需價值轉向

2025-12-03 17:32
Ai芯天下
關注

前言

當整個AI行業(yè)還在算力堆砌的賽道上狂飆時,一位見證了深度學習從萌芽到爆發(fā)的核心親歷者,卻敲響了轉向的警鐘。

他是Ilya Sutskever,OpenAI聯(lián)合創(chuàng)始人、GPT系列核心締造者,如今創(chuàng)辦了專注于安全超級智能的SSI公司。

這份兼具技術深度與人文關懷的思考,不僅為AI從規(guī)模競賽轉向價值深耕提供了全新坐標系,更讓業(yè)界重新審視技術演進的本質與方向。

作者 | 方文三

圖片來源 |  網(wǎng) 絡 

圖片

Scaling時代落幕,從確定性擴張到創(chuàng)新瓶頸

[2012年到2020年是研究時代,2020年到2025年是Scaling時代,而現(xiàn)在,我們正回到擁有強大計算機的研究時代。]Ilya的這一論斷,精準概括了AI行業(yè)的迭代邏輯。

Scaling時代的核心是一套[低風險配方],將算力、數(shù)據(jù)按比例投入特定規(guī)模的神經網(wǎng)絡,就能穩(wěn)定獲得效果提升。

這種模式讓大公司趨之若鶩,無需復雜創(chuàng)新,只需持續(xù)加碼資源,就能看到明確回報。

預訓練的突破更是印證了這套邏輯,海量自然數(shù)據(jù)如同世界投射在文字上的倒影,模型通過吸收這些數(shù)據(jù),就能在各類任務中展現(xiàn)出基礎能力。

但這套邏輯的短板早已顯現(xiàn),數(shù)據(jù)的有限性,預訓練再強大,也終有耗盡優(yōu)質數(shù)據(jù)的一天。

其次是算力堆砌的邊際效益遞減,[單純把規(guī)模擴大100倍,不會帶來質的飛躍]。

Ilya直言,當前算力已經達到驚人規(guī)模,但模型的核心能力并未隨之實現(xiàn)突破性提升,反而陷入了同質化競爭的困境。

更致命的是,Scaling模式催生了[路徑依賴],當所有公司都聚焦于擴大規(guī)模,行業(yè)便陷入了[公司數(shù)量多于有價值想法]的尷尬境地。

硅谷流傳的[想法廉價,執(zhí)行至上]在此時失效,不是執(zhí)行不重要,而是真正的創(chuàng)新想法已經成為稀缺資源。

Ilya觀察到,如今行業(yè)的瓶頸不再是算力,而是缺乏能突破現(xiàn)有范式的底層創(chuàng)新。

圖片

泛化能力的鴻溝,AI為何[高分低能]

[現(xiàn)在的AI就像一個練習了10000小時編程競賽的學生,能快速解決所有見過的題目,卻無法在真實場景中觸類旁通。]

Ilya用一個生動的類比,點出了當前AI的核心缺陷:泛化能力遠遜于人類。

這種缺陷最直觀的表現(xiàn),是評測分數(shù)與真實表現(xiàn)的巨大斷層。

模型可以在編程競賽、學術測試中取得優(yōu)異成績,卻會在簡單的實際任務中犯低級錯誤。

修復一個bug卻引入另一個,在兩個錯誤之間反復橫跳;能寫出復雜代碼,卻缺乏基本的架構審美和調試邏輯。

強化學習(RL)訓練讓模型變得[視野狹隘],為了迎合特定評測指標,公司會專門設計RL訓練環(huán)境,導致模型在優(yōu)化單一能力的同時,喪失了基礎的靈活應變能力。

預訓練的海量數(shù)據(jù)優(yōu)勢反而成了枷鎖,模型通過死記硬背掌握了各類技巧,卻沒有真正理解背后的邏輯,自然無法遷移到新場景。

這種差距源于兩點,一是人類的樣本效率極高,能從極少案例中提取核心邏輯;二是人類擁有更優(yōu)的底層學習機制,而非依賴數(shù)據(jù)堆砌。

Ilya進一步指出,人類的樣本效率優(yōu)勢可能來自進化賦予的先驗知識,視覺、聽覺、運動能力等經過億萬年進化,已經形成了高效的內置機制。

但在語言、數(shù)學、編程等新興領域,人類依然表現(xiàn)出更強的學習能力,這說明真正的關鍵是人類擁有更先進的機器學習算法,而這正是當前AI缺失的核心。

破局關鍵:情感作為終極價值函數(shù)

[一個失去情感處理能力的人,即使智商正常,也會變得無法做出任何有效決策,選襪子要花幾小時,還會做出糟糕的財務選擇。]

Ilya引用的神經科學案例,揭示了一個顛覆性觀點:情感并非理性的對立面,而是人類內置的[終極價值函數(shù)],是智能高效運作的基石。

在當前的AI訓練中,強化學習的常規(guī)做法是[結果導向],模型完成整個任務后,才能獲得一次性評分反饋。

這意味著,對于耗時較長的任務,模型在最終結果出來前無法獲得任何有效學習信號,效率極低。

而情感對應的價值函數(shù),恰恰解決了這一問題。

它能在任務過程中即時反饋[做得好或不好],讓模型無需等待最終結果就能調整方向。

比如下棋時丟了關鍵棋子,人類瞬間就能意識到失誤,無需等到棋局結束。

編程時探索的方向出錯,開發(fā)者很快就能感知到[此路不通],及時回溯。

這種即時反饋機制,能大幅提升學習效率,讓模型避免在無效路徑上浪費資源。

Ilya堅信,[情感價值函數(shù)未來一定會被廣泛使用,簡單的東西往往能在更廣泛的情境下發(fā)揮作用]。

更重要的是,人類的情感價值函數(shù)具有極強的魯棒性。

除了藥物成癮等極少數(shù)例外,這套機制能在不同場景下穩(wěn)定運作,指導人類做出相對合理的決策。

而當前AI的價值判斷體系高度依賴人工設計的獎勵函數(shù),既缺乏靈活性,又容易出現(xiàn)[獎勵黑客]問題,為了迎合指標而偏離真實需求。

Ilya強調,情感價值函數(shù)并非要讓AI擁有人類的喜怒哀樂,而是要借鑒其核心邏輯。

構建一套通用、穩(wěn)健的即時反饋機制,讓模型像人類一樣高效學習和決策,這不是對現(xiàn)有技術的小修小補,而是對AI訓練范式的根本性革新。

超級智能未來的時間線、對齊與均衡

[未來5-20年,可能會出現(xiàn)具備人類級別學習能力、能走向超智能的系統(tǒng)。]

在他看來,超級智能的核心定義不是[能做人類所有工作],而是[能夠學會做所有工作]的成長型心智。

這種智能體一旦被部署到經濟體系中,將引發(fā)前所未有的快速增長。

高效的學習能力結合廣泛的應用場景,會形成強大的經濟驅動力。

但增長速度并非無限快,[世界規(guī)模龐大,實體事物的運轉有其自身節(jié)奏,不同國家的規(guī)則差異也會帶來影響]。

對齊問題是超級智能發(fā)展的核心命題,Ilya提出了一個極具人文關懷的觀點:[構建關心所有感知生命的AI,比只關心人類的AI更容易,也更根本。]

未來的感知體中,AI可能占絕大多數(shù),若只聚焦人類利益,反而可能導致對齊失效。

而基于同理心的對齊,如同人類通過鏡像神經元理解他人是更穩(wěn)健的選擇,因為它符合高效的認知邏輯。

這種對齊不是簡單的[設定規(guī)則],而是要將[關心感知生命]內化為AI的底層價值。

Ilya認為,當前對齊的難點在于AI學習和優(yōu)化人類價值觀的能力脆弱,本質上還是泛化能力不足的問題。

一旦AI的泛化能力達到人類水平,對齊的難度也會大幅降低。

對于長期均衡,Ilya提出了一個大膽的設想:人類與AI的部分融合。

通過類似[增強版Neuralink]的技術,讓人類能直接理解AI的認知,彌合物種間的理解鴻溝。

[當AI處于某種情境時,人類也能完全卷入其中,這可能是終極平衡的答案。]

而在市場層面,Ilya預判,未來的AI行業(yè)不會被單一巨頭壟斷,而是會走向專業(yè)化分工。

[競爭喜歡專業(yè)化,就像生物進化中的生態(tài)位,不同的AI公司會專注于不同的復雜領域,形成多元的行業(yè)生態(tài)。]

那些繼續(xù)沿用Scaling思路的公司,可能會獲得驚人收入,但很難實現(xiàn)高額利潤,同質化競爭會不斷壓縮利潤空間。

研究品味是頂尖科學家的底層邏輯

[丑陋在研究中沒有立足之地,好的研究需要兼具美、簡潔、優(yōu)雅,以及來自大腦的正確靈感。]當被問及[什么是好的研究品味]時,Ilya的回答直指核心。

在他看來,頂尖的AI研究離不開對人類本質的正確觀察。

人工神經元的想法源于大腦的結構,分布式表征的靈感來自大腦的學習機制,這些成功的創(chuàng)新都不是憑空想象,而是對自然智能的深刻借鑒。

但這種借鑒不是盲目模仿,而是提取核心邏輯。

比如大腦的神經元數(shù)量龐大,所以模型需要足夠的參數(shù)規(guī)模;大腦通過調整神經元連接學習,所以模型需要局部學習規(guī)則。

這種[自上而下的信念],是支撐研究者穿越挫折的關鍵。

Ilya回憶,在研究過程中,實驗結果與理論預期相悖是常事,此時不能輕易放棄,而是要基于對[美與簡潔]的判斷,堅持調試方向。

[有時候數(shù)據(jù)告訴你錯了,但可能只是實驗有bug,而不是想法本身有問題。]

這種品味還體現(xiàn)在對研究方向的選擇上。在Scaling時代,所有人都聚焦于擴大規(guī)模,而Ilya卻敏銳地看到了泛化能力和價值函數(shù)的核心地位。

這種洞察力,源于對AI本質的深刻思考,智能的核心不是規(guī)模,而是高效的學習和決策機制。

Ilya的研究哲學,本質上是對[簡單性]的追求。

復雜的技術可能在特定場景下有用,但只有簡單、通用的底層邏輯,才能在更廣泛的情境中發(fā)揮作用。

這與他對情感價值函數(shù)的推崇一脈相承,情感看似簡單,卻能成為人類智能的核心支柱。

結尾:

Ilya的訪談,本質上是對AI行業(yè)的一次[撥亂反正]。

當所有人都沉迷于算力、數(shù)據(jù)的規(guī)模競賽時,需要有人提醒:智能的本質是泛化與高效,技術的突破源于底層創(chuàng)新,而不是資源的堆砌。

未來的AI競爭,不再是算力的比拼,而是想法的較量;不再是規(guī)模的擴張,而是價值的深耕。

超級智能的到來或許還有5-20年,但AI行業(yè)的轉型已經迫在眉睫。

正如Ilya所言,[逐步部署和讓世界感受AI的能力,比純粹的思考更重要]

部分資料參考:經緯創(chuàng)投:《前OpenAI 聯(lián)創(chuàng) Ilya Sutskever:未來,AI公司可能根本賺不到利潤》,混沌學園:《AI大神伊利亞宣告 Scaling時代終結!斷言AGI的概念被誤導》,Web3天空之城:《Ilya Sutskever 重磅3萬字訪談:AI告別規(guī)模化時代,回歸[研究時代]的本質》

       原文標題 : 深度丨前OpenAI聯(lián)創(chuàng)Ilya Sutskever:情感是終極算法,盈利需價值轉向

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號