ALphaGo進化,新一代ALphaGo Zero誕生
據(jù)外媒報道,英國DeepMind團隊的人工智能研究取得了新進展:他們開發(fā)出了新一代的圍棋AI-ALphaGo Zero。使用了強化學(xué)習(xí)技術(shù)的ALphaGo Zero,棋力大幅度增長,可輕松擊敗曾經(jīng)戰(zhàn)勝柯潔、李世石的ALphaGo。
戰(zhàn)勝柯潔之后,ALphaGo可以說在圍棋界里已是“獨孤求敗”的境界了,幾乎沒有人類是它的對手。但是這并不代表ALphaGo就已經(jīng)對圍棋領(lǐng)域的認知達到了頂峰。因此,ALphaGo想要再上一層樓追求圍棋知識的上限,顯然只有它自己能成為自己的老師。
而在過去,AlphaGo都是使用業(yè)余和專業(yè)人類棋手的對局數(shù)據(jù)來進行訓(xùn)練。雖然使用人類棋手的數(shù)據(jù)可以讓ALphaGo學(xué)習(xí)到人類的圍棋技巧,但是人類專家的數(shù)據(jù)通常難以獲得且很昂貴,加上人類并不是機器,難免會出現(xiàn)失誤情況,失誤產(chǎn)生的數(shù)據(jù)則可能降低ALphaGo的棋力。因此,ALphaGo Zero采用了強化學(xué)習(xí)技術(shù),從隨即對局開始,不依靠任何人類專家的對局數(shù)據(jù)或者人工監(jiān)管,而是讓其通過自我對弈來提升棋藝。
那么到底什么是強化學(xué)習(xí)技術(shù)呢?簡單地說,強化學(xué)習(xí)就是讓AI從中學(xué)習(xí)到能夠獲得最大回報的策略。AlphaGo Zero的強化學(xué)習(xí)主要包含兩個部分,蒙特卡洛樹搜索算法與神經(jīng)網(wǎng)絡(luò)算法。在這兩種算法中,神經(jīng)網(wǎng)絡(luò)算法可根據(jù)當(dāng)前棋面形勢給出落子方案,以及預(yù)測當(dāng)前形勢下哪一方的贏面較大;蒙特卡洛樹搜索算法則可以看成是一個對于當(dāng)前落子步法的評價和改進工具,它能夠模擬出AlphaGo Zero將棋子落在哪些地方可以獲得更高的勝率。假如AlphaGoZero的神經(jīng)網(wǎng)絡(luò)算法計算出的落子方案與蒙特卡洛樹搜索算法輸出的結(jié)果越接近,則勝率越大,即回報越高。因此,每落一顆子,AlphaGo Zero都要優(yōu)化神經(jīng)網(wǎng)絡(luò)算法中的參數(shù),使其計算出的落子方案更接近蒙特卡洛樹搜索算法的結(jié)果,同時盡量減少勝者預(yù)測的偏差。
AlphaGo Zero的自我強化學(xué)習(xí),圖片源自Nature
剛開始,AlphaGoZero的神經(jīng)網(wǎng)絡(luò)完全不懂圍棋,只能盲目落子。但經(jīng)歷無數(shù)盤“左右互搏”般的對局后,AlphaGo Zero終于從從圍棋菜鳥成長為了棋神般的存在。
DeepMind團隊表示,他們發(fā)現(xiàn)AlphaGo Zero自我對弈僅幾十天,就掌握了人類幾百年來來研究出來的圍棋技術(shù)。由于整個對弈過程沒有采用人類的數(shù)據(jù),因此ALphaGo Zero的棋路獨特,不再拘泥于人類現(xiàn)有的圍棋理論,
DeepMind團隊還表示,這個項目不僅僅是為了獲得對圍棋更深的認識,AlphaGoZero向人們展示了即使不用人類的數(shù)據(jù),人工智能也能夠取得進步。最終這些技術(shù)進展應(yīng)該被用于解決現(xiàn)實問題,如蛋白質(zhì)折疊或者新材料設(shè)計。這將會增進人類的認知,從而改善每個人的生活。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機器人撞人事件的深度剖析:六維力傳感器如何成為人機安全的關(guān)鍵屏障
- 4 解碼特斯拉新AI芯片戰(zhàn)略 :從Dojo到AI5和AI6推理引擎
- 5 特朗普要求英特爾首位華人 CEO 辭職
- 6 AI版“四萬億刺激”計劃來了
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 a16z最新AI百強榜:硅谷頂級VC帶你讀懂全球生成式AI賽道最新趨勢
- 9 人形機器人,正狂奔在批量交付的曠野
- 10 騰訊米哈游押寶的中國AI應(yīng)用,正在海外悶聲發(fā)財