2020 年 10 篇必讀的 NLP 突破論文 LIST
7、全新的 NLP 模型測試方法 “CheckList”
開發(fā)諸如 GLUE(General Language Understanding Evaluation)和 SuperGLUE 之類的基準,可以用來評估經(jīng)過微調(diào)的 NLP 模型執(zhí)行自然語言理解任務的能力。通常,將 NLP 模型的性能與驗證準確性的結(jié)果進行比較。需要注意,使用驗證準確性存在固有的局限性,例如過擬合,驗證集的數(shù)據(jù)分布不同等均可能干擾正確的判斷。
而在 ACL 2020 年的 Best Paper 論文 “Beyond Accuracy: Behavioral Testing of NLP Models with CheckList” 中,作者提出了一個框架,一種新的 NLP 模型評測方法:CHECKLIST。CHECKLIST 借鑒了傳統(tǒng)軟件工程的測試準則,通過模板快速生成大量樣例,全面測試模型的各種能力,可以用于幾乎所有 NLP 任務。
CHECKLIST 建議使用三種不同的測試方法:
?最小功能測試(MFT, Minimum Functionality Tests),其中使用預期的金標生成示例;
?不變性測試(INV, INVariance Tests),其中從給定的示例中,創(chuàng)建新示例,其中金標被翻轉(zhuǎn);
?方向預期測試(DIR, Directional Expectation Tests)對原始句子進行修改,金標往期望的方向(正向 / 負向)變化。
作者建議對于 NLP 模型的每一種能力,都盡量采用這三種測試方法測試一遍。
一句話總結(jié)現(xiàn)實影響:CheckList 可用于為各種 NLP 任務創(chuàng)建更詳盡的測試,有助于識別更多的錯誤的,帶來更強大的 NLP 系統(tǒng)。
該論文在 ACL 2020 上獲得了最佳論文獎(Best Paper)。
8、重新評估自動機器翻譯評估指標
自動化指標是開發(fā)和評估機器翻譯系統(tǒng)的基礎。判斷自動化度量標準是否與人類評估的黃金標準相一致,并非易事。
墨爾本大學計算與信息系統(tǒng)學院 的這項研究表明,當前的指標評估方法對用于評估的翻譯系統(tǒng)非常敏感,尤其是存在異常值時,這通常會導致對評價效果產(chǎn)生錯誤的自信判斷。例如,如果使用大量翻譯系統(tǒng)來計算領(lǐng)先指標和人工評估之間的相關(guān)性,則該相關(guān)性通常很高(即 0.9)。但是,如果僅考慮幾個最佳系統(tǒng),則相關(guān)性會顯著降低,在某些情況下甚至可能為負相關(guān)。
因此,他們提出了一種在自動度量標準下以人為判斷為閾值提高性能的方法,可以量化所引起的 I 型錯誤與 II 型錯誤,即可以接受的人類評判質(zhì)量差異,以及不能接受的人類評判差異。與 BLEU 和 TER 相比,優(yōu)先考慮 chrF,YiSi-1 和 ESIM 等評估指標。
一句話總結(jié)現(xiàn)實影響:這些發(fā)現(xiàn)對機器翻譯中的度量評估和系統(tǒng)性能評估的協(xié)議進行了改進。
這項研究在 ACL 2020 上入圍榮譽提名論文獎(Honorable Mention Papers)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
8 每日AI全球觀察
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當“安卓” ,那誰是“蘋果”?
- 4 拐點已至!匯川領(lǐng)跑工控、埃斯頓份額第一、新時達海爾賦能扭虧為盈
- 5 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 6 隱退4年后,張一鳴久違現(xiàn)身!互聯(lián)網(wǎng)大佬正集體殺回
- 7 L3自動駕駛延期,逼出車企技術(shù)自我淘汰
- 8 谷歌“香蕉”爆火啟示:國產(chǎn)垂類AI的危機還是轉(zhuǎn)機?
- 9 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 10 機器人9月大事件|3家國產(chǎn)機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!