突破瓶頸高效測評:谷歌提出自然語言生成任務(wù)評測新方法BLEURT
利用機器學(xué)習(xí)創(chuàng)造一個度量標(biāo)準需要解決根本的挑戰(zhàn):這一指標(biāo)需要在不同域和時間上具備連續(xù)性。然而訓(xùn)練數(shù)據(jù)的數(shù)量總是有限的,同時公開數(shù)據(jù)集也是稀疏的。即使目前最大的人類評測數(shù)據(jù)集WMT度量任務(wù)數(shù)據(jù)集,包含了260k的人類測評,僅僅只覆蓋了新聞領(lǐng)域。這對于訓(xùn)練一個適用范圍廣泛的NLG測評指標(biāo)遠遠不夠。
為了解決這一問題,遷移學(xué)習(xí)被引入了這項研究。首先充分利用了BERT中上下文詞語表示,BERT是目前用于語言理解最先進的非監(jiān)督表示學(xué)習(xí)方法,并成功應(yīng)用于想YiSi和BERTScore等NLG指標(biāo)上。
其次研究人人員引入了一種新穎的預(yù)訓(xùn)練機制來提升BLEURT的魯棒性。實驗表明直接在人類測評數(shù)據(jù)集上訓(xùn)練回歸模型十分不穩(wěn)定,因為無法控制測評指標(biāo)在哪個域或者哪個時間跨度上使用。其精度很容易在出現(xiàn)域漂移的情況時下降,例如測試時文本信息來自于與訓(xùn)練句子對不同的域時。同時在質(zhì)量漂移時其性能也會下架,例如要預(yù)測評級比訓(xùn)練評級高時就可能引起性能下降,不過這也是機器學(xué)習(xí)研究正在取得進展的標(biāo)志特征。
BLEURT的成功取決于模型利用數(shù)百萬合成句子對兒來進行預(yù)熱,隨后再利用人類評級進行微調(diào)。通過給來自維基百科的句子加入隨機擾動來生成訓(xùn)練數(shù)據(jù),研究人員沒有采用人類評級而是利用了文獻中的模型和指標(biāo),使得訓(xùn)練樣本的數(shù)量可以低成本地進行擴充。
BLEURT數(shù)據(jù)生成過程,結(jié)合了隨機擾動和現(xiàn)有的指標(biāo)和模型。
BLEURT的預(yù)訓(xùn)練分別在語言模型目標(biāo)和NLG評測目標(biāo)上訓(xùn)練了兩次。隨后在WMT指標(biāo)數(shù)據(jù)集上進行了調(diào)優(yōu),下圖展示了BLEURT端到端的訓(xùn)練流程。實驗表明預(yù)訓(xùn)練模型極大地提升了BLEURT的精度,特別在測試分布外數(shù)據(jù)時尤其如此。
結(jié) 論
與多個指標(biāo)在機器翻譯和數(shù)據(jù)文本生成任務(wù)上的比較結(jié)果表明,BLEURT顯示出了優(yōu)異的性能。例如BLEURT在2019年的WMT Metrics Shared任務(wù)上的精度超過了BLEU48%。
在WMT’19 Metrics Shared 任務(wù)上,不同指標(biāo)和人類評級結(jié)果的相關(guān)性。
研究人員希望這一指標(biāo)可以為NLG任務(wù)提供更好的評測方式,提供靈活的語義的評測視角。BLEURT可以為人們提供除了重合度外更好的測評指標(biāo),打破現(xiàn)有測評方法對于算法研發(fā)的束縛。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
10 大模型的盡頭是開源
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當(dāng)“安卓” ,那誰是“蘋果”?
- 4 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 5 機器人9月大事件|3家國產(chǎn)機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!
- 6 谷歌“香蕉”爆火啟示:國產(chǎn)垂類AI的危機還是轉(zhuǎn)機?
- 7 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 8 美光:AI Capex瘋投不止,終于要拉起存儲超級周期了?
- 9 華為已殺入!AI領(lǐng)域最熱黃金賽道,大廠的數(shù)字人美女讓我一夜沒睡著覺
- 10 隱退4年后,張一鳴久違現(xiàn)身!互聯(lián)網(wǎng)大佬正集體殺回