基于單一模型無須訓練 谷歌神經翻譯又有新進展

大家都知道,歐盟擁有24種官方語言,理想情況下,歐盟的翻譯官們應該能夠隨時從一種語言直譯到另一種語言,但這種翻譯組合實在是太多了,高達576種,所以他們選擇英語當做中間語言來解決這一問題。

同樣地,我們的谷歌工程師們也面臨著同樣的問題,但谷歌面臨的麻煩要更大一點,因為他們需要翻譯的語言種類要比歐盟的官方語言多,達到100多種,(例如:英語翻法語是一種組合,而法語翻英語又是另一種組合),而這些翻譯組合會高達上萬種。

如果為每一種組合訓練一種神經翻譯模型的話,那么就需要訓練上萬個。真的是好多??!但是現(xiàn)在不要了,我們只需要一個模型就可以解決這些問題。近日,來自谷歌的工程師門發(fā)表了一篇論文,上面提到如何只用一個模型實現(xiàn)多語言之間的翻譯。這個模型被稱為NMT模型。 NMT模型的訓練不需要任何語言學知識,且具有模型簡單、翻譯質量高等優(yōu)點。它基于原有的單一語言翻譯模型,但不需要對原有翻譯模型進行任何修改,便可實現(xiàn)多語言之間的翻譯。

論文顯示這種新方法有三個優(yōu)點:

一、簡單,即減少需要訓練的模型數(shù);

二、改善翻譯質量。尤其是那些訓練語料不足的語言;

三、具有‘zero shot’翻譯能力,即如果我們訓練一個模型可以將葡萄牙語翻譯成英語,然后在訓練一下讓其可以實現(xiàn)英語到西班牙語之間的翻譯,此時神奇的一幕出現(xiàn)了,我們雖然并沒有進行葡萄牙語到西班牙語之間的翻譯,但是此時模型仍然可以實現(xiàn)葡萄牙語到西班牙語之間的正確翻譯。

谷歌宣稱這是世界首次研發(fā)出zero-shot翻譯。很明顯,zero-shot 還具有明顯的速度優(yōu)勢,它可以使解碼時間減半。 其另一個優(yōu)勢就是可以實現(xiàn)句間轉換。如果一個句子中包含不止一種語言,它照樣可以翻譯。這樣如果一個大的數(shù)據集中如果包含多種語言,那么它照樣可以實現(xiàn)翻譯。論文的最后,谷歌翻譯人員用BLEU方法對翻譯結果進行評判,發(fā)現(xiàn)結果改善不少。

實際上,神經機器翻譯還有很長的路要走。谷歌貌似已經將NMT 推廣到了其它語言翻譯上,例如英語到德語的翻譯。在我們對谷歌翻譯進行的隨機測試中,我們發(fā)現(xiàn)其翻譯流暢度有所提升,但仍有一些漏翻或誤翻。

論文簡介:《Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation》

我們用一個簡單而優(yōu)雅的多語言神經機器翻譯模型解決了多種語言之間的翻譯問題,這個模型與原有模型對比并沒有任何改變,只是在輸入句子時引入了一個變量,以標明需要翻譯的目標語言是什么。后面的編碼、解碼、注意力模型在所有語言中都一樣,詞表也共享,參數(shù)無需要增加。

與我們起初的設計相比,實現(xiàn)了極大的簡化。在保持參數(shù)值不變的情況下,翻譯質量居然還有所提升。在WMT'14 測試中,我們的模型在英法翻譯中不比任何模型差,在英德翻譯中比任何模型好,在多語言測試中,我們的模型在 14 年法英、15 年德英翻譯中效果最優(yōu)。我們的模型不僅可以對 12 種語言對(例如英法、法英,這是兩個語言對)進行翻譯,而且其翻譯效果也比大多數(shù)單語言對的翻譯模型還要好。除此之外、對于沒有訓練過的語言對,我們的模型仍然可以學習,這就表明神經網絡是可以實現(xiàn)遷移學習與‘zero-shot’翻譯的,在文章最后我們將向大家介紹一些在混合翻譯中發(fā)生的一些趣事。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2016-11-17
基于單一模型無須訓練 谷歌神經翻譯又有新進展
大家都知道,歐盟擁有24種官方語言,理想情況下,歐盟的翻譯官們應該能夠隨時從一種語言直譯到另一種語言,但這種翻譯組合實在是太多了,高達576種,所以他們選擇英語當做中間語言來解決這一問題。

長按掃碼 閱讀全文