欧美中文字幕第一页-欧美中文字幕一区-欧美中文字幕一区二区三区-欧美中文字幕在线-欧美中文字幕在线播放-欧美中文字幕在线视频

谷歌語音識別端到端系統單詞錯誤率降至5.6%,較傳統模型提升16%

我是創始人李巖:很抱歉!給自己產品做個廣告,點擊進來看看。  

谷歌語音識別端到端系統單詞錯誤率降至5.6%,較傳統模型提升16%

via? pixabay

雷鋒網 AI 科技評論按:本文是由來自谷歌語音團隊的科學家 Tara N. Sainath 和來自谷歌大腦團隊的科學家 Yonghui Wu 共同撰寫的,文中簡單介紹了最新論文《 State-of-the-art Speech Recognition With Sequence-to-Sequence Models 》的主要思想與取得的成果以及 Listen-Attend-Spell(LAS) 的端到端體系結構。雷鋒網 AI 科技評論根據原文進行了編譯。

提升語音識別的端到端模型

在谷歌各式各樣的語音搜索應用中,都是基于傳統的自動語音識別(Automatic speech recognition, ASR)系統實現的。傳統的 ASR 系統由 聲學模型(Acoustic model, AM)、發音模型(Pronunciation model, PM)和語言模型(Language model, LM) 組成,所有這些 系統都是分開單獨進行訓練的并且通常還針對各自不同的數據集進行了單獨的手工設計 [1]。聲學模型采用了聲學特征,用于預測一組子字單元(Subword units),它們通常是上下文無關或者上下文相關的音素。然后通過手動設計的詞庫(也即 PM)將由聲學模型預測產生的一系列 音素 映射到對應的單詞。最終,由語言模型將概率賦予單詞序列。但是對這三個模型分開進行單獨訓練會增加訓練的復雜度,并且獨立訓練的效果不如將模型聯合訓練的效果好。在過去的幾年里,開發端到端(End-to-end)的系統越來越受到學者們的歡迎,而這些端到端系統試圖將這些獨立的組件作為一個單一系統進行聯合訓練。雖然在文獻[2, 3]中這些端到端模型已經展示出了頗為驚艷的結果,但是這種端到端的方法是否可以被提升到趕上甚至超越最先進的傳統方法卻還仍然是一個未知數。

今天我們非常高興能夠與大家分享《 State-of-the-art Speech Recognition With Sequence-to-Sequence Models 》[4],它介紹了一種超越傳統生產系統[1]性能的 全新端到端模型 。論文中展示了,我們的端到端系統取得了 5.6% 的 單詞錯誤率 (Word error rate, WER),相比于強大的傳統系統(6.7% WER)取得了 16% 的提升。此外,這個用于輸出初始單詞假設的端到端模型,由于 沒有獨立的發音模型和語言模型 ,因此 比傳統模型小了 18 倍

我們的系統建立在 Listen-Attend-Spell(LAS) 的端到端體系結構的基礎上,該體系結構最先由[2]提出。 LAS 架構由三個組件構成 。首先是 聽者編碼器組件(Listener encoder component) ,聽者編碼器與標準的聲學模型相類似,它采用輸入語音信號 x 的時頻表示,并使用一組神經網絡將輸入映射到更高級的特征表示 h enc 。然后聽者編碼器的輸出被輸入到第二個組件—— 參與者(Attender) ,參與者組件使用 h enc 來學習輸入特征 x 與預測的子字單元 {y n , ... y 0 } 之間的對應關系,其中每個子字通常是一個 字素 或者 字片(Wordpiece) 。最終,注意力模塊(Attention module)的輸出將被輸入第三個組件—— 拼字者(Speller,例如,解碼器) ,拼字者組件類似于語言模型,它將輸出一組假設詞語的概率分布。

谷歌語音識別端到端系統單詞錯誤率降至5.6%,較傳統模型提升16%

LAS 端到端模型組件圖

LAS 模型的所有組件都是被當做一個 單一端到端神經網絡模型進行聯合訓練 ,這一點與傳統系統的分開訓練不同,同時也讓訓練過程變得更加簡單。此外,由于 LAS 模型完完全全采用神經網絡模型,所以 它不需要手動設計額外的組件(例如,有限狀態轉換器、詞庫和文本標準化模塊) 。最后,與傳統模型不同的是,訓練端到端模型不需要來自單獨訓練系統生成的決策樹或者時間對準的引導程序,并且可以訓練給定的文本副本(Text transcripts)對和相應的聲學對。

在論文[4]中,我們介紹了各種新穎的改進結構,包括 改進了傳遞給解碼器的注意力向量(Attention vectors)采用更長的子字單元(例如,字片)進行訓練 。此外,我們還介紹了大量的訓練優化改進,包括使用 最小誤碼率訓練[5]策略 。這些結構和優化上的改進正是為何我們的模型相比起傳統模型能夠取得 16% WER 提升的原因。

這項研究的另一項令人興奮的 潛在應用多方言(Multi-dialect)和多語言(Multi-lingual)系統 ,其中優化單個神經網絡的簡便性使得這樣的模型非常具有吸引力。在這里所有方言或者語言都可以結合起來訓練一個神經網絡,而不需要為每種方言或者語言去單獨設置聲學模型、發音模型和語言模型。我們發現這些模型在 7 個英語方言[6]和 9 個印度語[7]上取得了很好的效果,并且同時還超越了在每個方言或者語言上進行單獨訓練的模型。

雖然我們為最終的結果感到非常高興,但是我們的工作卻還遠遠沒有完成。當前, 這些模型還不能實時處理語音[8, 9, 10],而做到實時處理這一點對于語音搜索等對延遲敏感的應用而言卻是剛需 。另外在采用真實生產數據進行評估時,這些模型的表現依然不夠有效。此外 我們的端到端模型是在 22000 個音頻文本對話中進行學習的 ,而傳統系統通常是在大型語料庫上進行訓練的。另外,我們提出的模型不能為罕見的詞匯學習正確的拼寫,例如那些由手工設計的發音模型來實現的專有名詞。我們當前正在努力攻克這些挑戰。

引用

[1] G. Pundak and T. N. Sainath, “ Lower Frame Rate Neural Network Acoustic Models ," in Proc. Interspeech, 2016.

[2] W. Chan, N. Jaitly, Q. V. Le, and O. Vinyals, “ Listen, attend and spell ,” CoRR, vol. abs/1508.01211, 2015

[3] R. Prabhavalkar, K. Rao, T. N. Sainath, B. Li, L. Johnson, and N. Jaitly, “ A Comparison of Sequence-to-sequence Models for Speech Recognition ,” in Proc. Interspeech, 2017.

[4] C.C. Chiu, T.N. Sainath, Y. Wu, R. Prabhavalkar, P. Nguyen, Z. Chen, A. Kannan, R.J. Weiss, K. Rao, K. Gonina, N. Jaitly, B. Li, J. Chorowski and M. Bacchiani, “ State-of-the-art Speech Recognition With Sequence-to-Sequence Models ,” submitted to ICASSP 2018.

[5] R. Prabhavalkar, T.N. Sainath, Y. Wu, P. Nguyen, Z. Chen, C.C. Chiu and A. Kannan, “ Minimum Word Error Rate Training for Attention-based Sequence-to-Sequence Models ,” submitted to ICASSP 2018.

[6] B. Li, T.N. Sainath, K. Sim, M. Bacchiani, E. Weinstein, P. Nguyen, Z. Chen, Y. Wu and K. Rao, “ Multi-Dialect Speech Recognition With a Single Sequence-to-Sequence Model ” submitted to ICASSP 2018.

[7] S. Toshniwal, T.N. Sainath, R.J. Weiss, B. Li, P. Moreno, E. Weinstein and K. Rao, “ End-to-End Multilingual Speech Recognition using Encoder-Decoder Models ”, submitted to ICASSP 2018.

[8] T.N. Sainath, C.C. Chiu, R. Prabhavalkar, A. Kannan, Y. Wu, P. Nguyen and Z. Chen, “ Improving the Performance of Online Neural Transducer Models ”, submitted to ICASSP 2018.

[9] C.C. Chiu* and C. Raffel*, “ Monotonic Chunkwise Attention ,” submitted to ICLR 2018.

[10] D. Lawson*, C.C. Chiu*, G. Tucker*, C. Raffel, K. Swersky, N. Jaitly. “ Learning Hard Alignments with Variational Inference ”, submitted to ICASSP 2018.

[11] T.N. Sainath, R. Prabhavalkar, S. Kumar, S. Lee, A. Kannan, D. Rybach, V. Schogol, P. Nguyen, B. Li, Y. Wu, Z. Chen and C.C. Chiu, “ No Need for a Lexicon? Evaluating the Value of the Pronunciation Lexica in End-to-End Models ,” submitted to ICASSP 2018.

[12] A. Kannan, Y. Wu, P. Nguyen, T.N. Sainath, Z. Chen and R. Prabhavalkar. “ An Analysis of Incorporating an External Language Model into a Sequence-to-Sequence Model, ” submitted to ICASSP 2018.

Via : ? Improving End-to-End Models For Speech Recognition ?, 雷鋒網編譯

雷鋒網版權文章,未經授權禁止轉載。詳情見。

谷歌語音識別端到端系統單詞錯誤率降至5.6%,較傳統模型提升16%

隨意打賞

語音識別錯誤率端到端解決方案谷歌語音識別語音識別系統谷歌語音助手端到端加密谷歌新系統
提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 欧美黑人巨大xxxxxxxx | 福利在线不卡 | 性生生活网站免费 | 亚洲第一永久在线观看 | bt 另类 专区 欧美 制服 | 午夜欧美福利视频 | 久青草网站 | 免费一级a毛片免费观看欧美大片 | 夜福利视频 | 婷婷丁香亚洲 | 青草青草久热精品视频在线观看 | 中文字幕精品一区二区三区视频 | 久久久久久久九九九九 | 国产精品一一在线观看 | 国产成人综合亚洲一区 | 黄色在线免费观看网站 | 一区二区视频在线观看免费的 | 久久青草免费91线频观看站街 | 黄色a级毛片 | 在线播放福利 | 国产精品香蕉在线观看不卡 | 久久中文字幕综合婷婷 | 看真人一级毛片 | 变态捡到女婴h养成调教 | 色五月在线视频 | 操操操爽爽爽 | 国产综合另类小说色区色噜噜 | 日本一级大黄毛片免费基地 | 天天干天天射天天插 | 国产一区二区福利久久 | 国内免费在线视频 | 亚洲99久久久久综合 | 国产在线精品一区二区高清不卡 | 亚欧在线视频 | 日本免费一区二区久久人人澡 | 国产成人久久精品推最新 | 免费v片在线观看无遮挡 | 99re只有精品 | a毛片 | 手机看片高清日韩精品 | 国产高清视频在线播放 |