欧美中文字幕第一页-欧美中文字幕一区-欧美中文字幕一区二区三区-欧美中文字幕在线-欧美中文字幕在线播放-欧美中文字幕在线视频

語音識別如何突破延遲瓶頸?谷歌推出了基于 RNN-T 的全神經元設備端語音識別器

我是創始人李巖:很抱歉!給自己產品做個廣告,點擊進來看看。  

雷鋒網 AI 科技評論按:在近二十年來,尤其是引入深度學習以后,語音識別取得了一系列重大突破,并一步步走向市場并搭載到消費級產品中。然而在用戶體驗上,「遲鈍」可以算得上這些產品最大的槽點之一,這也意味著語音識別的延遲問題已經成為了該領域研究亟待解決的難點。日前,谷歌推出了基于循環神經網絡變換器(RNN-T)的全神經元設備端語音識別器,能夠很好地解決目前語音識別所存在的延遲難題。谷歌也將這項成果發布在了官方博客上,雷鋒網 AI 科技評論進行編譯如下。

2012 年,語音識別研究表明,通過 引入深度學習可以顯著提高語音識別準確率 ,因此谷歌也較早地在 語音搜索 等產品中采用深度學習技術。而這也標志著語音識別領域革命的開始:每一年,谷歌都開發出了從 深度神經網絡 (DNN)到 循環神經網絡 (RNN)、 長短期記憶網絡 (LSTM)、 卷積網絡 (CNNs)等一系列新的架構,進一步地提高了語音識別的質量。然而在此期間,延遲問題依舊是該領域需要攻克的主要難點——當語音助手能夠實現快速回答問題時,用戶會感覺它有幫助得多。

日前,谷歌正式宣布推出端到端、全神經元的設備端語音識別器,為 Gboard 中的語音輸入提供支持。在谷歌 AI 最近的一篇論文《移動設備的流媒體端到端語音識別》(Streaming End-to-End Speech Recognition for Mobile Devices,論文閱讀地址: https://arxiv.org/abs/1811.06621 )中,其研究團隊提出了一種使用 循環神經網絡變換器 (RNN-T)技術訓練的模型,該技術也足夠精簡可應用到手機端上。這就意味著語音識別不再存在網絡延遲或故障問題——新的識別器即便處于離線狀態也能夠運行。該模型處理的是字符水平的語音識別,因此當人在說話時,它會逐個字符地輸出單詞,這就跟有人在實時鍵入你說的話一樣,同時還能達到你對鍵盤聽寫系統的預期效果。

語音識別如何突破延遲瓶頸?谷歌推出了基于 RNN-T 的全神經元設備端語音識別器

該圖對比了識別同一句語音時,服務器端語音識別器(左邊)以及新的設備端語音識別器(右邊)的生成情況。圖源:Akshay Kannan,Elnaz Sarbar

關于語音識別的一點歷史

傳統而言,語音識別系統由幾個部分組成:一個將語音分割(一般為 10 毫秒的框架)映射到音素的聲學模型;一個將因素合成單詞的發音模型;以及一個表達給定短語可能性的語言模型。在早期的系統中,對這些組成部分的優化都是單獨進行的。

在 2014 年左右,研究人員就開始重點訓練單個神經網絡,來直接將一個輸入語音波形映射到一個輸出句子。研究人員采用這種通過給定一系列語音特征生成一系列單詞或字母的序列到序列(sequence-to-sequence)方法開發出了「 attention-based 」和「 listen-attend-spell 」模型。雖然這些模型在準確率上表現很好,但是它們一般通過回顧完整的輸入序列來識別語音,同時當輸入進來的時候也無法讓數據流輸出一項對于實時語音轉錄必不可少的特征。

與此同時,當時的一項叫做 CTC (connectionist temporal classification)的技術幫助將生產式識別器的 延遲時間減半 。事實證明,這項進展對于開發出 CTC 最新版本(改版本可以看成是 CTC 的泛化)中采用的 RNN-T 架構來說,是至關重要的一步。

循環神經網絡變換器(RNN-T)

RNN-T 是不采用注意力機制的序列到序列模型的一種形式。與大多數序列到序列模型需要處理整個輸入序列(本文案例中的語音波形)以生成輸出(句子)不同,RNN-T 能持續地處理輸入的樣本和數據流,并進行符號化的輸出,這種符號化的輸出有助于進行語音聽寫。在谷歌研究人員的實現中,符號化的輸出就是字母表中的字符。當人在說話時,RNN-T 識別器會逐個輸出字符,并進行適當留白。在這一過程中,RNN-T 識別器還會有一條反饋路徑,將模型預測的符號輸回給自己以預測接下來的符號,具體流程如下圖所示:

語音識別如何突破延遲瓶頸?谷歌推出了基于 RNN-T 的全神經元設備端語音識別器

RNN-T 的表示:用 x 表示輸入語音樣本;用 y 表示預測的符號。預測的符號(?Softmax 層的輸出)y(u-1?)通過預測網絡被輸回給模型,確保預測同時考慮到當前的語音樣本以及過去的輸出。預測和解碼網絡都是?LSTM RNN,聯合的模型則是前饋網絡(feedforward network ,相關論文查看地址: https://www.isca-speech.org/archive/Interspeech_2017/pdfs/0233.PDF )。預測網絡由 2 個擁有 2048 個單元的層和 1 個有著 640 個維度的投射層組成。解碼網絡則由 8 個這樣的層組成。圖源:Chris Thornton

有效地訓練這樣的模型本來就已經很難了,然而使用谷歌開發的這項能夠進一步將單詞錯誤率減少 5% 的新訓練技術,對計算能力也提出了更高的要求。對此,谷歌開發了一種平行實現的方法,讓 RNN-T 的損失函數能夠大批地在谷歌的高性能云平臺 TPUv2 芯片上高效運行。

離線識別

在傳統的語音識別引擎中,上文中提到的聲學、發音和語言模型被「組合」成一個邊緣用語音單元及其概率標記的大 搜索圖 (search graph)。在給定輸入信號的情況下,當語音波形抵達識別器時,「解碼器」就會在圖中搜索出概率最大的路徑,并讀出該路徑所采用的單詞序列。一般而言,解碼器假設基礎模型由 FST(Finite State Transducer)表示。然而,盡管現在已經有精密的解碼技術,但是依舊存在搜索圖太大的問題——谷歌的生成式模型的搜索圖大小近 2GB。由于搜索圖無法輕易地在移動電話上托管,因此采用這種方法的模型只有在在線連接的情況中才能正常工作。

為了提高語音識別的有效性,谷歌研究人員還試圖通過直接將在設備上托管新模型來避免通信網絡的延遲及其固有的不可靠性。因此,谷歌提出的這一端到端的方法,不需要在大型解碼器圖上進行搜索。相反,它采取對 單個神經網絡進行一系列搜索 的方式進行解碼。同時,谷歌研究人員訓練的 RNN-T 實現了基于服務器的傳統模型同樣的準確度,但是該模型大小僅為 450MB,本質上更加密集、更加智能地利用了參數和打包信息。不過,即便對于如今的智能手機來說,450 MB 依舊太大了,這樣的話當它通過如此龐大的網絡進行網絡信號傳輸時,速度就會變得很慢。

對此,谷歌研究人員通過利用其于 2016 年開發的 參數量化(?parameter quantization )和混合內核(hybrid kernel?)技術 ,來進一步縮小模型的大小,并通過采用 ensorFlow Lite 開發庫中的 模型優化工具包 來對外開放。與經過訓練的浮點模型相比,模型量化的壓縮高出 4 倍,運行速度也提高了 4 倍,從而讓 RNN-T 比單核上的實時語音運行得更快。經過壓縮后,模型最終縮小至 80MB。

谷歌全新的全神經元設備端 Gboard 語音識別器,剛開始僅能在使用美式英語的 Pixel 手機上使用。考慮到行業趨勢,同時隨著專業化硬件和算法的融合不斷增強,谷歌表示,希望能夠將這一技術應用到更多語言和更廣泛的應用領域中去。 雷鋒網 (公眾號:雷鋒網)

via: https://ai.googleblog.com/2019/03/an-all-neural-on-device-speech.html

隨意打賞

vs官方下載谷歌語音識別打包軟件
提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 四虎永久免费地址在线网站 | 天天做夜夜做久久做狠狠 | 国外免费一级 | 精品国产一区二区三区2021 | 国产亚洲女在线精品 | 996热精品视频在线观看 | 亚洲久久 | 色吧五月婷婷 | 色婷婷狠狠久久综合五月 | 国产精品九九免费视频 | 日韩欧美亚 | 久久精品加勒比中文字幕 | 婷婷四房| 国产成人啪午夜精品网站男同 | 91在线视频网址 | 日本三级带日本三级带黄首页 | 日韩午夜小视频 | 国产精自产拍久久久久久蜜 | 欧美一级视频免费观看 | 欧美亚洲h在线一区二区 | 亚洲欧美日韩综合精品网 | 亚洲国产高清视频 | 我爱52av好色| 成人欧美一区二区三区在线观看 | 97久久综合精品久久久综合 | 伊人第一页 | 青青青青啪视频在线观看 | 香蕉在线视频观看 | 伊人精品视频在线观看 | 性影院 | 色视在线 | 日韩综合色 | 日本a视频在线观看 | 亚洲男人天堂久久 | 亚洲成人精品在线 | 日本一级~片免费永久 | 91成人影院未满十八勿入 | 国产精品美女一区二区 | 日韩国产欧美精品综合二区 | 奇米影视777中文久久爱 | 亚洲精品免费视频 |