中國AI同傳遭質疑之時,谷歌實時翻譯也被吐槽了
(原標題:Why is Google's live language translation so bad? We asked some experts)
圖:實時翻譯最初僅限于支持Pixel Buds,但現在可用于任何支持Google Assistant的耳機
網易科技訊 10月25日消息,據連線雜志報道,知名語音識別公司科大訊飛卷入的“AI同傳造假”風波依然還在發酵,引發了人們關于AI實時翻譯技術的更多關注。
不久前,谷歌悄悄改變了Pixel Buds耳機的支持頁面,并寫道:“所有經過Google Assistant優化的耳機和安卓手機,現在都可以使用谷歌翻譯?!贝饲?,這一功能僅限于Pixel Buds耳機和Pixel手機用戶。盡管谷歌并未大張旗鼓地宣布這個消息,但這個小小的調整卻值得注意。
要知道其中原因,首先我們來了解下谷歌耳機的歷史。谷歌去年推出了無線耳機Pixel Buds,此前該公司曾大肆宣傳過這款產品,稱其是一款革命性的工具,支持實時翻譯功能。只要輕敲Pixel Buds,說“幫我說”,它就會打開你手機上的谷歌翻譯應用?,F在,Pixel手機也同樣支持這個功能。
接著,你可以說出句子,谷歌翻譯會在手機上將其翻譯成目標語言,并進行轉錄,然后讀出來。理論上,谷歌的新技術甚至會讓口譯翻譯們擔心丟掉工作。這款產品在舞臺上的實時翻譯演示獲得了巨大成功,但當其開始發貨時,人們對其似乎產生了懷疑:翻譯的質量沒有達到公眾的預期。
科技網站Tech Insider用十種不同的語言對實時翻譯功能進行了測試。它成功地翻譯了些基本問題,比如“最近的醫院在哪里”,但當句子變得更復雜,或者說話人有口音時,翻譯就會出現錯誤。評論員們得出的結論是,實時翻譯似乎有點兒“欺騙嫌疑”,Google Assistant需要努力理解對它說出的話。
消費技術資深分析師丹尼爾?格里森(Daniel Gleeson)說:“掌握自然語言是非常困難的。對于谷歌來說,這將是個巨大的成就,而他們實現這個目標的那一天,可以自豪地大聲說出來?!被蛟S有些人可能會說,這可能也是Pixel Buds支持頁面更新的信息被隱藏起來的原因。
谷歌的問題不在于翻譯過程本身,事實上,該公司在過去幾年始終在提升其翻譯應用水平。2016年,谷歌將其谷歌翻譯轉換為基于深度學習的人工智能(AI)驅動系統。在此之前,該工具將每個單獨的單詞分別翻譯,并應用語言學規則使句子在語法上保持正確,從而導致了我們非常熟悉的、支離破碎的翻譯效果。另一方面,神經網絡則將句子作為一個整體來考慮,并根據之前訓練過的大量文本數據來猜測正確的輸出結果。通過機器學習,這些系統能夠考慮句子的上下文,從而提供更準確的翻譯。
整合機器學習是Google Brain團隊的任務,該團隊是谷歌專門致力于深度學習研發的部門。Google Brain還將神經網絡應用到另一個工具上,這是實時翻譯的關鍵,但這似乎也導致其容易在語音識別上犯錯。實際上,Google Assistant經過了數小時的語音培訓,它會使用機器學習工具來識別模式,并最終正確地識別出被要求翻譯的內容。
那么,如果谷歌在某種程度上成功地將神經網絡應用到文本-文本的翻譯中,為什么Google Assistant仍然不能使用相同的技術精準地進行語音識別呢?劍橋大學自然語言處理研究人員馬西基?霍瓦特(Matic Horvat)說,這一切都歸結于用來訓練神經網絡的數據集。
霍瓦特說:“系統能夠適應它們所得到的訓練數據集。當你把它介紹給它從未聽過的東西時,語音識別的質量就會下降。例如,如果你的訓練數據集是會話語音,那么在繁忙的環境中識別語音效果就不會太好?!?/p>
干擾是任何致力于提高語音識別技術的計算機科學家的克星。去年,谷歌通過其數字新聞創新基金會向倫敦初創企業Trint投資1.5億歐元,該公司在自動語音轉錄方面處于領先地位,盡管其算法與谷歌不同。然而,Trint的算法在處理基本的干擾問題上并沒有表現得更好。
事實上,Trint的公司網站專門用了長長的篇幅來介紹如何在安靜環境中記錄演講內容。該公司聲稱,其操作存在5%至10%的誤差,但它明確表示,這適用于安靜環境的錄音。Trint首席執行官杰夫?科夫曼(Jeff Kofman)說:“最大的挑戰是向我們的用戶解釋,我們的表現只能和他們給我們的音頻一樣好。在有回聲、噪音甚至重音的情況下,算法就會出錯?!?/p>
現場演講所帶來的挑戰意味著,在創建神經網絡的過程中,訓練過程是成本最高、耗時最長的部分。而像谷歌對Pixel Buds所做的那樣,只在有限數量的設備上支持實時翻譯,當然無助于系統學習。實際上,它處理的語音越多,它可以向算法中添加的數據就越多,機器就越能學會識別不熟悉的語音模式。
對于消費技術資深分析師格里森來說,這是谷歌將該功能擴展到更多硬件的原因之一。他表示:“語音識別中最棘手的問題之一,就是收集足夠的特定口音、俗語、習語數據,所有這些都是高度區域化的。將這個功能僅用于Pixel上,永遠不會讓谷歌接觸到那些區域化數據,進而也無法處理足夠多的數據。”
然而,積累數據也有不利的一面。表現最好的神經網絡是那些擁有最多數據的網絡,但由于數據需要在CPU上處理,CPU的壓力也會隨著信息量的增多而增加。這類CPU還遠未達到與移動設備完美集成的程度,使得實時語音處理在今天依然無法成為現實。實際上,每次使用Google Assistant時,語音信息都會被發送到數據中心進行外部處理,然后再發送回用戶的手機上。這些計算工作都不是在本地完成的,因為現有的手機無法存儲神經網絡處理語音所需的龐大數據。
霍瓦特說,雖然Google Assistant能夠相當快地完成這一過程,但距離實時語音識別還有很長的路要走。該公司目前面臨的挑戰之一是,如何在手機中整合神經網絡處理,以提高實時翻譯等功能的無縫性。事實上,開發人員已經在致力于開發適合于高效處理神經網絡的小型外部芯片,這種芯片可以集成到手機中。例如,本月早些時候,華為宣布了一種AI芯片,該公司聲稱其可以在幾分鐘內訓練好神經網絡算法。
雖然谷歌有自己的芯片Edge TPU,但它是為企業用戶而不是智能手機設計的。對霍瓦特來說,這是它的致命弱點:作為一家軟件公司,谷歌對制造商沒有多少控制權,無法確保開發出一種產品,使所有安卓設備都能使用本地神經網絡處理,與蘋果截然不同。
在不久的將來,谷歌可能被迫采取更小的步驟來改進其語音識別技術。雖然實時翻譯引來了許多批評,但對于行業分析師、Counterpoint物聯網、移動和生態系統研究主管尼爾?沙赫(Neil Shah)來說,擴展它有益于谷歌參與競爭:“谷歌已經獲得20億安卓用戶。隨著越來越多的用戶開始在安卓手機上使用最新的語音交互,它能夠比競爭對手更快地擴大規模,并接受大量輸入數據流的訓練?!?/p>
格里森所也贊同這種看法。無論對實時翻譯的評論是否堅持溫和嘲諷的基調,谷歌的舉動最終都會帶來顯著的改進。就像所有的AI產品一樣,這個工具同樣需要學習,它進入市場的過程還沒有完成。格里森表示:“人們可能會說,谷歌的實時翻譯運作方式與承諾的不一樣,但這是其實現目標的唯一途徑。”口譯翻譯現在不必擔心他們會立馬丟掉工作。(小?。?/p>