欧美中文字幕第一页-欧美中文字幕一区-欧美中文字幕一区二区三区-欧美中文字幕在线-欧美中文字幕在线播放-欧美中文字幕在线视频

微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

我是創(chuàng)始人李巖:很抱歉!給自己產(chǎn)品做個廣告,點擊進來看看。  

1 新智元原創(chuàng)

演講:鄧力,微軟人工智能首席科學(xué)家

整理:聞菲

   【新智元導(dǎo)讀】 微軟人工智能首席科學(xué)家鄧力18日在首屆 世界人工智能大會 AI WORLD 2016 發(fā)表主旨演講《深度學(xué)習(xí)十年簡史和人工智能未來展望》。鄧力博士回顧了他與 Hinton 的合作及其產(chǎn)業(yè)影響,重點講述語音識別如何隨深度學(xué)習(xí)發(fā)展進入商用階段,還介紹了微軟近兩年的人工智能進展,并對深度學(xué)習(xí)技術(shù)、應(yīng)用和產(chǎn)業(yè)進行展望。 演講最后,鄧力分享了他最新的思想和工作――將符號式邏輯推理和數(shù)值張量式神經(jīng)網(wǎng)絡(luò)結(jié)合到一起,有望解決深度學(xué)習(xí)黑箱問題、常識嵌入與充實問題,以及邏輯推理規(guī)則的自動學(xué)習(xí)問題。 【回復(fù)“1024”下載PPT全文(PDF格式);點擊閱讀原文觀看大會主論壇視頻回顧】

AI WORLD 2016 世界人工智能大會開場視頻(完整版)

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   鄧力: 感謝大家! 貴賓們好,朋友們好。 我今天首先要感謝組委會給我這個機會,在這里向大家介紹微軟的一些深度學(xué)習(xí)和人工智能的研究,也感謝組委會專門給我這個題目,叫我講一下十年深度學(xué)習(xí)的歷史。正像你們剛才聽到 Yoshua Bengio 教授講的一樣,微軟在深度學(xué)習(xí)的開始階段就做了很大的投入。今天我會向大家介紹這之后我們很多的進展,最后分享對未來的展望。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

深度學(xué)習(xí)十年簡史:深度信念網(wǎng)絡(luò)(DBN)開啟 DL 時代

   組委會告訴我,今天的觀眾有相當(dāng)多是 從業(yè)界來的 投資人士以及技術(shù)人士。所以我向大家推薦 兩禮拜前《財富》雜志的一篇文章 ,講了深度學(xué)習(xí)一部分的歷史。趁此機會也向大家介紹這篇雜志文章里面給的深度學(xué)習(xí)的定義。從技術(shù)的角度、從科學(xué)的角度,我想再補充一些材料,使得大家對深度學(xué)習(xí)跟人工智能有一些更深入的了解。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   這些是《財富》雜志所講的定義,這個定義基本是準(zhǔn)確的。比如說人工智能,它含有一大串的技術(shù),包括邏輯推理技術(shù),包括機器學(xué)習(xí)技術(shù),在機器學(xué)習(xí)的技術(shù)里又包括深度學(xué)習(xí)的技術(shù)。其中,主要的一塊是機器學(xué)習(xí)。機器學(xué)習(xí)所解決的問題,是要用數(shù)據(jù)跟統(tǒng)計的方法或者神經(jīng)網(wǎng)絡(luò)的方法來解決現(xiàn)實生活中的任務(wù)(tasks)。在機器學(xué)習(xí)里面最新型和最重要的一塊――深度學(xué)習(xí),也包括一大串的技術(shù)加上應(yīng)用。雖然在這篇文章里面只提到了語音應(yīng)用和圖像應(yīng)用,實際上還有自然語言處理等其他一大串的應(yīng)用。在這個演講里面,我會著重把這些新的應(yīng)用和新的技術(shù)向大家介紹一下。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   剛才 《財富》雜志的文章 講的深度學(xué)習(xí)還是從商業(yè)的方面來講,大家能夠看得懂。要是看Wikipedia,它講的深度學(xué)習(xí)的定義比剛才的文章更深入一點。我現(xiàn)在向大家介紹一下 Wikipedia 的定義,深度學(xué)習(xí)有三個要點 (來源于我2014年寫的一本書,今年五月份翻譯成中文)。第一,這是一般的定義 --- 多層次的非線性變換,不單單是神經(jīng)網(wǎng)絡(luò),它包括各種各樣的其他方法,深度學(xué)習(xí)的精髓是好幾個不同層次的非線性變換。第二, 因為有好多層次,就衍生出來了一個非常重要的問題――怎么樣來優(yōu)化這個多層次的系統(tǒng)。在淺層學(xué)習(xí)的模型里面,這個優(yōu)化問題不是那么嚴重,因為比較容易優(yōu)化。但是一旦有深層之后,這個優(yōu)化就成為一個非常難的問題。這也是在上世紀80年代、90年代深度神經(jīng)網(wǎng)絡(luò)并沒有能夠產(chǎn)生影響的其中一個很大的原因。當(dāng)時數(shù)據(jù)不夠,計算能力也不夠,而且當(dāng)時算法也不夠。差不多十年之前,端到端的優(yōu)化學(xué)習(xí)問題開始得到了解決――并不是說理論上得到解決,我只是說在實際算法上得到了解決。 第三,這點更重要,尤其在語音識別和圖像識別之外的、更重要的認知領(lǐng)域的應(yīng)用。在這種更高層次的認知領(lǐng)域的應(yīng)用情況下,因為深度學(xué)習(xí)有不同層次的表達,它就能夠把抽象的概念進行層次化的表征。 在我下面講的應(yīng)用中,我想特別是把第三個要點向大家描述得更深刻一點。頭兩個特性一般是大家在目前深度學(xué)習(xí)上看得比較清楚的,而且文獻講得比較多。第三點的抽象性確實是深度學(xué)習(xí)最重要的精華。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   關(guān)于深度學(xué)習(xí)十年的歷史, 我從 《財富》雜志的文章 里面抽取出來一張表。理論上開創(chuàng)性的工作――剛才王飛躍老師講到神經(jīng)網(wǎng)絡(luò)可以追溯到好幾十年前。這里我只講講近代的歷史。上世紀80到90年代第二次人工智能浪潮,主要也是由神經(jīng)網(wǎng)絡(luò)突破引起的,當(dāng)時的突破主要是在概念上的突破,神經(jīng)網(wǎng)絡(luò)的一些算法(比如BP算法)成為非常主流的算法,一直延伸到現(xiàn)在。但是,工業(yè)應(yīng)用上的大規(guī)模突破只是到最近――就像 Yoshua Bengio 教授講的――五到六年之前才開始。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   這是一篇對我來說非常重要的文章,加拿大安大略省的多倫多大學(xué)差不多20年前發(fā)表的文章提出“Wake Sleep”算法――怎么讓神經(jīng)網(wǎng)絡(luò)做非監(jiān)督的學(xué)習(xí)。 90年代期間第二次神經(jīng)網(wǎng)絡(luò)熱潮往下降,一直做不起來。大家往深層次的模式來想,那時候這種方法也沒有成功,但是對我有非常大的啟發(fā)。 我當(dāng)時也在加拿大安大略省任教,做時程上的深層次的神經(jīng)網(wǎng)絡(luò)研究,在1994年同我的博士生一起做神經(jīng)網(wǎng)絡(luò)的研究,寫了這篇文章。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   我當(dāng)時做語音識別做了相當(dāng)長的時間,神經(jīng)網(wǎng)絡(luò)一直比不上統(tǒng)計概率的模型。我跟研究生寫的這篇文章,對神經(jīng)時間序列預(yù)測模型做了非常細致的數(shù)學(xué)分析,跟 Yoshua Bengio 一篇文章有點類似。當(dāng)然,網(wǎng)絡(luò)層次很深以后,學(xué)習(xí)的難度就變得非常大。當(dāng)時用到語音識別上沒成功。但是給我們很大的啟發(fā)――到底要往哪個方向走?這是20年前的事情。在這篇文章之后,大家都認識到神經(jīng)網(wǎng)絡(luò)用到語音識別成功的機會不是很大,更重要的原因是當(dāng)時統(tǒng)計的模型發(fā)展得非常快,另外還有 SVM 機器學(xué)習(xí)的模型在那時候?qū)嶋H應(yīng)用的效果遠遠超過神經(jīng)網(wǎng)絡(luò)。所以那時神經(jīng)網(wǎng)絡(luò)就慢慢像剛才 Yoshua Bengio 教授講那樣削弱了。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   之后不久我從大學(xué)跳到微軟公司,當(dāng)時我的一個團隊做了深層的動態(tài) Bayesian 網(wǎng)絡(luò),相對比較容易解釋并嵌入語音生成的知識與其科學(xué)原理。 但是還有一大串的問題。這些十年前深度 Bayesian 網(wǎng)絡(luò)的問題,現(xiàn)在已慢慢得到解決 (用神經(jīng)網(wǎng)絡(luò)幫助 variational inference)。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   深層次模型最早的一個突破還得歸功于 Geoffrey Hinton 的一篇文章 《A Fast Learning Algorithm for Deep Belief Nets》 ,這篇文章確實成為一個開啟深度學(xué)習(xí)熱潮的因素 現(xiàn)在大部分的深度學(xué)習(xí)模型是一層一層網(wǎng)絡(luò)不斷從下往上把原始數(shù)據(jù)變換成它的類別。這篇文章正好相反,不是往上,更注重從上到下生成數(shù)據(jù)。 這有點像“做夢”,你做夢的時候可以產(chǎn)生一些想法,做的“夢”產(chǎn)生一些數(shù)據(jù)。你在醒的時候就可以把你所看到的真實的感知數(shù)據(jù)抽象出來、總結(jié)出來,成為你感知的對象。經(jīng)過反復(fù)的上下信息傳遞的過程,就可以打造一種非常巧妙但并不直觀的生成式模型,而且對這種模型來說,這篇文章介紹了一個巧妙的學(xué)習(xí)方法。 我看到這個方法以后,就開始思考這和我以前做的也是生成式的深度 Bayesian 語音識別模型會有什么關(guān)系。當(dāng)時沒看很懂,想探索怎么把這種模型跟我們的深度 Bayesian 語音識別模型結(jié)合起來。所以當(dāng)時我就請 Hinton 到我們的西雅圖共事一段時間。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

與 Hinton 合著論文成為經(jīng)典,推動語音識別產(chǎn)業(yè)成功

   2009 年底搞了一個 NIPS 講習(xí)會,將深度學(xué)習(xí)各種不同的方法在語音識別上的應(yīng)用總結(jié)一下,那時候已經(jīng)有初步的結(jié)果出來,但是結(jié)果不是特別好。當(dāng)時所有的深度學(xué)習(xí)在語音識別上面都是聚集在非常小的數(shù)量上面――大概 只有100萬幀左右的的數(shù)據(jù)量,非常有限。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   當(dāng)時大規(guī)模的神經(jīng)網(wǎng)絡(luò)威力還沒顯示出來。這之后我們在微軟花了大概一年多的時間,發(fā)明了一些很有效的方法,使得深度信念網(wǎng)絡(luò)(DBN)、深度神經(jīng)網(wǎng)絡(luò)(DNN),加上隱馬爾可夫模型(HMM),這三個不同的技術(shù)整合到一起就成為以上這組架構(gòu)。把神經(jīng)網(wǎng)絡(luò)跟其他的機器學(xué)習(xí)、人工智能方法聯(lián)合在一起,很快讓深度神經(jīng)網(wǎng)絡(luò)在工業(yè)界上面的語音識別產(chǎn)生巨大的影響。 這有點像 AlphaGo,也有三種不同的方法聯(lián)合在一起。 所以, 怎么樣把不同的人工智能和機器學(xué)習(xí)方法同深度學(xué)習(xí)方法整合到一起是非常重要的

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   當(dāng)時 Hinton 和我們在學(xué)術(shù)界(我所在的微軟研究院,也算學(xué)術(shù)界工業(yè)界的一個混合單位)合寫了一篇文章,三年多前發(fā)表的,成為深度學(xué)習(xí)在語音識別方面的經(jīng)典工作。 大部分的內(nèi)容和方法在這個文章當(dāng)中寫到的,現(xiàn)在工業(yè)界還一直在用。文章講了深度神經(jīng)網(wǎng)絡(luò)對語音識別產(chǎn)生的影響,怎么把不同的機器學(xué)習(xí)方法,包括深度神經(jīng)網(wǎng)絡(luò)的方法整合起來,使得大規(guī)模的語音識別得到進展。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   當(dāng)我們微軟公司把深度學(xué)習(xí)用到語音識別并取得大規(guī)模成功的時候,微軟大老板 Rick Rashid 2012 年在天津舉行的一次會議上當(dāng)場演示,第一次向世界宣布深度神經(jīng)網(wǎng)絡(luò)是一個非常強大的技術(shù)。他用深度學(xué)習(xí)做語音識別演示,幾乎沒什么錯誤,因為他非常配合,幫我們采集了很多他自己的 speaker-dependent 的數(shù)據(jù)。大規(guī)模的場合演示語音識別和翻譯幾乎沒任何錯誤。另外,用機器翻譯的方法,把識別出的英文文字翻譯成中文,再用語音合成的方法產(chǎn)生中文語音。他用英文講,他的中文聲音就出來了,而且中文合成的聲音跟自己的聲色非常相像,當(dāng)時產(chǎn)生很大的影響。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   演示之后,《紐約時報》的記者 John Markoff 到微軟采訪了我,也采訪了 Hinton,我們講了一些我們合作的事情,在《紐約時報》報道。最重要的寫的一條,我們不約而同跟這個記者說,這么好的一個技術(shù)能夠在演示上這么成功,幾乎沒有任何專利的保護。記者就把它寫到了報紙上,這個可能跟整個工業(yè)界對深度學(xué)習(xí)引起興趣有很大關(guān)系。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   我們也寫了論文,2010 年到 2012年寫了不少微軟同多倫多大學(xué)合作的論文,之后 IBM、谷歌、科大訊飛、百度也用類似的方法。科大訊飛確實跟進我們做得比較早,我這里沒時間展開講太多。 識別自然語音的錯誤率在 1993 年幾乎每個字都會錯掉。 美國的DARPA第一次做這方面的研究時,數(shù)據(jù)沒采集多,1993年之后,DARPA 每次投資語音識別的研究基本有1/4左右的資源是用來采集有標(biāo)注的數(shù)據(jù)的。所以之后語音的大數(shù)據(jù)有了。這也是為什么深度學(xué)習(xí)在語音識別上是第一個成功的例子。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   感謝胡郁總裁寄給了我當(dāng)時在科大(我的母校)訪問的照片,那時候我在2010年到2012年之間接受侯建國校長的邀請訪問了科大和科大訊飛、也多次到微軟亞洲研究院、臺灣中央研究院和中國其他地方,講深度學(xué)習(xí)的方法并進行學(xué)術(shù)討論。我走了十多次。可以這么說,科大訊飛的深度學(xué)習(xí)技術(shù)確實在中國是非常早就已經(jīng)開始應(yīng)用,只稍稍滯后于微軟,跟這些學(xué)術(shù)討論有很大的關(guān)系。深度學(xué)習(xí)從加拿大和美國到中國有很有趣的歷史,具體的過程劉慶峰總裁跟胡郁總裁他們有更多的材料。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   2012年到2014年,微軟、谷歌出現(xiàn)一大串的產(chǎn)品,還有亞馬遜的Echo,以及訊飛和百度的產(chǎn)品,也包括 Dragon 和 Siri 和 XBOX 產(chǎn)品一整套。全部用深度學(xué)習(xí)的網(wǎng)絡(luò)取代以前一大串淺層機器學(xué)習(xí)的語音識別技術(shù)。

   這兩年(2012-2014),微軟花了很多的精力,特別是我們在美國的同事和北京研究院的同事合作,把在天津我們老板演示的用深度學(xué)習(xí)實現(xiàn)的演示完全產(chǎn)品化,大家用 Skype 就可以直接用不同語言做語音對話。兩個月前,楊瀾帶了一個采訪團隊到我們公司來拍攝人工智能電影的時候,專門試了我們的 Skype Translator,是五個小時人工智能的紀錄片的一部分。 她用唐詩來試我們的系統(tǒng),結(jié)果很有意思,每個字都翻譯得很對,但是整個句子翻起來詩意就沒了。語音識別字對字詞對詞是好的,但是它不能夠真正達到人的智慧,還沒到有詩意的那個程度。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

深度學(xué)習(xí)最近兩年的發(fā)展:語音圖像識別和其他大數(shù)據(jù)應(yīng)用全面進入商用階段

   下面再講一下最近兩年之內(nèi)深度學(xué)習(xí)的進展,首先語音識別的錯誤率繼續(xù)下降,包括訊飛、IBM、百度、谷歌,包括我們的公司的工作。最近幾年的進展更使得去年圖像識別的錯誤率降到低于人類的水平,這是微軟亞洲研究院去年做的,今年國內(nèi)的幾個團隊做的比這個錯誤率低的更多。還有看圖說話也有很大的進展。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   最近一兩年的 AlphaGo――文章是在2016 年發(fā)表,工作大部分是在 2015 年做的,最后產(chǎn)生最大的影響是在 AlphaGo 今年3月份打敗世界圍棋冠軍,這里面很大的一個因素就是把神經(jīng)網(wǎng)絡(luò) Deep Neural Nets 和增強學(xué)習(xí)結(jié)合起來,用來加速 Monte Carlo Tree Search ,三者結(jié)合得到非常顯著的成果

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   人工智能對話機器人也取得成果。這一段話是我從 《財富》雜志文章 中截取出來的。現(xiàn)在很多公司都在發(fā)展客服機器人,而且還有很多其他的應(yīng)用。這種應(yīng)用在20年前年前大家已經(jīng)開始做了。我在大學(xué)當(dāng)教授的時候就有很多類似的項目。 AT&T當(dāng)時幫助客戶怎么付帳,那是唯一很成功的例子,其他的影響并不是很大。今年到去年差不多兩年之內(nèi),大家看到 AlphaGo 的成功,而且看到深度學(xué)習(xí)在語音識別和圖像識別上面的成功都感覺到時間已經(jīng)到了,這個重要的應(yīng)用時代已經(jīng)到了。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   大家看 這篇文章 可以看到更多的近年深度學(xué)習(xí)應(yīng)用例子。這種應(yīng)用在學(xué)術(shù)界跟企業(yè)界還不是講得特別多,但是要看這篇文章, 微軟領(lǐng)導(dǎo)在 這篇文章 中講了一段話,這段話確實包含了我們微軟兩年之內(nèi)的大量工作 。我的一個團隊做了相當(dāng)多的工作。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   還有一個很大的應(yīng)用,Deep Learning 最近兩三年內(nèi)有很多公司――主要是我們公司和IBM――大家看 這篇文章 后就可以感覺到,深度學(xué)習(xí)現(xiàn)在從原來感知上面的人工智能 (語音識別和圖像識別)已經(jīng)大步進入到其他與大數(shù)據(jù)相連的真正商業(yè)應(yīng)用的領(lǐng)域里面。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   從研究的角度來講,深度學(xué)習(xí)用于自然語言處理尤其是機器翻譯在過去一兩年之內(nèi)得到特別飛速的進展(盡管2012就已經(jīng)開始出現(xiàn)深度學(xué)習(xí)用于機器翻譯的學(xué)術(shù)論文)。我昨天早上剛從煙臺“中國計算語言學(xué)大會”回來,機器翻譯領(lǐng)域目前已經(jīng)完全采用深度學(xué)習(xí)的方法,它的性能、精確度大大超過20多年來發(fā)展起來的基于統(tǒng)計的學(xué)習(xí)方法。IBM 20多年前第一次把統(tǒng)計學(xué)習(xí)的方法用到機器翻譯。當(dāng)深度學(xué)習(xí)在語音識別成功之后, 2012 年左右,深度學(xué)習(xí)就開始用到機器翻譯上面。現(xiàn)在整個機器翻譯的領(lǐng)域已經(jīng)完全轉(zhuǎn)向深度學(xué)習(xí),這一點在中國自然語言處理方面比美國更顯著。 深度學(xué)習(xí)在閱讀理解、問答等等應(yīng)用上的復(fù)雜性要比其他那些應(yīng)用到語音識別和機器翻譯的深度學(xué)習(xí)方法大,主要因為模型不一樣,所解決的問題也不一樣。這是下一步深度學(xué)習(xí)要解決的大問題。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   前兩天煙臺的“中國計算語言學(xué)大會”上有一大串的演講,每個題目都是跟深度學(xué)習(xí)相關(guān)的:深度學(xué)習(xí)跟機器翻譯、深度學(xué)習(xí)跟問答、深度學(xué)習(xí)跟語法分析、深度學(xué)習(xí)跟情感分析,等等。 我對中國的人工智能的希望是非常之大的。 現(xiàn)在有哪些新的技術(shù)?有序列到序列的學(xué)習(xí)、有注意力模型,一個禮拜之前在 《Nature》上面剛發(fā)表了DNC方法 它有局限性,還是基于Von Neumann 算存分離的架構(gòu)。 做研究的話可以往這邊看。

   我下面會介紹更符合人腦認知和思維的算存一體的方法和思路。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

深度學(xué)習(xí)未來展望:整合符號邏輯和深度學(xué)習(xí),有望解決黑箱、常識嵌入,以及邏輯推理規(guī)則的自動學(xué)習(xí)問題

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   最后談?wù)勎磥碚雇jP(guān)于應(yīng)用,昨天的新智元百人會AI領(lǐng)袖閉門峰會上,聽大家講了很多,我補充一些研究和技術(shù)的內(nèi)容。關(guān)于人工智能應(yīng)用,在四天前 美國白宮出了個報告 ,在座的Thomas Dietterich 教授告訴我,他也參與了這個報告的一些寫作。 美國白宮政府發(fā)出來這個報告,做應(yīng)用的一定要好好看一看,它的最終結(jié)論對投資界影響非常大,跟中國推廣的人工智能方向是相符的。 Deep Learning 作為一個非常大的標(biāo)題列出來。今天早上跟 Thomas Dietterich 教授談了一下,他承認對于很多做傳統(tǒng)的人工智能的專家來講 Deep Learning 的巨大成功確實是一個 Surprise。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   Automated Science。把所有的物理科學(xué)材料數(shù)據(jù)用機器看一遍,能不能得出牛頓定律?像以前伽利略用望遠鏡看到星星的運動,經(jīng)過科學(xué)的研究,總結(jié)出來一些星球運行的定理,牛頓根據(jù)這些材料總結(jié)出牛頓定理。 這些能不能用人工智能做出來?這是很多人想的問題。金融方面,人工智能和深度學(xué)習(xí)最近剛火起來,在美國做金融的極高端的專家找過我,我不便講太多,這個領(lǐng)域做金融的都在看。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   從研究和技術(shù)方面來講,為了讓大家看到將來的趨勢,或者將來有影響的研究和技術(shù),我們要先看現(xiàn)在的深度學(xué)習(xí)和AI的方法有些什么樣的局限性。 把局限性看懂以后,就可以知道用什么方法來克服它們。現(xiàn)在機器學(xué)習(xí)很大的一個局限性是,幾乎所有成功的方法都需要有非常大量的DATA,這種數(shù)據(jù)一定要輸入輸出全部匹配好(至少在全序列的水平上); 不匹配好的話,目前沒有任何方法能夠做得非常成功。這是非監(jiān)督學(xué)習(xí), 沒時間講了。下面還有一大串的其他局限,比如 Black box, 現(xiàn)在有很多研究在破這個黑箱,走出現(xiàn)有神經(jīng)網(wǎng)絡(luò)的框架,要能夠把以前大家所做的深度 Bayes 的方法加上一大串其他的方法整合到一起,就有望解決黑箱的問題。 雖然有的研究人員覺得黑箱問題不是那么重要,但我認為 黑箱問題很重要 。同樣重要的一點:神經(jīng)網(wǎng)絡(luò)現(xiàn)在非常難把知識自動擴大,就像小孩長大,他的知識和推理的能力一步步擴大,但是現(xiàn)在的人工智能這個能力幾乎還沒有。 我跟很多研究人員交流,怎么能夠把基于神經(jīng)計算的深度學(xué)習(xí)跟符號邏輯連在一起,因為把邏輯關(guān)系搞清楚就能解釋知識的應(yīng)用和推理的過程。 這就是真正的理解。現(xiàn)在所有我看到的深度學(xué)習(xí)做的所謂的閱讀理解都不是我現(xiàn)在講的這個意義上的真正的理解。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   下面用一張圖解釋最近的想法和工作,怎么樣能夠把基于符號的邏輯推理(上世紀70年代的人工智能主流方法)跟現(xiàn)在興起的深度學(xué)習(xí)、自動學(xué)習(xí)能力非常強的深度神經(jīng)網(wǎng)絡(luò)結(jié)合到一起。 這是一個小例子。現(xiàn)在這里有兩個結(jié)構(gòu),下面一個是輸入句子的句法樹狀結(jié)構(gòu)。上面的樹狀結(jié)構(gòu)是語義結(jié)構(gòu)。用人工智能的傳統(tǒng)方法來做,要寫很多 rules,但是用神經(jīng)網(wǎng)絡(luò)方法來做就可以學(xué)習(xí)結(jié)構(gòu)變換。用于統(tǒng)一兩者的一個方法是建立一個等價關(guān)系(isomorphism)。樹狀圖狀結(jié)構(gòu)都可以經(jīng)過巧妙的編碼進入到神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)完了之后反向回到新的樹狀圖狀結(jié)構(gòu),能夠把衍生出的經(jīng)過推理后的樹狀結(jié)構(gòu)(或者圖狀結(jié)構(gòu))無失真地(基于巧妙的編碼)解碼還原出來。 這個過程中的符號式的推理邏輯就可以自動等價與在神經(jīng)網(wǎng)絡(luò)上的實現(xiàn)。因為神經(jīng)網(wǎng)絡(luò)善長學(xué)習(xí),邏輯推理的規(guī)則就有望能夠通過等價關(guān)系自動學(xué)成。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   謝謝大家,我就講到這里。

   回復(fù)“1024”下載 PPT 全文(PDF格式)

   在 9 月召開的中國人工智能大會(CCAI 2016)上,鄧力博士接受新智元專訪,談了他對深度學(xué)習(xí)最新突破及近來開源趨勢等問題的見解。鄧力同意 Hinton 等學(xué)者的看法,認為十年?機器能夠擁有常識,對研發(fā)通用人工智能(AGI)也表示樂觀,相信在他的“有生之年”應(yīng)該能夠看見 AGI 實現(xiàn)。

   當(dāng)時,鄧力博士特別提到了他對 AI WORLD 2016 世界人工智能大會的期望:更深入了解人工智能在全球尤其是在中國的發(fā)展,同時分享他對人工智能和深度學(xué)習(xí)更多的思考。

   新智元專訪:深度增強學(xué)習(xí)是了不起的進展,深度學(xué)習(xí)需要借鑒腦科學(xué)的知識

   新智元:過去一年深度學(xué)習(xí)最大的突破是什么?

   鄧力: 深度增強學(xué)習(xí)是一個很了不起的進展。AlphaGo 影響很大,也讓很多做深度學(xué)習(xí)的研究者意識到,深度學(xué)習(xí)應(yīng)用不但可以在有大量直接標(biāo)注的數(shù)據(jù)上成功(比如語音識別、圖像識別),還可以在其他更多的方面成功。這個成功不像以前那樣一定要把每項訓(xùn)練數(shù)據(jù)都做一一標(biāo)記,因為增強學(xué)習(xí)大部分數(shù)據(jù)都不是直接標(biāo)注,而是要等到最后結(jié)果得出來,再指導(dǎo)前面的機器學(xué)習(xí)過程。深度學(xué)習(xí)和增強學(xué)習(xí)的概念以前都有,但谷歌 DeepMind 將深度學(xué)習(xí)和增強學(xué)習(xí)結(jié)合在一起,提出了深度增強學(xué)習(xí),并且給出了應(yīng)用場景,做了很多好的工程工作,向大家展示了它能夠解決以前深度學(xué)習(xí)解決不了的問題。就在前幾周,新聞報道谷歌 DeepMind 采用深度增強學(xué)習(xí)的方法,讓數(shù)據(jù)中心的能量消耗減少了 40%,這個影響是非常大的。省電不但有經(jīng)濟效益,對環(huán)境的好處也是巨大的。以前一般人想不到可以將增強學(xué)習(xí)用在這個上面,我看了這項應(yīng)用的報道后立即深受啟發(fā)。

   新智元:LeCun 前不久表示,他非常看好對抗生成網(wǎng)絡(luò)模型。

   鄧力: 對抗生成網(wǎng)絡(luò)是很好的方法,它有助于無監(jiān)督學(xué)習(xí),如何把數(shù)據(jù)輸入輸出的關(guān)系弄清楚。

   新智元:您最近主要在做無監(jiān)督學(xué)習(xí)?

   鄧力: 思考了這方面的很多問題。一是無監(jiān)督學(xué)習(xí)不需要使用標(biāo)注數(shù)據(jù),二來也是更重要的一點,從思想模型上講,無監(jiān)督學(xué)習(xí)更像人腦的學(xué)習(xí)。當(dāng)然,直接的效應(yīng)還是標(biāo)注量――大 5 倍、10 倍可以,但大 100 倍、1000 倍、1 萬倍呢?現(xiàn)在不少人在做深度無監(jiān)督學(xué)習(xí),我也在這方面提出一些高層的解決方案。例如看圖說話,給定一幅圖像,讓機器用自然語言句子描述內(nèi)容。微軟前年還專門標(biāo)注了好幾十萬個這樣的數(shù)據(jù)給大家,整個深度學(xué)習(xí)領(lǐng)域的研究員都能應(yīng)用,影響很大。但不可能標(biāo)幾千萬甚至幾億的這種圖像,盡管大家都知道,這會進一步提高看圖說話的效果。其實我和團隊之所以要研究無監(jiān)督學(xué)習(xí),更重要的一點是, 我們目前的深度學(xué)習(xí)方法離真正的人腦學(xué)習(xí)差得太遠了 。深度學(xué)習(xí)需要借鑒腦科學(xué)的知識,雖然一兩年內(nèi)暫時還用不上,但我相信不遠的將來,三到五年之內(nèi),大家都肯定會往這方面思考。 我們現(xiàn)在也在往這方面想。我昨天講的深度學(xué)習(xí),有一部分也是受腦科學(xué)的影響。只是我們更重視計算――腦科學(xué)計算不了也沒實用價值。但是,人工智能和腦科學(xué)將來都會慢慢結(jié)合。

   新智元:Hinton 在之前接受采訪時表示,他認為十年內(nèi)機器能夠擁有常識,您怎么看?

   鄧力: 我同意他的看法。我們要是能夠把人腦關(guān)于常識的機制加到算法里面,人工智能會有新的大進展。關(guān)于常識的知識庫會越來越大,方法也會越來越強。計算能力、計算機硬件、數(shù)據(jù)……這些都在不斷發(fā)展擴大。到了一定階段,我想十年之內(nèi),差不多就會得到這樣一個好的解決方案吧。當(dāng)然,到時候肯定不會像現(xiàn)在這樣采用監(jiān)督學(xué)習(xí)的方式,而是整合了多種方法,監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、增強學(xué)習(xí)……而且現(xiàn)在發(fā)展速度這么快,工業(yè)界和學(xué)術(shù)界都大力投入人工智能和深度學(xué)習(xí)。十年算蠻長時間了。這么長時間,應(yīng)該可以實現(xiàn)。

   至于通用人工智能,應(yīng)該會長一點,在十年以外。常識只是一部分,而通用人工智能,就是要用同一個人工智能解決很多的問題,這就需要在常識之外,還有很多其他的人類認知能力。把這些認知能力都考慮到一起,我想用的時間……至少在十年以外吧。但解決的機會是會有的,有生之年我也應(yīng)該能看到,我還是比較樂觀的。

   新智元:深度學(xué)習(xí)是最終的答案嗎?

   鄧力: 最終的答案應(yīng)該有很多方法整合在一起,深度學(xué)習(xí)是其中主要的一個。不過,深度學(xué)習(xí)本身范圍也很廣。 什么是深度學(xué)習(xí)呢?有些人說深度學(xué)習(xí)就是神經(jīng)網(wǎng)絡(luò),我認為這不全面。 深度學(xué)習(xí)的基本概念,一是多層次的,多層次不一定要神經(jīng)網(wǎng)絡(luò)方法才能實現(xiàn),可以用統(tǒng)計方法,也可以使用貝葉斯的方法。深度學(xué)習(xí)的另一個特點是端到端的學(xué)習(xí),也不必局限于backprop。總之,深度學(xué)習(xí)不一定限定在神經(jīng)網(wǎng)絡(luò),還要把常識――隨便舉個例子――結(jié)合進來,我是這樣認為的。

   去年,我們團隊在 NIPS 發(fā)表了一篇論文探討了這樣的問題。你知道,現(xiàn)在使用神經(jīng)網(wǎng)絡(luò),大部分都很難解釋;我們的團隊就采用概率模型的方法,把比較淺層的概率推理方法加層,每一步的方法從果推到因,把每個步驟都當(dāng)做一個迭代的過程,每個計算的步驟作為神經(jīng)網(wǎng)絡(luò)的一個層次,然后把這個過程一層層循環(huán)上去,最后就形成了一個神經(jīng)網(wǎng)絡(luò),再來做反向傳播。學(xué)習(xí)完了以后,由于這個網(wǎng)絡(luò)也很深層,預(yù)測的結(jié)果就很準(zhǔn),但同時我們沒有把原來貝葉斯基本的架構(gòu)破壞掉,所以用原先的模型就可以解釋最終的結(jié)果,這就是把神經(jīng)網(wǎng)絡(luò)和其他方法結(jié)合起來的一個例子。

   新智元:怎么看開源?

   鄧力: 開源是一個好事。開源的結(jié)果是把整個業(yè)界的水平提高,給大家很多很多的選擇。我很高興見到很多公司開源,我認為開源的力度越大越好。舉一個例子,以前實習(xí)生來了,有一個很長適應(yīng)的時期,才能把公司內(nèi)部的應(yīng)用軟件搞懂。開源以后,他們在入職之前就已經(jīng)對相關(guān)的技術(shù)和產(chǎn)品比較熟悉了,來了之后馬上就可以上手。微軟已經(jīng)開源了CNTK,今后也應(yīng)該會開源更多。

   新智元:微軟研究院在深度學(xué)習(xí)上的特點是什么?

   鄧力: 微軟的優(yōu)勢是深度學(xué)習(xí)開始比較早,儲備的人才和經(jīng)驗很多。不過前幾年管理相對松散,做深度學(xué)習(xí)的人分散在很多不同的地方,但彼此之間都有合作。在深度學(xué)習(xí)和人工智能方面,我們會投資更多。

   新智元:跟 Hinton 合作有什么印象比較深的地方嗎?

   鄧力: 當(dāng)時我們一起做語音識別,神經(jīng)網(wǎng)絡(luò)和貝葉斯算法做了很多比較。發(fā)現(xiàn)貝葉斯算法不如神經(jīng)網(wǎng)絡(luò)那么有效,主要是因為神經(jīng)網(wǎng)絡(luò)能夠利用大型并標(biāo)準(zhǔn)的矩陣計算。當(dāng)時我們試了各種各樣的方法,在2009年到2012年期間,Hinton 給了我很多實際的建議,比如早在2009年他就一直跟我說,“你一定要用好的GPU”,用什么樣的GPU我還是聽他的,這個對我們影響很大。

   新智元:神經(jīng)網(wǎng)絡(luò)、層次化模型等思路在語音識別發(fā)展的歷史上早已被提出并無數(shù)次驗證,但都沒有成功。回顧深度學(xué)習(xí)成功前的十年,那時能夠持續(xù)不斷地在“非主流”的方向上嘗試、改進、探索,是一件非常不易的事情,您是如何堅持過來的?

   鄧力: 我在上世紀90年代也做神經(jīng)網(wǎng)絡(luò),但沒有成功――不過那時候大家都沒有成功(笑)。然后改做貝葉斯網(wǎng)絡(luò)模型和方法,在為語音生成(編注:語音生成指的是統(tǒng)計方法生成,不同于語音合成)建模的深度貝葉斯網(wǎng)絡(luò)做了很長時間。同樣,當(dāng)時深度貝葉斯網(wǎng)絡(luò)學(xué)習(xí)的方法不成熟, 但現(xiàn)在兩三年內(nèi)有了很多進展。這些新進展把統(tǒng)計、數(shù)學(xué)、概率和神經(jīng)網(wǎng)絡(luò)的方法聯(lián)系在一起。將來要解決更像人腦的問題,單單依靠數(shù)據(jù)就不夠了。 現(xiàn)在大家開始注重非監(jiān)督深度學(xué)習(xí),過去積累的研究經(jīng)驗和有計算價值的語音生成知識和模型也可以派上用場。

   新智元:您去年都還在發(fā)論文,一直都工作在第一線。如何保持這樣長時間的高水平高產(chǎn)出?

   鄧力: 這是責(zé)任,也是個人的興趣。公司給了我很多資源,現(xiàn)在團隊有了這么多人,人多了自然就好做事了。

   新智元:10月份,中國自動化學(xué)會和新智元聯(lián)合主辦的 AI WORLD 2016 世界人工智能大會就要召開了。您對大會有什么期望?

   鄧力: 我希望能在這個會議上學(xué)到更多的東西,更深入了解人工智能在全球的發(fā)展, 特別在中國的發(fā)展,同時也分享我對人工智能和深度學(xué)習(xí)更多的思考。

   點擊閱讀原文,觀看 AI WORLD 201 6世界人工智能大會主論壇回顧視頻。

   微軟人工智能首席科學(xué)家鄧力:深度學(xué)習(xí)十年簡史和人工智能未來展望(33PDF下載)

   點擊閱讀原文,觀看2016世界人工智能大會主論壇全程回顧視頻。

本文被轉(zhuǎn)載1次

首發(fā)媒體 搜狐科技 | 轉(zhuǎn)發(fā)媒體

隨意打賞

人工智能與深度學(xué)習(xí)
提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 色涩在线观看 | 性欧美视频在线观看 | 99在线精品日韩一区免费国产 | 涩涩免费播放观看在线视频 | 中文字幕一区在线 | 久久中文网 | 久草在线看片 | 亚洲视频国产视频 | 亚洲精品美女在线观看 | 久久亚洲国产精品 | 国产精品66 | 欧美成人一区二区三区不卡 | 婷婷亚洲激情 | 亚洲欧美国产毛片在线 | 亚洲区欧美中文字幕久久 | 天天色天天操综合网 | 青青久久国产 | 一区二区三区不卡在线 | 亚洲午夜一级毛片 | 色姑娘色综合 | 国产一级强片在线观看 | 国产精品免费观看网站 | 日本欧美一区二区三区不卡视频 | 欧美操片在线观看 | 成人合集大片bd高清在线观看 | 亚洲国产精品成人综合久久久 | 天天综合网色 | www.亚洲精品.com | 亚洲日韩视频 | 操综合网 | 国内精品视频一区 | 国产婷婷高清在线观看免费 | 久久国产这里只有精品 | 日本一级毛片毛片一级毛片 | 久久国产网 | 国产成人精品永久免费视频 | 亚洲欧洲国产精品你懂的 | 亚洲高清一区二区三区四区 | 鲁丝一区二区三区不属 | 亚洲成a人v大片在线观看 | 欧美综合图区 |