搜狗王小川在知乎上說:谷歌人工智能AlphaGo會完勝李世石

虎嗅注: 上周末, 谷歌AI機器AlphaGo以5:0橫掃歐洲圍棋三屆冠軍樊麾的事情震驚了人類 ,隨之討論紛沓而來。這種逼格甚高的事情怎么能少了自認為逼格甚高的知乎上的知友們呢?這種事情又怎能少了具有極客范兒的搜狗CEO王小川呢?所以當有人在知乎上提出“如何評價 Nature 重磅封面:谷歌人工智能擊敗歐洲圍棋冠軍,3月將與李世石對弈?”時,就一不小心引來了科技騷年王小川。
王小川說,AlphaGo的發(fā)布,是一個偉大的里程碑,又一次讓我興奮地需要說一說。并給出了兩個斷言:斷言一:AlphaGo在兩個月后,將會完勝李世石;斷言二:除了圍棋,人工智能在其他博弈類的封閉游戲里,也會橫掃一切,完勝人類。
注意!不要被“完勝人類”這幾個字嚇著了。他所謂的人工智能完勝的領(lǐng)域僅限于游戲,且是博弈類封閉游戲。
除此之外,當微軟HoloLens問世后,王小川同樣非常興奮,忍不住在2015年1月24日寫了一篇技術(shù)評論。開篇便是,“很久沒有心情澎湃到提筆寫一篇技術(shù)評論,直到看了微軟的全息眼鏡HoloLens原型發(fā)布……”有興趣的同學(xué)可以在虎嗅上圍觀《 王小川:微軟全息眼鏡HoloLens將帶領(lǐng)人類進入新紀元 》。
以下是王小川在搜狗上關(guān)于“谷歌人工智能擊敗歐洲圍棋冠軍,3月將與李世石對弈”的回答:
AlphaGo的發(fā)布,是一個偉大的里程碑,又一次讓我興奮地需要說一說。
?先說我的
斷言一:AlphaGo在兩個月后,將會完勝李世石。
?留個關(guān)子,本文最后再說斷言二。
?從中學(xué)開始,我就著迷用算法來解決游戲的博弈問題,用搜索方法創(chuàng)新性完成過一些題目。這幾年深度學(xué)習出現(xiàn)后,就感覺有機會能夠突破圍棋,和清華的聯(lián)合實驗室做過幾次探討,都認為這個方向可行,可惜限于氣場和能力不足,沒能組織進行這方面的投入。
?而此次出手的,是Google旗下的DeepMind團隊,在深度學(xué)習方面是最頂尖的,資源、能力、氣場都沒有問題,突破性的技術(shù)是基于深度學(xué)習進行估值和走棋。
?看知乎里好多討論,是從之前AlphaGo完成的棋局來判斷其下棋風格,倒推這個算法的威力,有點刻舟求劍的感覺。我們核心還是要回到對這次AlphaGo用到的技術(shù)的深刻理解。為了便于討論,我們對比以搜索剪枝為核心的深藍下國際象棋,和以搜索剪枝+深度學(xué)習為核心的AlphaGo的三個區(qū)別:
1. 圍棋相對象棋,最大的區(qū)別是棋局的評價函數(shù)極難定義。
象棋可以找到各種“特征”來計分,比如丟一個馬扣多少分,兵往前拱到離底線近了加多少分,而圍棋做不到,密密麻麻的黑白子挨著,互相之前又有關(guān)聯(lián),變化多,規(guī)律難以總結(jié)。這也是傳統(tǒng)算法相對人最弱的幾個問題之一。就像是我們?nèi)俗鋈四樧R別,看一眼就知道是張三李四,而機器算法難以下手。這個問題恰恰是最近幾年深度學(xué)習最大的突破之處,深度學(xué)習不需要人來設(shè)計算法“找特征”,通過大量原始數(shù)據(jù)和標簽的對于,機器就能夠自動找特征,并且并不比人差。在幾年前還有很多人認為機器在圖像處理方面舉步維艱,怎么定義和抽象鼻子?耳朵?眼睛?可就在這一兩年深度學(xué)習突飛猛進,一舉超過了人類。就在2015年,人臉識別方面,機器的識別能力已經(jīng)超過了人了,這可是人進化了數(shù)千萬年的核心能力之一呀。一個圍棋棋局,可以理解為一張19*19的圖片,其他的走棋規(guī)則和非常簡單(很容易翻譯成計算機規(guī)則),正好落入了深度學(xué)習擅長的事情。搜索+深度學(xué)習,這個算法完全可以覆蓋圍棋的規(guī)則,人下棋的思維過程和模式,只是AlphaGo的一個子集。這就決定了這個算法沒有天花板,有機會在圍棋領(lǐng)域“打通關(guān)”。
2. 深藍相對AlphaGo,AlphaGo最大的優(yōu)勢是“學(xué)習能力”。深藍的開局更多依靠數(shù)據(jù)庫棋譜的建立,但沒有泛化能力(不懂得舉一反三),對于沒有見過的走棋方法就可能犯傻。而之后的核心能力是計算力,通過暴力的搜索(當然也有最優(yōu)秀的剪枝,但還是暴力),力圖走出10-20步棋來選擇最優(yōu)的路徑。這個復(fù)雜度是指數(shù)級的,變成一個NP問題,受限于計算力。這個系統(tǒng)的算法是寫死的,固定的參數(shù)下,就會有固定的表現(xiàn)。而調(diào)整參數(shù)和改變算法,都是工程師的事情。這個系統(tǒng)的天花板是計算機有多強,以及工程師有多聰明。而AlphaGo更多是數(shù)據(jù)驅(qū)動的,喂給他更多的棋局數(shù)據(jù),他就能夠優(yōu)化“神經(jīng)元網(wǎng)絡(luò)”,同樣的運算資源下變得更聰明,并且具有舉一反三的能力,這一點非常接近于人(或者說本身就是模擬人的方式來設(shè)計的)。而且我們知道,機器處理數(shù)據(jù)的能力足夠地快,以及沒有情緒不會出錯,這就決定了這個系統(tǒng)如果把今天互聯(lián)網(wǎng)上能收集到的棋局都學(xué)一遍,就成為頂尖高手了。
3. 最最最可怕的還不只是前面這兩點,對于下棋博弈問題,AlphaGo還不只是從互聯(lián)網(wǎng)上去收集數(shù)據(jù)進行學(xué)習,更可以自己和自己下,實現(xiàn)“自學(xué)習”。看過電影“超驗駭客”沒有?人工智能可以做到隨著時間的推移就能更加聰明。金庸小說中老頑童讓自己左手和右手打架“左右互搏”,成為天下無敵的武功,那個只是故事,在下棋這個領(lǐng)域,而AlphaGo有這樣的設(shè)計,讓這種武功成真了!往下還有兩個月的時間,AlphaGo這樣一臺算法上沒有天花板的機器,很有機會在“左右互搏”下登峰造極,成為不可超越的圍棋高手。
AlphaGo的技術(shù)問題講完了。怎么來看Google背后的完整動作呢?有人覺得是過度解讀了,實際系統(tǒng)挺糙的 -- 選的都是“歐洲冠軍” -- 說明系統(tǒng)并不行,這是一種錯誤的理解。更有可能的原因是Google和Facebook在競爭下圍棋,F(xiàn)acebook的員工缺心眼提前放了好多消息出來泄密了,結(jié)果Google就趕緊把Nature的文章發(fā)了搶了個先,然后賣個期貨兩個月后和人類對決,那會兒系統(tǒng)就足夠好了,這是在競爭環(huán)境下合適的做法。
事實上Google和Facebook兩家都認識到了AI的重要性,以及就在最近幾年會有大的突破。Google 4億美金收購了DeepMind,當時只有20人,現(xiàn)在已經(jīng)突破200人了,并且是不計代價的瘋狂投入。下圍棋只是體現(xiàn)人工智能進步絕佳的宣傳點和切入點,從公開的文獻可以看到,DeepMind做圍棋研發(fā)是基于通用的技術(shù)進行,領(lǐng)域無關(guān)的(Domain independent)。這樣的技術(shù)未來可以用到合適的其他領(lǐng)域里去。深度學(xué)習的魅力在于,只要一個領(lǐng)域里能夠建模,能夠有充足的數(shù)據(jù),就能夠在這個領(lǐng)域里做到超越人、取代人,短時間能從0分做到99分。如果我們依然是老觀念,用漸進的方式來理解機器智能,比如之前某位大佬宣傳他家的XX大腦做到了X歲的智力,這是很誤(che)導(dǎo)(dan)的。我們同樣也會錯誤地估計下圍棋方面機器的能力,按照人類的理解1D-9D來評價它。一句話,不要用評價人的方法來評價機器的人工智能的能力,完全是不同的模式。
老羅曾經(jīng)評價過人工智能的一句話:“人工智能就像一列火車,它臨近時你聽到了轟隆隆的聲音,你在不斷期待著它的到來。他終于到了,一閃而過,隨后便遠遠地把你拋在身后”。
如果給這句話打上一個補丁,把人工智能的應(yīng)用局限到一個一個的具體的封閉領(lǐng)域,這是一個很貼切的描述。我們不要過度自大,例如我們?nèi)菀自谧晕覂?yōu)越感的驅(qū)使下,說動物不如人,比如人會直立行走、會說話、會實用工具,以區(qū)別于其他動物。事實證明,動物也會。面對機器也一樣,就在幾個月前還有人叫囂機器十年內(nèi)不能夠玩轉(zhuǎn)圍棋,理由也都是人一眼就能看明白,機器只會計算。這些自大會讓我們誤判。也不用過于自卑,覺得圍棋上機器上勝利了人類整個智力就被碾壓了,到今天機器還是有很多領(lǐng)域完全無能,只能在局部領(lǐng)域。
到結(jié)尾,再說斷言二:除了圍棋,人工智能在其他博弈類的封閉游戲里,也會橫掃一切,完勝人類。