Facebook和谷歌在AI研究上聯手了,這或許將開啟一個新的合作時代

【編者按】Facebook的開源機器學習框架PyTorch,一直都將“老大哥”谷歌TensorFlow作為追趕的目標,但這種競爭的結局并不只有一個勝利者。近日,PyTorch和谷歌 TPU 的合作從某種角度上代表著 人工智能 研究的進一步發展,合作才是主流的聲音。
本文轉載自網易智能,原文作者William Falcon ,由網易智能編譯。
上周二,Google和Facebook宣布,使開源機器學習框架PyTorch與Tensor-Processing Units(TPU)進行合作。這種伙伴關系標志著人工智能研究合作進入新時代。
“今天,我們很高興地宣布,Google TPU團隊的工程師正積極與PyTorch核心開發人員合作,將PyTorch與Cloud TPU連接起來。長期目標是讓每個人都能享受PyTorch的簡便性和靈活性,同時能夠從Cloud TPU的性能、可擴展性和成本效益上獲益。”Google產品總監Rajen Sheth說道。
PyTorch是Facebook的開源框架,可以開發人工智能研究中使用的數學程序。這樣的框架允許研究人員開發任意復雜的數學計算圖并自動計算衍生產物。
TPU是由Google專門為AI系統設計的計算機芯片。據Google描述,TPU比傳統的圖形處理單元(GPU)快15到30倍。
PyTorch有什么新功能?
近日,Facebook發布的 深度學習框架 PyTorch 1.0主要有三大更新:
一是添加了一個新的混合前端,支持從 Eager 模式到圖形模式的跟蹤和腳本模型,以彌合研究和生產部署之間的差距。
二是一個經過改進的 Torch 分布式庫,可以在 Python 和 C++環境中實現更快的訓練。
三是添加了針對關鍵性能研究的 Eager 模式 C++接口,將在測試版中發布。
目前,研究人員和工程師必須面對許多框架和工具,以創建新的深度學習模型并將其轉移到生產環境中大規模運運行,而這里多數框架和工具通常是不兼容的。如此,將會降低開發者在規模化生產中部署 AI 能力的速度。通過這個最新版本,將現有 PyTorch 框架的靈活性與 Caffe2的生產能力結合,提供從研究到生產性 AI 的無縫路徑。
Google的TPU有什么優勢?
雖然 TPU 是一種專用集成電路,但它運行的程序來自 TensorFlow 框架下的神經網絡,驅動了谷歌數據中心的許多重要應用,包括圖像識別、翻譯、搜索和游戲。通過專門為神經網絡重新分配芯片計算資源,TPU 在真實數據中心負載環境下效率要比通用類型的計算機高30-80 倍,目前已為全球 10 億人提供日常服務。
另外,神經網絡的推理階段通常會有嚴格的響應時間要求,這降低了通用計算機所使用技術的有效性;通用計算機通常運行得較快,但某些情況下也會較慢。
為什么Pytorch與TPU建立連接很重要
將GPU上的大量數據與神經網絡訓練結合是當前深度學習系統成功的催化劑。可能需要花費數月訓練的神經網絡,在使用GPU訓練時,時間縮短到短短的幾個小時。隨著深度學習的成熟,神經網絡和數據集變得越來越大,這些網絡現在需要數月才能在GPU上進行訓練。
谷歌專有的TPU為這些龐大的系統提供了一種更快速的訓練方法。更快的訓練意味著研究人員可以更快地進行實驗,從而提高 AI研究 的速度。
為什么這種伙伴關系有利于人工智能研究
傳統上,Google和Facebook通過Google Deepmind,Google Brain和Facebook AI Research進行了獨立的AI研究。因此,人工智能工具生態系統已經在Tensorflow(谷歌的AI框架)與Pytorch的辯論中分立,雖然競爭使得兩個框架都以極快的速度發展,但其也使得研究在可重復性方面困難重重。
如果此公告標志著一種更加協作的AI研究方法,我們可能會看到這兩個框架之間的互操作性得到改善。此外,這樣的結果使得AI在智能手機上的部署更容易,也便于多種框架建構統一的工具生態系統,并改善研究結果的可重復性。
近年來,粵港澳大灣區在打造創新驅動新引擎,科技創新帶動資源集聚等方面著力頗多,創新機制、產業升級、人才引流、協同發展等帶來了多方面的機遇。相應的,人工智能、人才賦能正深刻地影響著商業步伐。
2018年10月18-19日,億歐將在深圳舉辦 “引擎·引領” 2018大灣區國際科創峰會(BATi) ,集合智能制造、智能產品、智慧城市、智慧安防、智慧交通等一眾熱點問題展開探討,分析科技創新未來趨勢,盤點技術革命下的發展契機。
報名鏈接:
https://www.iyiou.com/post/ad/id/664?herkunft=6648