欧美中文字幕第一页-欧美中文字幕一区-欧美中文字幕一区二区三区-欧美中文字幕在线-欧美中文字幕在线播放-欧美中文字幕在线视频

“MacAuthur天才獎” Dawn Song:當攻擊者也用 AI 對付安全,我們怎么辦

我是創始人李巖:很抱歉!給自己產品做個廣告,點擊進來看看。  

雷鋒網編者按:深度學習在很多領域都取得了巨大的進步,深度學習也讓我們的日常產品功能變得更強大。但是,人工智能也會帶來相應的問題。在由騰訊2017 中國互聯網安全領袖峰會(CSS)中,“MacAuthur天才獎”“世界杰出青年創新家”等獎項獲得者、國際四大安全會議論文數第一的 Dawn Song介紹了一些在 AI 和網絡安全領域經常遇到的挑戰,AI 如何來賦予我們能力,AI 如何幫助安全。

以下是她的演講記錄,雷鋒網編輯在不影響原意表達的基礎上略有刪減和整理。

“MacAuthur天才獎” Dawn Song:當攻擊者也用 AI 對付安全,我們怎么辦

[Dawn Song]

一、深度學習如何解決 IoT 設備的安全問題

深度學習已經改變了安全形勢和安全能力,深度學習能夠使我們的認知系統變得更加強大,能夠廣泛的部署在各種產品當中,而且它能夠讓我們獲得新的能力,更好識別惡意軟件、欺詐。現在,我們已經進入到一個新物聯網時代,今后幾年,數十億聯網設備將被部署在其中,今天我要給大家來介紹一下我們最近的工作—— 深度學習如何幫助我們解決 IoT 設備的安全問題。

IoT 設備可以在不同的硬件平臺上部署。與此同時,我們也會有開源代碼軟件,它們可能會有一些共同的漏洞。當我們發現了一個新漏洞,如何掃描這些不同的 IoT 設備的固件?如何識別這些 IoT 的設備?是不是能夠去除掉這些漏洞?這是具有挑戰的問題。

我們可能會有不同的固件,而且它們是在不同的平臺上進行部署。而我們現在只有這些固件的二進制代碼,雖然說它們可能會有同樣的開源代碼,但是也會有漏洞。固件的功能又不一樣,我們如何確保不同的功能固件獲得同樣的語義?如何發現這些不同固件的功能?如何識別一些共同的弱點和漏洞?

我們首先會獲得一個固件的文件,看到漏洞,進行特征提取。之后識別,并且分析這些功能從語義角度上是不是相似。在這個案例中,就是使用深度學習進行嵌入,而這樣的嵌入都是多維度的。計算機可以使用深度學習讓嵌入變得相似。如果兩個功能有著相似的語義,它的功能就變得相似。

我們有代碼圖形,也會從這個代碼圖形當中提取一個高維數據。也會有端到端的培訓方法,如果這兩個代碼圖形是來自于相似的功能,那么計算機就會獲得一個語義學的相似性。在我們的研究當中,之前的方法可能需要花費幾分鐘的時間來進行功能評估。而現在基于深度學習,卻只需要幾毫秒。

從培訓時間看,之前我們可能會花費一周多來進行培訓,而現在我們只需要不到 30 分鐘就能完成。對于漏洞識別,我們的方法也能提供更加高的準確度。比如,在前 50 個高漏洞威脅中,42個是確定有漏洞的,比之前的漏洞識別準確率高很多。

下一步,AI 也將會帶來更高的安全能力,而事實上,AI 可以顛覆很多不同的域名,包括安全領域。在補丁和防護措施的建立上,它都能夠起到很大作用。不管你是打游戲還是下圍棋,我們都可以通過 AI 來識別潛在的攻擊,另外 AI 也能夠幫助更好實現自動化。比如,在驗證軟件安全時,都可以利用 AI 來實現自動化。

二、AI 提升安全性能,但攻擊者也用 AI

安全和 AI 其實可以互相促進。談到開發 AI 系統時,必須要把 AI 放在攻擊者的角度來進行考慮。歷史已經告訴我們,攻擊者一直都會跟隨我們全新開發的技術的腳步,有時甚至會引領。

現在我們面臨的風險在 AI 領域會更高,因為 AI 會控制越來越多的體系和系統。當我們開發出更高的 AI能力時,如果一個攻擊者濫用或者利用 AI 的話,后果會更嚴重。

當我們開發 AI 系統時,必須從攻擊者的角度來進行思考。這時,我們會看到有兩個不同的問題。第一,攻擊者如何來攻擊 AI,讓系統做出錯誤的決策,或者攻擊者可以根據自己的目的來設計最后的結果。所以,我們要提升學習的系統,建筑防火墻,我們也需要有更好的安全系統再嵌入到深度學習的體系中。

另外,攻擊者也可以濫用 AI,利用 AI 來攻擊其他的體系。比如,找到其他系統中的漏洞和弱點,這樣來開展更具有難度的攻擊,所以我們的學習系統也必須有更好的安全性。

在之后的演講中,我將介紹攻擊者如何來進行 AI 的攻擊。

雖然,深度學習系統已經取得了如此巨大的進展,但是,深度學習的系統也很容易被混淆。你可以看到,左邊是最初的一些圖像,它是通過我們的圖像識別系統進行的歸類識別,右邊是一個對抗的樣本,而這樣對抗的樣本是攻擊者來運作的。這些圖像非常小,肉眼根本就看不太出來。

但是,對抗的樣本會讓我們圖像識別系統進行錯誤的識別。比如,本來不是鴕鳥而識別成了鴕鳥,這是谷歌的研究者所發現的一個深度學習的弱點。

為什么這是一個非常重要的問題?比如,我們現在有自動駕駛汽車,這個汽車需要根據周邊的環境做出決策。比如,它會看交通燈,來確定這到底是一個停車的標志還是一個其他的標志,從而對車發出指令。

對人類的眼睛而言,這些交通燈代表著一定的意義。但是,一些故意制造出來的對抗樣本會誤導電腦系統,讓系統錯誤決策。這樣的攻擊不僅會在現實世界中發生,而且也會從不同的距離或者不同的視角影響到交通標志的識別。

這樣的問題會帶來非常嚴重的后果。當我們開發機器人或者是自動駕駛時,很容易受到攻擊。

最近,我們做了一些關于對抗樣本的研究,涉及到不同類型的深度學習。我們得出的結論就是:對于對抗樣本的問題,在不同類型的深度學習系統中都是普遍存在的。比如,在深度模型、深度學習、圖形選擇、圖形到代碼、黑箱攻擊中,都會存在這樣的對抗樣本的問題。

對攻擊者來說,他可能會知道學習系統的一些具體內容,包括樣本和圖像。另外,他也會知道什么時候可以啟動黑箱攻擊,攻擊者不需要知道你的模型是什么,或者你的培訓數據是什么,就能發動這樣的黑箱攻擊。

接下來的一個例子是我們最近開展的一項工作,講到的是這個問題如何會帶來非常嚴重的安全問題。在這個例子當中,我們關注的是一種叫做生成性模型的學習系統。這種模型包括兩個步驟,第一個是它的編碼過程,另一個是解碼過程。

在這樣的生成性模型中,輸入會進入到一個編碼階段,然后會生成一個潛在表,然后會進入一個解碼的過程,進行一個重構。為什么我們對這樣一種模型感興趣?對于生成性模型而言,有一個例子就是圖像壓縮,現在圖像壓縮已經達到很高的水平。

對抗樣本如何通過這樣的圖形壓縮帶來非常嚴重的問題?

現在我們使用了很多攝像頭,安全攝像頭會收集圖像,對圖像進行壓縮,存儲壓縮的圖像,扔掉原來的圖像。如果攻擊者可以生成原來輸入的一個對抗樣本,比如,第7個圖像生成這樣一個對抗樣本,那么第7個圖像經過壓縮后,這個壓縮圖像再被解壓縮時,原來的圖像就是一個對抗樣本,這時對象樣本就會被解壓縮出來,但是它和原來的圖像是完全不一樣的。

在這種情況下,對于攻擊者來說,他們會對這個圖像來進行壓縮。現在有了這樣一個對抗樣本,最終解壓縮的圖像可能完全不同于原來的圖像。

這樣的對抗樣本會帶來非常嚴重的問題。

我們看看這樣的對抗樣本在生成模型中如何形成對圖像的壓縮。這是一個標準的圖像集,左下角是原來的圖像,是一個手寫的數字,右邊是對原來圖像的重構,這個重構的圖像看起來和原來的圖像非常像。

這是 Google 的數據,攻擊者可以生成一個樣本進行重構,重構之后,和目標圖像也非常類似。這是我們的數據集,大家可以看到,對于攻擊者而言,可以創建非常成功的對抗樣本,再經過解壓或者重構之后,對于解構出來的對抗樣本,和原來的樣本非常類似。

在過去的幾年,我們也提出了很多防衛措施。比如,有 100 多篇論文提出了不同類型的防衛措施應對這樣些對抗樣本的問題。但是,現在我們并沒有有效的防衛措施應對對抗樣本的攻擊,比如,那些特別強的攻擊者,我們無法應對。有時即使我們想要去解構,即使我們想要完全模擬這樣的對抗樣本,也無法找到非常強大的防衛措施。

攻擊者還可以對抗機器學習,在培訓時就進行攻擊,攻擊者可以讓你的培訓集中毒,可以讓你的學習系統學習一個錯誤的模型。對抗型的機器學習對安全應用來說相當關鍵。

三、面臨的挑戰

安全應該是 AI 領域非常重大的一個挑戰。我們也需要考慮如何能夠為學習系統建立一個更加安全的體系,我們需要從不同的層面來考慮學習系統的安全,包括軟件學習,還有分發層。在軟件層面,我們的目標就是為了確保不存在任何軟件的安全隱患,不讓攻擊者影響到我們的學習系統,或者是控制學習系統。

更為重要的,以及非常具有挑戰性的是在學習層面,以及在分布層面的挑戰。

首先我們看一下在學習層面的安全所面臨的挑戰。

在學習層面加強安全性,首先我們需要去了解復雜類、非符號的一些程序。現在我們對于符號性的程序非常熟悉,主要就是 OS 或者是文件系統、編輯器、網絡應用或者移動應用等等。在這方面,我們也有數十年的經驗,也有很多的工具分析這樣的符號性推理。比如,有解算器、SMT 以及抽象解釋這樣的方法。現,我們已經進入了一個正式的驗證系統時代,都是基于數十年的經驗總結,也是基于多個團隊努力的結果。

對于自動駕駛汽車,我們希望確保自動駕駛汽車不會軋到人。但是對于人的定義來說,好像現在我們還沒有一個具體明確的安全上的概念。對于這樣一個學習系統如何運行,我們也知之甚少,對于深度學習如何使用,我們也知之甚少。如何告訴這些系統怎么樣行為,以及如何來解答一些問題,都是知之甚少的。更大的問題是,對于傳統的一些符號推理的技術,并不適用于機器學習、深度學習,現在我們需要努力解決這些問題。

另外一個挑戰是:我們需要開發新的網絡特征,才能夠實現更好的泛化和安全的保障。之前我們也提到過,雖然深度學習的體系已經取得了這么大的進展,但是遺憾的是,我們卻不能很好了解他們將會如何表現,包括在以前沒有遇到的一些狀況下,他們將會如何反應,這就是一個泛化的問題。

在這里我給大家一些具體的例子,是我們最近開展的工作,可以看看我們如何開發更好的神經網絡特征,才能實現更好的泛化和安全保障。

這樣的應用領域就是神經程序合成,我們要培訓這些神經的體系,包括讓它們進行計算,幫助他們來進行分類,我們也是從 Google,還有 Deep Mind 吸取經驗,開發不同的神經網絡特征。

但是,遺憾的是,對所有的這些特征,有兩個重要的挑戰:第一個是所有的以前的方法沒有實現很好的泛化。也就是說,當你培訓這個神經系統時,比如,做三位數的加法,它沒辦法正確做出。三位數和六位數做加法的方法都是不一樣的;第二個問題就是當你來測試這樣的神經程序時,他們能夠正確解決問題。比如。它能夠做六位數的加法,但是我們不能夠保證這樣的一個神經網絡當面臨做 6+1的計算的時候,它將會如何進行反應。所以我們需要開發出一個新的方法來解決剛才提到的兩個問題。

我們的方法就是要進行神經項目架構的泛化,所以要考慮它的架構,并且對它進行很好的培訓。通過采取這樣的方式,我們能夠解決兩個之前提到的問題:第一,我們可以使用規劃和循環的方法,來實現既定的目標。當我們的神經程序通過這樣一個認知驗證之后,它能夠使用遞歸循環的方式,就能夠證明這樣一個神經程序很好的進行泛化。也就是說,它們能夠正確的進行運作,這是之前的方法沒有辦法來實現的;第二,我們希望使用這樣遞歸循環泛化神經時,可以通過遞歸循環泛化神經來進行一個程序架構的設計。

遞歸循環能夠為神經程序提供保障,證明通過驗證程序的學習遞歸泛化,測試可能的技術案例和還原的規則。

另外,當我們在開發新的神經網絡特征時,也可以尋找新的架構和方法,促進強大的泛化和安全保證,進行遞歸、神經模塊和神經架構,更容易推理、模塊和泛化。我們也可以開展一些機器人的工作,包括我們如何來開發新的神經網絡的特征,來實現更好的泛化,還有安全的保證。

到目前為止,我只提到了幾個例子,這些都是非常重要的挑戰,包括在學習這個層級的學習系統的挑戰。這個名單非常長,我只能給大家選取其中的兩個例子。從本地的層面來講,其實會有很大的挑戰,我們如何來確保每個媒介能夠做出本地的決策,如何讓好的本地決策帶來良好的全球決策。

現在我們看一下攻擊者會如何來襲擊 AI,這是一個非常重要的問題。當我們來開發新的 AI 能力的時候,攻擊者也可以來誤導 AI,包括誤導他們去找到其他系統當中的漏洞,或者是開展更加具有殺傷性的襲擊。

總的來講,我也給大家介紹了一些現在尚未解決的問題,還有 AI 和安全的問題。我想說,基于我 20 多年的研究經驗,包括在計算機安全領域的經驗,我想告訴各位,我們現在面臨的問題和挑戰其實都是最為嚴重的一些問題。當我們開發 AI 體系的時候,安全就必須要放在 AI 系統里。

另外我也深信,安全將會成為最為應用 AI 時的重大挑戰之一。因此,我們需要在最開始就把安全納入到AI 系統當中,保護 AI 的安全非常重要。

應對未來的 AI 和安全挑戰,我們如何更好地理解安全的含義?AI 和學習系統如何建造一個更加靈活的體系進行防衛?如何做出正確的決策來確保安全的 AI?這些都是非常激動人心的開放問題。我想這一切都至關重要,當我們進軍 AI 和安全領域時,我們應該統一考慮。

雷鋒網 (公眾號:雷鋒網)

隨意打賞

提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 激情爱爱视频 | 女性一级全黄生活片免费看 | 在线精品日韩一区二区三区 | 国产毛片久久久久久国产毛片 | 九九九九热精品视频 | 荔枝污| 97高清国语自产拍免费 | 欧美精品成人一区二区在线观看 | 综合色爱 | 91福利免费 | 精品综合久久久久久99 | 久久精品视频1 | 四虎视频在线精品免费观看 | 婷婷免费高清视频在线观看 | 久久精品一区二区三区不卡牛牛 | 欧日韩在线不卡视频 | 99热久久这里只有精品99 | 国产精品99久久久久久夜夜嗨 | 尤物视频在线观看视频 | 国产亚洲精品91 | 国产精品久久九九 | 国产99在线播放免费 | 四虎影视亚洲精品 | 亚洲综合色播 | 欧美一级免费大片 | 日韩欧美视频一区二区在线观看 | 最近手机中文字幕1页 | 久久精品爱 | 手机看片神马午夜片 | 国产在线一区视频 | 久久高清一区二区三区 | 奇米成人网 | 欧美日韩综合高清一区二区 | 欧美男女性生活视频 | 欧美成人午夜做爰视频在线观看 | 一级一级 a爱片免费视频 | 婷婷网五月天天综合天天爱 | 国产精品爱久久 | 久久精品国产第一区二区 | 成人免费一级片 | 久久网综合 |