機器人殺手真來了?韓國研究AI武器 遭多國抵制!
本文系網易智能工作室(公眾號smartman 163)出品。聚焦AI,讀懂下一個大時代!
【網易智能訊4月6日消息】據外媒報道,韓國科學技術院與韓國十大財團之一韓華集團旗下韓華系統公司合作,于近期開設了人工智能研發中心,目的是研發適用于作戰指揮、目標追蹤和無人水下交通等領域的人工智能技術。
這引起業內專家的廣泛擔憂,目前,30個國家和地區的人工智能及機器人專家宣布將抵制研究人工智能武器的韓國科學技術院(KAIST),這由澳大利亞新南威爾士大學人工智能教授托比?沃爾什發起,美國和日本等30個國家和地區的研究人員4日簽署了一封公開信,敦促韓國科學技術院停止人工智能武器研發,他們稱這是加速機器人武器開發競爭的動向,令人遺憾,并表示如果該大學不承諾停止研發,將與之斷絕關系,而且將拒絕訪問韓國科學技術院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學承諾放棄研發缺少“有效人工控制”的武器。
網易智能注意到,這封聯名信中寫道:“自動武器一旦成熟,戰爭發展速度和規模將前所未有,它們可能會被恐怖分子利用。”發起聯名抵制的人工智能教授沃爾什告訴路透社記者,機器人和人工智能技術實際可以在軍事領域發揮有利作用,比如完成掃雷等威脅人類安全的任務,但我們不能將決定生死的權力交給機器,這就越過道德底線。
無獨有偶,Google內部流傳著一封聯名信,有3100多人在上面簽名,抗議谷歌為五角大樓提供人工智能力量,谷歌的員工希望谷歌CEO退出五角大樓的代號為Maven的項目,并宣布“永不開發戰爭技術”的政策。
業界評論認為,這家硅谷巨頭和美國政府之間的文化沖突將就此凸顯出來。
不僅僅只有聯名抵制韓國和抵制美國五角大樓,其實,早在今年3月,來自14個組織的26名研究人員對惡意AI所造成的危險進行了全面的報告。
他們為期兩天的會議產出了一份長達100頁的報告,內容是關于人工智能不良應用所帶來的風險以及降低這些風險的策略,工作組提出的四項建議中,有一項是“人工智能的研究人員和工程師應當謹慎對待其工作的雙重使用特性,在研究的優先級和規范中考慮相關使用不當所產生的影響,并在有害應用程序可預見時主動聯系相關的參與者。”
這一建議尤其適用于最近興起的“deepfakes”,主要把機器學習用于將好萊塢女演員的臉換接到色情演員的身體上(制作人工合成的假色情片),由Motherboard的Sam Cole最先報道,這些deepfakes是通過改編一個名為TensorFlow的開源機器學習庫來實現的,該庫最初由谷歌工程師開發,Deepfakes強調了機器學習工具的雙重使用特性,同時也提出了一個問題:誰應該使用這些工具?
盡管報告中特別提到了Deepfakes,研究人員還強調了將這種類似的技術用于處理世界領導人視頻所產生的危害,這會對政治安全構成威脅,這是研究人員考慮到的三大威脅領域之一,人們只需想象出一段虛假的視頻,比如特朗普宣戰以及由此引發的后果,就會明白這種情況的危險性。此外,研究人員還發現,通過數據分析和大規模有針對性的宣傳,利用人工智能技術,能實現前所未有的大規模監控,這是對政治領域考量的另一個側面。
另外兩個被認為是惡意人工智能的主要風險領域是數字和物質安全(physical AI?security)。
在數字安全方面,使用人工智能進行網絡攻擊將“緩解現有的攻擊規模和效率之間的權衡。”大規模的網絡攻擊可能會以人工智能的形式進行,比如大規模的網絡釣魚,或者更復雜的攻擊形式,比如使用語音合成來模擬受害者。
在物質AI威脅方面,研究人員觀察到物質世界對自動化系統越來越依賴,隨著更多智能家居和自動駕駛汽車上線,人工智能可能被用來顛覆這些系統,并造成災難性的破壞。此外,還有故意制造惡意人工智能系統所帶來的威脅,比如自動化武器或微型無人機。
其中一些場景,比如微型無人機所帶來的災難,似乎還很遙遠,而其他的一些,比如大規模網絡攻擊、自動化武器和視頻操控等,已經引發了一些問題。為了應對這些威脅,并確保人工智能被用于造福人類,研究人員建議開發新的政策解決方案,并探索不同的“開放模式”以降低人工智能的風險。例如,研究人員認為,中央訪問許可模式(central access licensing models)可以確保人工智能技術不會落入壞人之手,或者建立某種監控程序來密切記錄人工智能資源的應用途徑。
報告寫道:“目前的趨勢強調了對前沿研究和發展成果的廣泛開放,如果這些趨勢在未來5年持續下去,我們預期攻擊者用數字和機器人系統造成危害的能力會顯著提高。”另一方面,研究人員認識到,開源人工智能技術的擴散也將越來越多地吸引決策者和監管機構的注意,他們將對這些技術施加更多限制,至于這些政策應該具體采取何種形式,必須從地方、國家和國際層面上加以考量。
報告總結說:“這份報告的合著者之間仍然存在許多分歧,更不用說世界上不同的專家群體了,隨著各種威脅和反饋被發現,在我們得到更多的數據之前,這些分歧不會得到解決,但這種不確定性和專家分歧不應阻止我們在今天盡早采取預防措施。”
所以,馬斯克們所代表的AI威脅論是占據上風了嗎?對此,你怎么看?
關注網易智能公眾號(smartman163),獲取人工智能行業最新報告。