現代戰爭商業化背后,禁止殺手機器人已來不及
本文系網易智能工作室(公眾號smartman 163)出品。聚焦AI,讀懂下一個大時代!
【網易智能訊 8月26日消息】專家呼吁在機器人技術和人工智能領域禁止“機器人殺手”(又名“致命自動武器系統”),對此,有一種回應是:你不應該早點考慮這個問題嗎?
包括特斯拉的首席執行官埃隆?馬斯克在內的116位專家都在呼吁這一禁令。他們說,“我們不久就采取行動?!薄耙坏碾y之源被打開,就很難關閉。”但是,這種系統已經存在,比如由BAE和其他公司開發的“無人駕駛的作戰飛機”塔拉尼斯”,或者由三星制造的部署在韓國邊境的自動SGR-A1哨兵槍。自動駕駛坦克已經開始運行,而人類對致命無人機的控制只是程度的問題。
馬斯克
然而,機器人殺手實際上陪伴我們的時間跟機器人一樣長。1920年卡雷爾?恰佩克(Karel apek)的戲劇RUR(羅莎的通用機器人)讓我們認識了這個詞(在捷克語中意思是“勞動者”)。他的仿人機器人由同名公司制造,用于工業工作,反抗和屠殺人類。從電視劇《神秘博士》到電影《終結者》,他們一直都在這么做。機器人電影以及故事幾乎沒有好的結局。
如果機器人的末日不降臨的話,馬斯克和他的聯名簽署人提出的問題就很難想象了。即使我們只知道其中一臺機器將會失靈,而歐美妮消費者產品的警察機器人在機器戰警中將會帶來混亂的后果。
這樣的暗示似乎可以讓人想到一個致命的嚴肅話題。關于機器人世界末日的故事可能并不完全是開玩笑的,盡管它們利用了人類根深蒂固的恐懼,但這些故事終究是娛樂。不過,對于這樣一場辯論來說,要接受科幻電影所講的東西,實在太容易了。隨之而來的暗示是,只要我們避開那些真正糟糕的技術,一切都會好起來的。
就像法律專家們認識到的那樣,這些問題會變得更加復雜。一方面,他們更加擔心也更加著急的是機器人的道德問題;另一方面,他們關注的是現代戰爭的本質及其商品化。
我們如何使自主技術系統變得安全,有職業操守呢?避免機器人對人類造成的傷害是在艾薩克?阿西莫夫導演的電影《I,Robot》中探索出的問題所在,這組短篇故事集非常有哲理,因此阿西莫夫的三個機器人定律有時會被人們討論――就好像它們有牛頓的三種運動定律一樣。具有諷刺意味的是,阿西莫夫的故事主要是這種積極的定律如何被環境所破壞。
在任何情況下,道德問題都不可能輕易地被制定為“一刀切”的原則。歷史學家尤瓦爾?赫拉利指出,無人駕駛汽車將需要一些規則來決定如何應對不可避免的或者可能致命的碰撞:機器人試圖拯救誰?尤瓦爾?赫拉利說,我們可能將會得到兩種模式:利己主義者(優先考慮司機)和利他主義者(這把別人放在第一位)。
在2012年人權觀察組織的一份關于殺手機器人的報告中,有一些科幻的偏見。報告稱:“區分恐怖的平民和危險的敵人需要士兵去理解人類行為背后的意圖,這是機器人做不到的?!贝送?,“機器人不會受制于人類情感和同情,這可以為殺戮平民提供重要的檢查。”但是,第一個說法是對信仰的陳述――機器人用生物識別技術難道不能比一個使用本能的受驚士兵做出更準確的評估嗎?至于第二種說法,你會認為:有時候當然會。其他時候,戰爭地區的人們肆意強奸和屠殺。
這并不是要反駁報告中對自動機器人士兵的恐懼,我也恐懼。相反,它讓我們回到了關鍵問題,這不是技術問題,而是戰爭。
我們對戰爭道德的敏感度已經是武斷的了。人權觀察表示:“完全自主武器的使用引發了嚴重的問責問題,這將侵蝕另一種固有的平民保護工具。這是一個公平的觀點,但不可能在任何一致的倫理框架下適用,而核武器在國際上是合法的。”此外,無人機戰爭、士兵提升技術和不能被分解的“人機大戰”的定律之間還有一個連續性。
自動化軍事技術的問題與戰爭本身的變化本質密切相關。在這個恐怖主義和叛亂的年代里,戰爭不再有開始或結束、也不再有戰場或軍隊:正如美國戰略分析家安東尼考斯曼所說:“現代戰爭的教訓之一就是戰爭不再被稱為戰爭。”無論如何,這都不像是諾曼底登陸。
戰爭總是使用最先進的技術,“殺手機器人”也一樣。你可以肯定的是有人從中獲利。
無論如何,讓我們試著抑制我們最糟糕的沖動:把犁頭打成刀劍,告訴國際軍火貿易他們不能制造殺手機器人就像告訴軟飲料制造商他們不能生產橙汁一樣。(選自:The?Gardian編譯:網易見外智能編譯平臺?審校:韓茹雪)
關注網易智能公眾號(smartman163),獲取人工智能行業最新報告。