馬斯克等 26 國 AI 技術領袖公車上書,要求聯(lián)合國禁止“殺人機器人”的研發(fā)與使用
“殺人機器人”,似乎已被公認是下一輪軍用技術的制高點。全球中美俄英法韓等主要軍事大國,紛紛加大研發(fā)投入,爭相打造無需人類駕駛員、操縱者的“鋼鐵雄師”。但同時,這引發(fā)的倫理爭議與安全擔憂日漸升溫。一批機器人和 AI 領域的專家、企業(yè)家以及技術領袖,正呼吁聯(lián)合國禁止“殺人機器人”的開發(fā)和使用。
雷鋒網(wǎng)消息,今日, 來自 26 個國家的 116 名專家,由馬斯克和 DeepMind 聯(lián)合創(chuàng)始人 Mustafa Suleyman 領頭,發(fā)布公開信正號召全面禁止自主武器。
Elon Musk
Mustafa Suleyman?
聯(lián)合國最近已投票通過開啟對此類軍用武器的正式討論,這包括自主化的無人機、坦克、機關槍。馬斯克等這批人已向聯(lián)合國提交一份公開信——希望在此時,即正式討論開始前進行呼吁,推動聯(lián)合國制定決議制止這波全球已經(jīng)開啟的“殺人機器人”軍備競賽。
在公開信中,這批技術領袖們對將主持該討論的聯(lián)合國常規(guī)武器會議警告稱,
這輪軍備競賽極有可能導致“人類戰(zhàn)爭形式發(fā)生第三次革命”,
前兩次分別由火藥和核武器引發(fā)。他們寫道:
“一旦研發(fā)出來, 致命自主武器將使未來戰(zhàn)爭擴大到前所未有的規(guī)模,戰(zhàn)爭進展的速度也將超過人類對時間的理解。 這類武器很有可能成為恐怖的代名詞,獨裁者、恐怖分子能把它們用到無辜平民上,也有可能被黑客利用,讓自主武器做出我們不希望看到的行為。
留給我們做出行動的時間并不多。一旦這個潘多拉魔盒開啟,關上就難了。”
此前,AI 專家曾警告,以現(xiàn)在的人工智能技術和發(fā)展速度,部署全自主武器將在幾年內變得可行。雖然,AI 武器能讓戰(zhàn)場對軍隊服役人員來說變得更安全——更多人不需要上前線;但專家們擔心能自主行動的進攻性武器, 將極大降低戰(zhàn)爭的門檻 ,導致更大量的人類傷亡。
該公開信在今天 IJCAI 的開幕致辭上公布,得到了機器人以及 AI 領袖不少知名專家學者的支持。公開信全文以及署名者名單 見此 。他們強調做出緊急行動的重要性, 尤其聯(lián)合國把討論該問題的會議時間推遲到了今年 11 月,原計劃是今天。
雷鋒網(wǎng)了解到,這批聯(lián)合署名公開信的專家,呼吁把“在道德倫理上站不住腳”的致命自主武器系統(tǒng), 加入聯(lián)合國自 1983 年生效的特殊常規(guī)武器大會 (CCW) 武器禁用名錄。 后者包括化學武器以及蓄意以致盲為目的的激光武器。
新南威爾士大學人工智能教授?Toby Walsh 對此表示:
“幾乎所有技術都有兩面性,AI 同樣如此。
它能幫助我們解決許多當前面臨的社會問題:不平等、貧困、氣候變化帶來的挑戰(zhàn)以及仍未消退的全球金融危機。但是,同樣的技術也能用到自主武器上,讓戰(zhàn)爭(進一步)工業(yè)化。
我們需要在今天做出決定,到底什么樣的未來才是我們想要的。”
大家很熟悉的馬斯克是該領域的活躍人物。他很早就對前瞻性的 AI 政策立法進行了多次呼吁,把人工智能說成是人類的頭號生存威脅。馬斯克的說法造成很大爭議,不少頂級學者以及意見領袖表達了不同觀點,包括 Ray Kurzweil 與扎克伯格。不少公眾可能認可 AI 對人類社會有很大破壞潛力這一說法,但同時認為真正造成“破壞”還離得遠。
Clearpath Robotics 創(chuàng)始人 Ryan Gariepy 表示:
“與其它科幻小說里的 AI 潛在應用不一樣,自主武器系統(tǒng)研發(fā)正處在一個拐點,它對無辜平民造成殺傷的威脅非?,F(xiàn)實,也有可能造成全球不穩(wěn)定。”
AI 頂會?IJCAI 被專家們用作討論致命自主武器系統(tǒng)的論壇,已經(jīng)不是第一次了。 ?雷鋒網(wǎng) (公眾號:雷鋒網(wǎng)) 曾報道,兩年前,包括馬斯克和霍金在內的數(shù)千名 AI、機器人專家以及行業(yè)領袖在該大會上簽署了另一封公開信,呼吁與今天相似的武器禁令。 這推動了聯(lián)合國對致命自主武器開啟正式討論。
核武器的威脅還未解決,人類又將面臨另一個自己制造出來的生存威脅。
via? the Guardian
雷鋒網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見。