霍金又來警告人類了
受益于人工智能進行交流的史蒂芬·霍金一次次地向人們警告,人工智能很危險。
在接受美國王牌脫口秀主持人拉里·金(Larry King)的采訪時,這位英國物理學家表示,人工智能進化的速度比人類的角度更快,而這種進化可能朝著人們無法預知的方向發展。
我不認為人工智能的進化必然是良性的。一旦機器人達到自我進化的階段,我們就無法預測它們的目標是否與我們一致。
人工智能究竟是天使還是惡魔?盡管業界各執一詞,但存在這樣一個共識:人工智能不能墮為一種專制力量,人類必須確保需人工智能的設計符合道德倫理規范。
說白了,就是技術不能落到壞人手上了。
于是避免人工智能失控的組織出現了——未來生命研究所(Future of Life Institute),這個由?Skype 聯合創始人 Jaan Tallinn 和麻省理工學院教授 Max Tegmark 主導的組織,在去年召集了一眾人工智能領域的專家簽署了一封公開信:
我們認為,人工智能技術的健康發展,和給人類文明帶來更多益處同樣重要。我們發展人工智能系統必須在可控范圍之內。
簽署這封公開信的就有 Elon Musk 和霍金。
有趣的是,Elon Musk 曾在一次公開訪談說道:
就像所有的神話中畫著法陣捧著圣水的邪惡巫師一樣,每個巫師都聲稱自己可以控制惡魔,但沒有一個最終成功的。