聽說過刷臉能付款,不知道還能辨認(rèn)出恐怖分子和戀童癖!這家初創(chuàng)公司的人臉識(shí)別技術(shù)就是這么厲害!
我們的面部,泄露的信息比我們以為的要多得多。
一家以色列初創(chuàng)公司宣稱,能掃一眼人臉就鑒別出人眼所發(fā)現(xiàn)不了的性格特征。
這家公司名為Faception,已與某國土安全機(jī)構(gòu)簽下合約,幫助識(shí)別恐怖分子。該公司稱其技術(shù)也可用于識(shí)別出從超級撲克玩家到外向性格者、戀童癖、天才和白領(lǐng)罪犯之類形形色色的人。
“我們對人類的認(rèn)知,比其他人相互間的認(rèn)知要好得多。”Faception首席執(zhí)行官沙伊·吉爾伯(Shai Gilboa)說道,“我們的個(gè)性是DNA里就帶著的,并且反映在臉上。那就是種信號?!?/p>
Faception建立了15個(gè)不同的分類器,對特定人格特征具有高達(dá)80%的評估準(zhǔn)確率。
該初創(chuàng)公司看出了用機(jī)器進(jìn)行圖像分析的巨大前景,正在穩(wěn)步向前邁進(jìn)。
不過,專家們也提醒說,此類技術(shù)的有效性尚存有倫理問題和一些深層次的限制。
華盛頓大學(xué)計(jì)算機(jī)科學(xué)教授,《主算法》(The Master Algorithm)作者,佩德羅·多明戈斯(Pedro Domingos)發(fā)問道:“我總不能看一眼你的臉,然后預(yù)測說你是個(gè)殺人犯,就逮捕你吧?你可以從中看出這是多么地有爭議性。”
吉爾伯稱,自己同時(shí)還兼任公司首席道德官,永遠(yuǎn)不會(huì)讓預(yù)測負(fù)面特質(zhì)的分類器流向公眾。
危險(xiǎn)在于計(jì)算機(jī)系統(tǒng)的不完整性。因此,吉爾伯希望政府將他的發(fā)現(xiàn)與其他來源納入考量,更好地識(shí)別恐怖分子。但即使如此,數(shù)據(jù)的使用還是有些麻煩。
“這些判斷具有準(zhǔn)確性的證據(jù)還是相當(dāng)弱的?!毖芯糠秶依嗣娌扛兄钠樟炙诡D大學(xué)心理學(xué)教授亞歷山大·托多羅夫(Alexander Todorov)說,“正如我們100年前以為面相學(xué)終結(jié)了一樣。”
最近,F(xiàn)aception在共有投資人名下的另一家初創(chuàng)公司組織的一場撲克錦標(biāo)賽上,展示了自己的技術(shù)。吉爾伯稱,F(xiàn)aception在賽前就預(yù)測了50位業(yè)余玩家中的4位是最棒的。當(dāng) 賽果 塵埃落定,其中3位果然擠進(jìn)了前三甲。為做出這個(gè)預(yù)測,F(xiàn)aception將這50位玩家的照片與職業(yè)撲克玩家數(shù)據(jù)庫里的照片進(jìn)行了比對分析。
想要用人工智能系統(tǒng)做 出類 似的結(jié)論并不容易。被訓(xùn)練來分析圖像的計(jì)算機(jī)只會(huì)針對被訓(xùn)練的范例表現(xiàn)良好。如果該計(jì)算機(jī)的訓(xùn)練數(shù)據(jù)集只是少量的過時(shí)數(shù)據(jù),它做出的結(jié)論就會(huì)有偏差。另外,還有一種風(fēng)險(xiǎn)是,系統(tǒng)會(huì)做出準(zhǔn)確的預(yù)測,卻不是基于正確的理由。
多明戈斯,這位華盛頓大學(xué)的教授,還舉了個(gè)某學(xué)院訓(xùn)練計(jì)算機(jī)系統(tǒng)來區(qū)別狗和狼的例子。測試表明,那套系統(tǒng)幾乎100%準(zhǔn)確。但成功的真相卻是,這臺(tái)計(jì)算機(jī)學(xué)會(huì)了從照片背景中找積雪來判斷是不是狼。所有狼的照片都是在冬天拍攝的,而狗狗的照片則不是。
而且,人工智能系統(tǒng)在可被人類隨意改變的特征上也會(huì)出現(xiàn)零準(zhǔn)確率的事件——比如有沒有胡子。這也限制了人工智能做出準(zhǔn)確預(yù)測的能力。
“如果有人到我面前說,‘我弄了個(gè)公司可以嘗試做到這一點(diǎn)’,那我對他們的回復(fù)可能是,‘算了吧,做點(diǎn)其他更有前途的事比較好。’”多明戈斯說,“但另一方面,機(jī)器學(xué)習(xí)又每天都在給我們帶來驚喜。”