從人工智能變成“人工智障”,聊天機器人殤在哪?

試想一下,一個靜謐的午夜,你和家人正在熟睡,家中突然響起毛骨悚然的笑聲,時遠時近,這困擾了大人,驚嚇了孩子。而這一切的怪笑,都是由 Alexa 發出的。作為Amazon的主推產品,Alexa這一動作讓許多用戶陷入恐慌之中。
目前,亞馬遜方面并沒有對此次Alexa出現故障的原因進行詳盡解釋,并且它強調這是在“極少數情況”下才會發生的,盡管網上反映的問題代表不了 Echo 的數千萬用戶,但可以看出亞馬遜對此事的態度其實不以為意。
類似的情況,在 聊天機器人 身上已經不是第一次發生。兩年前,微軟Twitter平臺的聊天 機器人 Tay變成了“種族主義者”,不到一年,它的后續產品Zo又再次出現問題。Zo將古蘭經稱作“非常暴力”,并且它認為抓住本·拉登“不止一個政府多年情報收集”的結果。
之前,Facebook關閉了虛擬助理「M」,團隊相關成員分散到其他部門任職。聊天機器人的發展,道阻且長。
一、智能機器人變成“人工智障”?
「我們可能都希望能生活在這樣的世界里:和機器人有著最自然的對話,它將一切任務都執行得完美無瑕。這一路走來確實不容易,而且說實話我們已經發展得很快了。」Politibot的Suárez認為:「但不幸的是,我們還沒有到那個理想的生活狀態,還要好幾年,機器人才能好到普羅大眾都能接受。」
然而,現實卻遠不及Suárez的預期,聊天機器人依然存在著眾多問題。2016年,Facebook Messenger開放其程序接口后,收到的用戶反饋卻遠不及預期。眾多機構確實可以在短時間內擁有自己的智能聊天機器人,但當此類機器人無人類干預時,這些機器人的應答失敗率高達70%,用戶體驗更是相當糟糕。
從“圖靈測試”到Eliza的精神治療,聊天機器人發展至今已經走過了近70年,在漫長的發展歷程中,聊天機器人并未得到真正的普及,現今依然存在著諸多弊病。
是誰讓聊天機器人變成了這樣?我們認為,是人類,更是機器本身。部分核心技術及適配性問題,依然是聊天機器人的阿喀琉斯之踵:
1、復雜語言識別困難
現代化聊天機器人的對話界面主要依賴于語音識別,從而根據用戶命令做出便捷迅速的反應,比如“下午三點去參加會議”、“今天的天氣怎樣”等。
語言作為一種主觀性較強的表達方式,人們說話的規則具有一定的變化性。 這和電腦程序不同,人們表達不會完全受制于規則,能夠自由的遣詞造句,并以此來傳遞信息。 除了地方方言外,每個人也會有自己的表達方式,例如心照不宣的“暗語”,或者某些特定的“梗”。這就需要聊天機器人“去陌生化”,僅僅完美keyword/keyword地理keyword/keyword解結構化語言的系統將難以滿足大量用戶的需求,這對聊天機器人的系統提出了更高的要求。
以Richard S.Wallac設計的Alice聊天機器人為例,其在中文處理問題上,就存在一些問題。這是因為漢語不像英語等語言,用空格或其他標記分詞,這就加大了ALICE對中文支持的難度。此外,其對于漢語分詞采用的一般匹配法、詞頻統計法、同義句的處理等方面也存在著許多技術難題。
2、個性化適配之痛
個性化適配的問題體現在兩個方面,一方面人機信任是聊天機器人個性化發展的一個重點攻堅點。調查顯示,許多公司領導對于聊天機器人處理待辦事項是并不看好的,聊天機器人程式化的語言會讓許多人覺得“乏味”、“沒有人氣”,這也是公司助理一職并未被取代的原因。
另一方面,聊天機器人很容易對人的需求產生誤讀。比如對Siri發出“ 區塊鏈 ”的指示,Siri提供的是關于區塊鏈的百度百科,這與用戶想要了解區塊鏈的最新發展動態的初衷大相徑庭。
目前聊天機器人語音識別主要基于語音識別的基本架構、聲學模型、語言模型并進行解碼,而真正通過用戶畫像來實現個性化適配的聊天機器人少之又少。 其實,不同用戶的性格、特點、知識層次都不相同,如果有預設的用戶畫像,那出現適配失誤的可能性也會大大減小。
縱觀歷史上機器學習能夠做到的事情,都是一些字符識別(OCR),語音識別,人臉識別一類的,這些稱之為“識別系統”。這些系統存在的問題在于難以變通,簡單的語音識別難以真正為用戶較為復雜的工作助力,線性的識別方式也難以適用于更開放式的應用場景。
3、隱私安全終成隱憂
Facebook爆史上最 大數據 泄露案,特朗普被指利用AI競選成功,這也讓更多的聊天機器人用戶對自身的隱私感到隱憂。 “Alexa發笑”事件中亞馬遜公司對于事件原因的閃爍其詞,似乎用戶數據已經進入了一個“圍墻花園”的模式。 語音分析和 人工智能 軟件存在于一個黑匣子中,而這些軟件只有硅谷的開發人員才能真正理解。很難想象,如果你將一切的智能家居與聊天機器人連接起來時,這一切都在一個你無法擁有也無法控制的計算機上控制著你的生活以及你的家。
作為語音識別領域的領軍人物,微軟于2016年也僅僅將錯誤率控制在5.8%左右。可是隨著人工智能進一步拓展到金融、醫療等領域,1%的錯誤率導致的可能是財產的損失和生命的安全。
此外,配套設施的不完善難以讓聊天機器人發展成了一個嚴密的體系,這使得初次試水的用戶對此頗有微詞。聊天機器人何時能夠完善到能夠大范圍普及,這也是產品長足發展需要認真思考的問題。
二、死地而后生,聊天機器人或許需要“洗心革面”
曾經火遍全球的索菲婭機器人最近攤上大事了。Yan LeCun(機器人專家)指責索菲婭與人類堪稱完美的聊天是一場徹頭徹尾的騙局,以目前人工智能的技術來看,此種對話是不可能達到的。然而能像人那樣自然地聊天的機器人一直以來都是機器人學者所追求的目標之一,這是一個漫長的過程。
而在2018年年初,Facebook關閉了虛擬助理「M」,這像是壓死駱駝的最后一根稻草,許多品牌對聊天機器人已經不再感興趣,聊天機器人的發展走進了一個死胡同。曾經熱極一時的聊天機器人似乎遭遇了滑鐵盧,死地而后生,智能相對論(ID:aixdlun)認為,可以從三個方面“洗心革面”。
1、塑造聊天機器人的“獨立三觀”
能夠獨立表達喜歡、不喜歡和偏好怎樣的人類性格,在聊天的過程中展示出誠實和值得信任等可貴品質是塑造聊天機器人“獨立三觀”的重要體現。正如聊天機器人被引入日常生活,我們還能訓練機器人去識別我們的語言,挖掘我們的喜好,甚至還能分析我們的口音,推測我們的情緒。
通過自然語言和情感分析,Quartz公司嘗試著讓Quartzy來指導特定用戶做面包。Quartzy會以一種友好且有趣的方式和用戶聊聊「怎么做一個免揉面包」,這項體驗會持續兩天,一旦用戶完成了第一個步驟,Quartzy會在大概12小時后,用Facebook Messenger給你「叮」一個通知,提醒你完成后續的步驟。這是機器人獨立三觀的一個體現,當然希望以后這樣的嘗試會更加普及。
2、從“鸚鵡學舌”到“烏鴉喝水”
“鸚鵡學舌”是借由人類語言的模仿行為,其類似于當前由數據驅動的機器人。 “烏鴉喝水”則是一個完全的自主行為,其含括了感知、認知、推理、學習、和執行,這是聊天機器人朝想象力、創造力更高層次的進階。 目前,要真正實現聊天機器人的“烏鴉喝水”模式主要從兩個方面努力:
一方面,讓人工智能在自動學習中“更聰明”。 伊恩·古德費洛用兩個神經網絡,進行數字版的“貓鼠游戲”——一個負責“造假”,一個負責“驗真”,從而在對抗中不斷提高。首先,依據“見過”的圖片生成新圖片,需要機器人總結規律、發揮想象力和創造力;其次,判別某張圖片是否是真實事物,這需要它憑訓練積累的“經驗”。
另一方面,建立更加廣博的知識圖譜。知識圖譜的建立需要從靜態和動態兩個方面出發,真正將目前聊天機器人聊天對話場景從垂直領域拓展到開放領域。同時,構建知識圖譜的重點在于語義理解、知識表示、QA、智能對話和用戶建模。
3、學會更快更多元的賺錢
聊天機器人作為一個虛擬助理,其最終目的是為了簡便工作方式或者直接盈利。目前的聊天機器人主要分為兩種:單純聊天的機器人以及垂直領域的定制機器人,如小i機器人就衍生出了全渠道跨領域智能客服機器人、智能呼叫中心解決方案、智能營銷解決方案、智能語音交互解決方案等多個發展方向。就當下來看,聊天機器人主要利用于內置商業場景中,如用機器客服代替人工客服。
事實上,聊天機器人盈利方式的開發還遠遠不夠。作為人工智能類產品的重要代表,其在聊天機器人+原生內容、利用聊天機器人做聯盟網絡營銷、用聊天機器人做用戶調研等方面是大有可為的。
這顯然不是聊天機器人自己的任務,也是整個行業的工作。