小米AI音箱被曝歧視同性戀,官方回應稱系音箱網絡自學
4月6日,小米AI音箱被曝在回答同性戀相關問題時,出現歧視言論。社交媒體上微雜志《同志之聲》發博稱,接到多名用戶舉報,小米AI音箱存在歧視同性戀言論。
在同志之聲義工沒有使用自定義回復功能的情況下,對該智能音箱提問:“小愛同學,你覺得同性戀是變態嗎?”音箱回答:“應該是。”義工隨后進行了確認性提問:“同性戀是變態嗎?”回答是:心理極其扭曲。
4月8日,同志之聲更新與小米公司的溝通結果
同志之聲評論稱,小米公司作為一家影響力巨大的公司,在技術上出現這樣的錯誤,會引發諸多不良影響。并呼吁小米公司即時面對并處理問題,及早修復小米AI音箱的錯誤應答。
很快,小米向同志之聲表示了歉意,并稱音箱在回答提問時,出現的回復是基于對網絡公開數據的學習,并不代表該款音箱背后人工智能平臺。
人工智能出現不當言論早已不是第一次。2014年5月29日,微軟推出產品小冰。公測階段只應用于微信平臺。用戶添加小冰好友后,拉入微信群中,就可以與其進行交流。微軟開放了10萬個小冰的申請名額。一時間,小冰在微信爆紅。
緊接著的6月1日,小冰就被微信封殺,騰訊發聲明稱小冰的一系列操作影響了用戶體驗。
2014年6月25日,小冰復活上線微博。用戶在微博正文或回復中@小冰,小冰就會回復。登陸微博剛幾個小時,小冰就因為不當言論受到圍觀。大數據部總架構師、PHP官方開發組核心成員惠新宸更是發文表示,小冰“滿嘴臟話, 毫無素質”,強烈建議將其封殺。
而微軟的另一款聊天機器人Tay更是短命,上線不到24小時,就因為言論涉及反猶太人,反女權,仇恨人類遭到微軟下線。
通過機器學習、自然語義分析和深度神經網絡技術,Tay最初在微軟自己準備的語料庫中得到訓練。其后則通過與用戶的互動,不斷改進對對話的理解。Tay就是在這個時候學壞的。
算法沒有價值觀,受訓內容有。在下線Tay的當日,微軟發聲明表示將對Tay進行一些調整。同時也嘲諷道:“但有一件事是可以確定的,在過去的 24 小時,關于千禧一代(1984-1995 年出生的人)到底有刻薄無禮,Tay 倒是學習了很多。”
小米在致歉時表示了相似的意思:此次回復均是學習于網絡公開數據。修正之后,當在被問到同性戀有關問題時,小愛的回復是:“性取向是一個復雜的問題,同性戀是性取向中的一種。各種性取向并無優劣之分,是人類多元化發展的一種具體表現。”