加州大學伯克利分校研究員用ARKit訓練機械臂分揀物品
來源:映維網? 作者? 顏昳華
加州大學伯克利分校的人工智能研究人員正在使用iPhone X和ARKit來訓練機器人手臂分揀物品。這屬于Dex Net AR項目的內容,并主要是研究如何通過消費者智能 手機 來實現機器人分揀物品。其中,通過利用將RGB攝像頭圍繞物品掃描兩分鐘而生成的數據,ARKit可以創建相應的點云。
機器人抓取是一個特殊的機器人學分支,并主要是研究如何教導機器人拾起、移動、操縱或抓取物體。加州大學伯克利分校自動實驗室(UC Berkeley’s Autolab)的Dex Net(靈巧網絡)研究項目可以追溯到2017年,并且包括開源培訓數據集,以及在電商貨物分揀場景中實現機器人操作的預訓練模型。機器人快速學習如何抓取對象的能力將對亞馬遜物流中心等自動化倉庫的發展存在巨大影響。
在包含八個物體的早期實驗中,Dex Net AR可以將ARKit掃描轉換成ABB YuMi機器人的深度映射,并以95%的成功率分揀物體。作為說明,每次掃描都會創建一個點云。
名為《Dex-Net AR: Distributed Deep Grasp Planning Using an Augmented Reality Application and a Smartphone Camera》的論文介紹道:“隨著攝像頭在空間中移動,點云的密度增加,這可以更好地檢測和定義對象的表面,從而方便機器人抓取物品。Dex-Net AR能夠以類似于依靠昂貴工業級深度傳感器的最先進系統的精度來實現物體抓取。與從固定視圖(通常是自上而下)捕獲圖像的深度攝像頭系統相比,Dex Net AR允許用戶用智能手機攝像頭圍繞對象移動并收集三維點云數據。”
相關論文 :Dex-Net AR: Distributed Deep Grasp Planning Using an Augmented Reality Application and a Smartphone Camera
Dex-Net-AR采用離群值消除算法和k近鄰算法來消除ARKit點云估計誤差所引起的噪點。然后,Dex-Net抓取規劃器將評估機器人應如何拾取對象。
由于每一次ARKit掃描都需要固定的兩分鐘,所以研究人員在未來的研究中將尋找更快速掃描物體的方法。論文寫道:“一個潛在的改進是,如果只有有限的數據,我們可以嘗試使用基于學習的方法來減少視頻捕獲的時間,從而增加和完成點云數據”。研究人員同時計劃探索如何更好地利用iPhone X深度傳感攝像頭來收集更少噪點的點云數據。
原文鏈接:https://yivian.com/news/75543.html