許多研究人工智慧(AI)的企業(yè)都在透過深度學(xué)習(xí)來教會(huì)機(jī)器人辨識(shí)圖像,卡內(nèi)基美隆大學(xué)(CMU)的研究團(tuán)隊(duì)則選了另外一種方式,他們?cè)囍虒?dǎo)機(jī)器人透過觸摸來認(rèn)知世界,就像嬰兒一樣。
TechCrunch 報(bào)導(dǎo),在每天 8 小時(shí)實(shí)驗(yàn)期間,這個(gè)名為“Baxter“的機(jī)器人只有一個(gè)任務(wù)要進(jìn)行──從桌上隨機(jī)抓取物品,它的動(dòng)作緩慢而笨拙,即使如此,這一個(gè)月期間也已經(jīng)進(jìn)行了 5 萬次的抓取動(dòng)作,Baxter 正在透過觸覺反饋和嘗試錯(cuò)誤來學(xué)習(xí)。
研究團(tuán)隊(duì)在發(fā)表的論文中,解釋了他們?nèi)绾瓮高^讓機(jī)器人反覆接觸物品,來提升對(duì)物品的認(rèn)知,“以嬰兒來說,他們透過用手推、戳物品、把東西放進(jìn)嘴里或扔出去來學(xué)會(huì)認(rèn)知表征,我們也希望達(dá)到這樣的目標(biāo),所以在 Baxter 的程式平臺(tái)中建構(gòu)了類似的模式,讓它們?cè)谧烂姝h(huán)境上戳、抓取并觀察物品。“
為了說明學(xué)習(xí)觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國(guó)的一項(xiàng)實(shí)驗(yàn)做為例子,當(dāng)時(shí)研究人員對(duì)兩只貓進(jìn)行認(rèn)知實(shí)驗(yàn),其中一只就像平常一樣生活、與世界接觸,另一只貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環(huán)境互動(dòng)的學(xué)會(huì)爬行,只能觀察的不能做出同樣舉動(dòng)。
而在實(shí)驗(yàn)中,Baxter 逐漸地展現(xiàn)出對(duì)物品認(rèn)知的提升,當(dāng)機(jī)器人認(rèn)出熟悉的物品時(shí),平板顯示屏幕上會(huì)露出“微笑“,并且抓取物品放入適合的籃子;如果對(duì)物品不熟悉,屏幕上則會(huì)露出“困惑“的表情──研究人員并不擔(dān)心,他們相信沒有什么是另外 5 萬次抓取練習(xí)學(xué)習(xí)不了的。
這項(xiàng)研究改變了傳統(tǒng)的機(jī)器視覺學(xué)習(xí)模式,不同于以往系統(tǒng)透過已經(jīng)輸入的標(biāo)簽去判斷、尋找物品,Baxter 是透過觸摸來自我學(xué)習(xí)認(rèn)知,Gandhi 解釋,過去圖像和標(biāo)簽之間并沒有互動(dòng),在視覺系統(tǒng)中只有被動(dòng)數(shù)據(jù)可以收集。
“我們想要的是與物品時(shí)可以獲得活動(dòng)的數(shù)據(jù),并透過這些學(xué)習(xí)對(duì)其他視覺任務(wù)有用的功能。“
Baxter 的系統(tǒng)中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發(fā)送到深層的神經(jīng)網(wǎng)路,并在 ImageNet 中與圖像交叉參考。團(tuán)隊(duì)在其中意外發(fā)現(xiàn),收集的觸摸數(shù)據(jù)讓 Baxter 的辨識(shí)精準(zhǔn)度,較其他只使用圖像辨識(shí)的機(jī)器人高出 10%,團(tuán)隊(duì)認(rèn)為這非常鼓舞人心。
盡管目前研究還處于初期階段,但團(tuán)隊(duì)十分看好未來的發(fā)展,Gandhi 表示,他認(rèn)為結(jié)合視覺與觸摸學(xué)習(xí)的機(jī)器人可以用于揀選分類,就像 ZenRobotics 開發(fā)的類型,未來能為垃圾進(jìn)行分類回收,這在現(xiàn)實(shí)中是一個(gè)非常大的挑戰(zhàn),“當(dāng)然,我們目前還在嬰兒學(xué)步呢。“