MIT最新AI研究,讓機(jī)器人利用觸覺感知物體
麻省理工學(xué)院計算機(jī)科學(xué)及人工智能實驗室(CSAIL)的研究人員表示,在不久的將來,機(jī)器人將能夠通過觸覺來感知物體。一篇最新的相關(guān)論文將于下周在加利福尼亞長灘市的計算機(jī)視覺與模式識別會議上公開,這篇論文描述了一種人工智能系統(tǒng),它可以通過觸覺信號生成觸摸物的視覺形象,還能根據(jù)視覺數(shù)據(jù)來預(yù)測物體的觸感。
“通過觀察物體的表面,我們的模型可以預(yù)測某個平面或棱角的觸感。通過觸摸物體,我們的人工智能模型可以根據(jù)觸感來構(gòu)建感知到的環(huán)境。將這兩種感知數(shù)據(jù)相結(jié)合,機(jī)器人的性能就會得到優(yōu)化,它在搬運或抓取某個物體時所需的數(shù)據(jù)就更少,”CSAIL博士生Yunzhu Li說道,他與他的導(dǎo)師Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰寫了本篇論文。
這支團(tuán)隊的系統(tǒng)采用了生成式對抗神經(jīng)網(wǎng)絡(luò)(GAN),這種神經(jīng)網(wǎng)絡(luò)包含了生成模型和判別模型,前者負(fù)責(zé)生成樣本,后者負(fù)責(zé)辨別生成樣本和現(xiàn)實樣本的不同。該系統(tǒng)能將觸覺數(shù)據(jù)產(chǎn)生的圖像拼接起來。訓(xùn)練時它采用了VisGel的數(shù)據(jù),該數(shù)據(jù)庫擁有300萬組視覺和觸覺的配套數(shù)據(jù),其中包含1.2萬個視頻片段,對象多達(dá)200種(包括工具、織物和家具產(chǎn)品等)。它會預(yù)測出形狀和接觸點的材料,然后與參考圖片進(jìn)行對比。
例如你給出一只鞋子上某個點的觸覺數(shù)據(jù),這個模型就能確定出這個接觸點到底在什么地方。
這些參考圖片能為目標(biāo)物體或環(huán)境的細(xì)節(jié)進(jìn)行編碼,讓機(jī)器學(xué)習(xí)模型不斷自我完善。
這些研究人員指出,目前的數(shù)據(jù)集還非常有限,對于現(xiàn)有的系統(tǒng)而言,物體的顏色、柔軟度等細(xì)節(jié)還很難預(yù)測。但很顯然他們的研究會為更多的人機(jī)一體化打下基礎(chǔ),尤其是針對光線昏暗甚至黑暗密閉空間中的任務(wù)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.16點擊進(jìn)入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術(shù)峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 1 先進(jìn)算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 2 人形機(jī)器人,正狂奔在批量交付的曠野
- 3 宇樹機(jī)器人撞人事件的深度剖析:六維力傳感器如何成為人機(jī)安全的關(guān)鍵屏障
- 4 解碼特斯拉新AI芯片戰(zhàn)略 :從Dojo到AI5和AI6推理引擎
- 5 AI版“四萬億刺激”計劃來了
- 6 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 7 2025年8月人工智能投融資觀察
- 8 9 Manus跑路,大廠掉線,只能靠DeepSeek了
- 10 a16z最新AI百強(qiáng)榜:硅谷頂級VC帶你讀懂全球生成式AI賽道最新趨勢