據(jù)美國趣味科學網(wǎng)站2月6日報道,逼真的人類動作讓機器人能夠完成種類繁多的任務,并且適應對它們而言并非專門適用的環(huán)境。
得益于一個跟蹤人類動作的新軟件構架,人形機器人很快會以十分逼真的方式運動——甚至能像我們一樣翩翩起舞。
由加利福尼亞大學圣迭戈分校、伯克利分校以及麻省理工學院和英偉達公司開發(fā)的ExBody2軟件是一項新技術,它將使人形機器人能夠根據(jù)對人類的詳細掃描及運動跟蹤可視化處理,做出逼真的動作。
研究人員希望,未來的人形機器人能夠更準確地模擬人類動作,從而執(zhí)行種類遠為繁多的任務。例如,這種訓練方法可以幫助機器人執(zhí)行需要精細動作的任務(如從貨架上取下物品)或小心翼翼地在人或其他機器周圍移動。
ExBody2軟件的工作原理是根據(jù)對人類的動作捕捉掃描做出模擬動作,并把它們轉化為機器人可使用的運動數(shù)據(jù)以便予以復制。該構架可以利用機器人復制復雜動作,從而可使機器人的動作變得不那么僵硬,并能在無需大量再訓練的情況下適應不同任務。
這一切都將利用“強化學習”技術進行訓練?!皬娀瘜W習”是機器學習的一個子門類,即用海量數(shù)據(jù)對機器人進行“喂養(yǎng)”,以確保其在任何給定情況下都能采取最佳路徑。研究人員所模擬的有效輸出將被判定某個正或負的得分,以“獎勵”該模型輸出理想結果(這意味著在不損害機器人穩(wěn)定性的情況下精確復制動作)。
該軟件構架還可以拍攝簡短的運動視頻(例如幾秒鐘的跳舞視頻)并合成出新的、供參考的動作視頻,以使機器人能夠完成持續(xù)時間更長的動作。
在一段上傳至視頻分享網(wǎng)站YouTube的視頻中,一臺接受了ExBody2軟件訓練的機器人與一名人類參試者一起跳舞、揮拳和鍛煉。此外,這臺機器人還利用上海交通大學機器視覺與智能團隊開發(fā)的一套名為“人體網(wǎng)格恢復解析-神經(jīng)混合反向運動學”(HybrIK)的附加代碼,對一名研究人員的動作進行實時模仿。
目前,ExBody2軟件的數(shù)據(jù)集大多集中在上半身的運動。在2024年12月17日上傳到預印本文獻庫(ArXiv)中的論文中,開發(fā)該軟件的研究人員解釋說,這是由于擔心引入過多的下半身動作會導致機器人不穩(wěn)定。
這些研究人員的數(shù)據(jù)集包含2800多個動作,其中1919個來自“運動捕捉表面形狀檔案”(AMASS)數(shù)據(jù)集。這是一個規(guī)模龐大的人類動作數(shù)據(jù)集,包含1.1萬多種人體動作和40小時詳細動作數(shù)據(jù),以供非商業(yè)性深度學習使用,即利用海量數(shù)據(jù)對神經(jīng)網(wǎng)絡進行訓練以識別或復制動作模式。
在已經(jīng)證明ExBody2軟件讓人形機器人復制人類動作的有效性后,該研究團隊現(xiàn)在將轉向解決在無需人工管理數(shù)據(jù)集以確保軟件只使用適合信息的情況下,取得同樣結果的問題。研究人員認為,未來自動化數(shù)據(jù)集收集將有助于這一過程的順暢運行。