近期,加州大學(xué)研究人員和英偉達在共同發(fā)表的新論文中提出“NaVILA模型”,NaVILA的核心創(chuàng)新在于,不需要預(yù)先的地圖,機器人只需“聽懂”人類的自然語言指令,結(jié)合實時的視覺圖像和激光雷達信息,就可以自主導(dǎo)航到指定位置。
想象一下這樣的場景:你早上醒來,家中的服務(wù)機器人正在等候你的指令。 你輕輕說道,“去廚房,拿瓶水過來。” 不到一分鐘,機器人小心翼翼地穿過客廳,繞開沙發(fā)、寵物和玩具,穩(wěn)穩(wěn)地站在冰箱前,打開冰箱門,取出一瓶礦泉水,然后輕輕送到你手中。 這一幕曾經(jīng)只出現(xiàn)在科幻電影中,而現(xiàn)在,得益于NaVILA模型的出現(xiàn),這正在變成現(xiàn)實。 NaVILA不僅擺脫了對地圖的依賴,還進一步將導(dǎo)航技術(shù)從輪式擴展到了腿式機器人,使得機器人在更多復(fù)雜場景中,具備跨越障礙和自適應(yīng)路徑規(guī)劃的能力。 在論文中,加州大學(xué)研究人員使用宇樹Go2機器狗和G1人形機器人進行了實測,根據(jù)團隊統(tǒng)計的實測結(jié)論,在家庭、戶外和工作區(qū)等真實環(huán)境中,NaVILA的導(dǎo)航成功率高達88%,在復(fù)雜任務(wù)中的成功率也達到了75%。


(使用NaVILA實測機器狗和機器人聽指令行動) 這項研究給機器人導(dǎo)航范式帶來革新,讓機器人的路徑規(guī)劃從“地圖依賴”走向“實時感知”。

