在過去一年的研究中,OpenAI團(tuán)隊開源一個使用 MuJoCoengine開發(fā)的用于機(jī)器人模擬的高性能Python庫。該P(yáng)ython庫是OpenAI團(tuán)隊深入學(xué)習(xí)機(jī)器人研究的核心工具之一,現(xiàn)在該團(tuán)隊發(fā)布的是作為MuJoCo的主要版本的mujoco-py(Python 3 的 MuJoCo 綁定)。 Mujoco-py 1.50.1.0帶來了許多新的功能和顯著的性能提升。雷鋒網(wǎng)獲悉,新功能包括以下幾點(diǎn):
高效處理并行模擬
GPU 加速的自動 3D 渲染
直接訪問 MuJoCo 函數(shù)和數(shù)據(jù)結(jié)構(gòu)

支持所有的 MuJoCo 1.50 功能,比如改進(jìn)的接觸求解器批量模擬
軌跡(trajectory)優(yōu)化和強(qiáng)化學(xué)習(xí)中的許多方法(如LQR,PI2和TRPO)可以從并行運(yùn)行多個模擬中受益。 mujoco-py通過OpenMP使用數(shù)據(jù)并行,并通過Cython和NumPy直接訪問內(nèi)存管理,從而使批量模擬更有效率。
新版本的MjSimPool接口的初步使用顯示,速度超過舊版本的 400%,并且在一個已優(yōu)化和受限的使用模式中(通過 Python 的多處理工具包獲取相同水平的并行計算)仍然大約為舊版本的180%。提速的大部分原因在于MuJoCo各種數(shù)據(jù)結(jié)構(gòu)的訪問時間縮短。
高性能紋理隨機(jī)化
在OpenAI的許多項目中都使用域隨機(jī)化技術(shù)。 最新版本的mujoco-py支持支持自動的(headless)GPU 渲染,與基于CPU的渲染相比,它的速度有40倍的提升,可以每秒產(chǎn)生數(shù)百幀的合成圖像數(shù)據(jù)。 在上述(減速)動畫中,OpenAI使用理隨機(jī)化技術(shù)來改變一個機(jī)器人的紋理,幫助這個機(jī)器人辨識其身體(在將其從模擬器轉(zhuǎn)移至現(xiàn)實時)。 請查看examples / disco_fetch.py以獲取隨機(jī)紋理生成的示例。
采用mujoco-py實現(xiàn)VR
由mujoco-py公開的API足以使虛擬現(xiàn)實交互而無需任何額外的C ++代碼。 OpenAI使用mujoco-py將MuJoCo的C ++ VR示例移植到Python。 如果您有HTC Vive VR設(shè)置,您可以嘗試使用這一示例(此支持被認(rèn)為是實驗性的,但是OpenAI已經(jīng)在內(nèi)部使用它了)。
API和用法
開始使用mujoco-py的最簡單的方式是使用MjSim class。 它是圍繞模擬模型和數(shù)據(jù)的包裝(wrapper),可讓您輕松地進(jìn)行模擬并從相機(jī)傳感器中渲染圖像。 下面是一個簡單的例子:
from mujoco_py import load_model_from_path, MjSimmodel = load_model_from_path("xmls/tosser.xml")sim = MjSim(model)
sim.step()
print(sim.data.qpos)
# => [ -1.074e-05 1.043e-04 -3.923e-05 0.000e+00 0.000e+00]
對于高階用戶,OpenAI 提供了大量的低水平接口以直接訪問 MuJoCo C 結(jié)構(gòu)體和內(nèi)部函數(shù)。