国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  機械手  碼垛機器人  庫卡 

MIT團隊發(fā)明真正能“看懂”世界的機器學(xué)習(xí)模型,91%的參與者認可其表現(xiàn)效果

   日期:2021-12-21     來源:DeepTech深科技    作者:angela     評論:0    
人工智能時代,機器可以替代或協(xié)助人類做很多事情,此類應(yīng)用在生活和工作中隨處可見。生活中,有無人餐廳、超市貨物遞送和掃地機器人等;工作中,有信息采集及分類檢索、智能加工、數(shù)據(jù)分類及內(nèi)容分發(fā)等。


圖|人工智能部分應(yīng)用場景(來源:Pixabay)

然而,上述應(yīng)用更加傾向于執(zhí)行,離真正“智”的層面還有一定的距離,以及需要技術(shù)進一步突破。就像辦工桌上放著一臺電腦和兩部手機,機器人無法對這三個物體之間的位置關(guān)系進行描述。

當人類看到同樣的場景時,則可以定性地講出他們之間的位置關(guān)系,比如在桌子的中間放著一臺電腦,其中一部手機在電腦的左邊,另一部在電腦的前邊。

人工智能機器人與人類看到的同樣的場景不同的表達,本質(zhì)區(qū)別在于,無法理解兩個甚至多個物體之間存在的糾纏關(guān)系,這也是為什么很多深度學(xué)習(xí)的人工智能機器人“看不懂”物質(zhì)世界的原因。

如果對物質(zhì)與物質(zhì)之間的糾纏關(guān)系不了解,就無法真正做到智能,例如幫廚機器人很難執(zhí)行“將醬油放電磁爐的一邊,然后再將醋拿起來放到另一邊”之類的命令。

為了解決人工智能機器這一應(yīng)用難題,麻省理工學(xué)院(Massachusetts Institute of Technology,MIT)科學(xué)家研發(fā)了一個模型,可以幫助機器理解部分場景中物體與物體之間的潛在關(guān)系。


圖|物體場景關(guān)系理解(來源:麻省理工學(xué)院官網(wǎng))

該團隊所研究的模型每次可以表達一個單獨的關(guān)系,然后將每次的表達結(jié)合起來對整個場景進行描述,進而使得這個模型可以從文字表述中生成更加精準的圖像,相當于在所描述場景中對不同關(guān)系的多個單一關(guān)系進行排列組合。簡單來說,該團對制備的新模型可以像人類一樣與周圍環(huán)境中的物體進行互動。

該研究在未來工業(yè)機器人領(lǐng)域具有非常廣泛的應(yīng)用前景,尤其是針對步驟多、操作復(fù)雜的任務(wù)。

譬如,大型制造業(yè)工場中存放的器件或者設(shè)備組裝。值得關(guān)注的是,該模型還可以使機器能夠像人類一樣,從各類場景中學(xué)習(xí)并且與周圍環(huán)境進行有效互動。

機器學(xué)習(xí)模型可雙向工作


麻省理工學(xué)院電子輸入控制系統(tǒng)計算機科學(xué)與人工智能實驗室博士研究生杜依倫(音譯)表示:“通常,當我見到一張桌子時,不會說在 XYZ 坐標系中有一個物體,這不是我們大腦正常的思維表達。事實上,我們是基于物體之間的關(guān)系去理解一個場景的。”


圖|杜依倫(音譯)(來源:麻省理工學(xué)院官網(wǎng))

杜依倫還表示,如果能開發(fā)一種理解物體和物體之間關(guān)系的系統(tǒng),人們就有可能利用發(fā)明的系統(tǒng)去改變和操縱周圍的環(huán)境。

該團隊開發(fā)的系統(tǒng)可以通過物體,以及物體所關(guān)系的文本描述生成“桌子左邊放置藍色的凳子,右邊放置紅色沙發(fā)”的場景圖片。

然后,機器學(xué)習(xí)模型系統(tǒng)將這些文本劃分成兩個小的部分,對凳子和沙發(fā)這兩個單獨的物體關(guān)系進行描述,再對這兩個部分進行單獨建模,通過場景圖像的優(yōu)化將這兩個關(guān)系組合在一起。

機器學(xué)習(xí)模型將每段關(guān)系分割成更短的句子,以排列組合的形式對他們進行重組,如此豐富的關(guān)系片段可以對之前沒有見過的場景進行描述。

更有趣的是,該機器學(xué)習(xí)模型還能逆向工作,先生成一幅給定的圖像,再和場景中的物體關(guān)系相互匹配。

機器學(xué)習(xí)模型還可理解復(fù)雜場景關(guān)系


除了上述一對一關(guān)系理解,這種機器學(xué)習(xí)模型還可以理解復(fù)雜場景的關(guān)系,于是該團隊將句子從 1 個增加到 4 個。實驗結(jié)果表明,該模型仍然可以對生成的圖像準確描述。

為了進一步測試,研究人員還將他們的模型和其他類似的深度學(xué)習(xí)方式系統(tǒng)做了對比,在每次比賽中,該團隊所發(fā)明的模型,在每個實例都比其他基線表現(xiàn)更佳。


圖|機器學(xué)習(xí)模型測試場景(來源:資料圖)

除此之外,該團隊還驗證了機器學(xué)習(xí)模型生成的圖像和初始場景的描述是否匹配,以最為復(fù)雜的場景關(guān)系為例,參加測試的人中有 91% 覺得新模型系統(tǒng)表現(xiàn)效果更佳。

該團隊對開發(fā)的機器學(xué)習(xí)模型的穩(wěn)定性非常滿意,尤其是陌生場景的描述。該團隊表示:“這是一項非常有前景的開發(fā),因為它和人類的大腦場景描述邏輯類似。我們的模型可以從人類看到的數(shù)個場景中提煉有效信息,創(chuàng)造無數(shù)個不同的組合。”

該機器學(xué)習(xí)模型有一種可以從更少的數(shù)據(jù)中學(xué)習(xí)、總結(jié)的特性,可以生成更復(fù)雜的場景或圖像。

未來,該團隊希望將他們的機器學(xué)習(xí)模型應(yīng)用于機器人系統(tǒng)中,讓機器人學(xué)會從場景中判斷物體之間的關(guān)系,進而利用深度學(xué)習(xí)模型操縱地球上空間中的物體。

 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行
?