国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  ABB  機(jī)器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機(jī)器人  機(jī)械手 

能跟人類對(duì)話還不夠,機(jī)器人還得會(huì)用表情、手勢(shì)表達(dá)情緒

   日期:2016-12-07     來源:雷鋒網(wǎng)    作者:zy     評(píng)論:0    
標(biāo)簽:
   機(jī)器會(huì)思考嗎?如果可以,機(jī)器能思考之后會(huì)跟人類的交互真的會(huì)更加順暢嗎?除了思想和語言能力之外,機(jī)器還需要達(dá)到什么樣的能力才能與人交互更加自然有序?
 
  從上個(gè)世紀(jì)中葉“讓機(jī)器去思考”這個(gè)概念被提出之后,研究者們都一齊向這個(gè)方向努力著,從最初的個(gè)人電腦到如今的AI熱,讓機(jī)器理解人類并與人類交互的研究熱度在當(dāng)下的研究環(huán)境中已經(jīng)達(dá)到了空前的巔峰,多數(shù)研究者不顧“機(jī)器人威脅論”也要研究如何讓機(jī)器人能夠更好的理解人類的行為,因?yàn)檫@種研究帶來的除了“威脅”之外還有更多的益處。
 

 
  今日,Siggraph Asia 2016亞洲電腦圖像和互動(dòng)技術(shù)展覽及會(huì)議在澳門舉行,南洋理工大學(xué)電腦工程和設(shè)計(jì)學(xué)院的教授Nadia Thalmann在會(huì)議上為大家做了一次“社交機(jī)器人及虛擬人類的行為建模”為主題的演講,在演講中她提到了社交機(jī)器人及虛擬人物在社會(huì)環(huán)境中與人互動(dòng)所需要的挑戰(zhàn),以及能給人類帶來什么等等問題。
 
  能跟人類對(duì)話還不夠,機(jī)器人還得會(huì)用表情、手勢(shì)表達(dá)情緒|SIGGRAPH ASIA 2016
 
  說起Nadia Thalmann教授很多雷鋒網(wǎng)(公眾號(hào):雷鋒網(wǎng))關(guān)注機(jī)器人的老讀者應(yīng)該都不陌生,今年年初的時(shí)候,她照著自己的樣子研發(fā)了一款仿真機(jī)器人,并因此而聞名。這個(gè)類人機(jī)器人名叫Nadine,在當(dāng)時(shí),Nadia表示這款機(jī)器人主要用于社交用途,是為了陪伴老人和兒童而生,未來也許可以解決由人口老齡化引起的勞動(dòng)人口緊縮的問題。在這次的Siggraph Asia 2016上,Nadia Thalmann仍然大量的使用了Nadine作為演講實(shí)例。
 
  目前對(duì)于社交機(jī)器人來說,更多的研究都集中在“讓機(jī)器人如何理解人類的語言”方面,這也是Nadine與這些機(jī)器人不同的地方,Nadine的研究方向是,除了能讓她理解人類的語言并和人類交流之外,還會(huì)有自己的表情和動(dòng)作,并且這些表情和動(dòng)作能夠表達(dá)她的情緒,同時(shí),她也能夠通過識(shí)別人類的表情和動(dòng)作來理解人類的情緒。這樣就大大的增加了機(jī)器人在社會(huì)環(huán)境中與人互動(dòng)的能力。
 
  在演講中,Nadia Thalmann教授為大家播放了一段視頻,演示了Nadine在與人交流過程中的動(dòng)作識(shí)別和交流上的交互。
 
  能跟人類對(duì)話還不夠,機(jī)器人還得會(huì)用表情、手勢(shì)表達(dá)情緒|SIGGRAPH ASIA 2016
 

 
  從視頻中可以看出,在動(dòng)作方面,比如人在她面前丟了一本書,她就會(huì)立即做出反應(yīng),并告知人類:“你掉了一個(gè)東西(something)”,不過目前她也只能識(shí)別出這個(gè)動(dòng)作本身,至于動(dòng)作的內(nèi)容(別如識(shí)別掉落的物體)她并不能進(jìn)行識(shí)別。
 
  而在語言方面,人類與其對(duì)話時(shí),表現(xiàn)出不友好的一面,比如用粗俗的語言跟她對(duì)話,她也不會(huì)像Siri一樣機(jī)械地進(jìn)行回答,而是會(huì)情緒化的對(duì)人類語言進(jìn)行“反擊”,并“怒目而視”。
 
  能跟人類對(duì)話還不夠,機(jī)器人還得會(huì)用表情、手勢(shì)表達(dá)情緒|SIGGRAPH ASIA 2016
 
  Nadia Thalmann說,對(duì)于機(jī)器人來說,給它加入動(dòng)作識(shí)別及功能是非常重要的,因?yàn)橐粋€(gè)真正的社交機(jī)器人應(yīng)該能理解用戶的行為,并用以手勢(shì)、面部表情、目光等動(dòng)作加以回應(yīng)。
 
  要達(dá)到以上的目標(biāo)是非常難的,所以,Nadia Thalmann也在會(huì)上提出了社交機(jī)器人未來研發(fā)的三點(diǎn)挑戰(zhàn):
 
  讓機(jī)器能夠全面的感知用戶的行為,并對(duì)用戶的行為進(jìn)行解釋分析,理解用戶的意圖。
 
  做好利用局部傳感讓機(jī)器人在社交場合做出適合當(dāng)時(shí)環(huán)境、語境的行為決策,而不是機(jī)械般的程式化。
 
  多線交流(不只是和一個(gè)人對(duì)話,而是多人環(huán)境)的同步以及反映的實(shí)時(shí)性的提升。
 
  這些研究重點(diǎn)將在未來會(huì)一一實(shí)現(xiàn),目前Nadine機(jī)器人只能有二十多種表情,而且能夠識(shí)別的動(dòng)作也有限,并且只能使用類似Kincet的體感設(shè)備來感知人的動(dòng)作,未來在傳感器等硬件方面還會(huì)有很大的提升空間。為了能夠早日完成以上有挑戰(zhàn)的研究點(diǎn),Nadia Thalmann以及她的研究團(tuán)隊(duì)做出了一些具體的任務(wù)規(guī)劃,來逐步完成:
 
  第一階段:讓機(jī)器人能夠和人類對(duì)話并對(duì)人類的生活方面的某些數(shù)據(jù)進(jìn)行長期監(jiān)測(cè)。它能夠幫用戶做一些簡單的事情,并且根據(jù)你的行為特征來分析一些對(duì)用戶自身有意義的數(shù)據(jù),比如健康信息,并且這些信息會(huì)嵌入到智能系統(tǒng)當(dāng)中,當(dāng)機(jī)器人跟你進(jìn)行對(duì)話時(shí)就會(huì)將這些信息透露給你,舉個(gè)例子,當(dāng)你連續(xù)工作好幾天,沒有得到正常的休息,機(jī)器人就會(huì)提醒你:你已經(jīng)很久沒睡了,應(yīng)該休息一下。
 
  第二階段:在第一階段的基礎(chǔ)上增添多模式交互的框架,該框架能夠使機(jī)器人能夠完全理解用戶的語言,并且在于人類聊天的時(shí)候,能夠進(jìn)行面部表情、手勢(shì)等外部語言輔助的表達(dá),并能夠識(shí)別人類的表情和手勢(shì)。
 
  第三階段:有獨(dú)立的思想和情感,能夠基于人格和人類進(jìn)行情感交互,比如能夠有信任、同情等這類的抽象情感,并且能幫助人類解決更高級(jí)的問題,能提出更具有說服力的決策意見,成為你生活中完全的助手。
 
  這樣的目標(biāo)量化對(duì)于完成真正的類人機(jī)器人的目標(biāo)目前看起來貌似是可行的,在這其中就要做很多細(xì)致的工作,比如從外觀開始做,研究一些適合機(jī)器人的3D打印項(xiàng)目,來給機(jī)器人做基礎(chǔ);還有仿生科技的研究,能夠讓機(jī)器人的行為舉止不至于傾向“恐怖谷”,要更加的自然。以上屬于外觀的建模,除此之外還需要給機(jī)器人做情緒建模,這方面就復(fù)雜的多,涉及的知識(shí)點(diǎn)異常龐雜。
 
  但拎出外觀或者內(nèi)核都不是最難的,其中最難點(diǎn),也就是Nadia Thalmann她們正在研究的,是如何將二者完美的結(jié)合,讓其語言和動(dòng)作進(jìn)行一個(gè)自然的交互狀態(tài),這才是類人機(jī)器人未來發(fā)展的關(guān)鍵所在。機(jī)器人真的達(dá)到第三階段能夠?qū)θ祟愑卸啻蟮膸椭€不太好說,但一定能給人類的生活帶來翻天覆地的變化。
 
 
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行