“遠(yuǎn)程交互”會讓大多數(shù)人想到,國家或者大型公司做重大決策時需要的視頻會議。而對于普通百姓更應(yīng)該稱為“視頻聊天”。然而,卻有一家公司就是針對普通百姓的“視頻聊天”做了一款機器人,而且眾籌成功。這款機器人或許會成為大多數(shù)網(wǎng)紅的直播利器,那么,這款機器人究竟有什么奧秘呢?

機器人Ohmni是加利福尼亞州圣克拉拉市的機器人創(chuàng)業(yè)公司OhmniLabs推出了一款新型消費者遠(yuǎn)程交互機器人。它的外形非常簡單,集成屏幕和易于使用的軟件,以及一個非常輕便的自動支架。所以看圖片,更多人會把他想象為一個帶支架的手機或者平板電腦。

機器人身高1.42m,重量只有8kg,使用Android 6.0系統(tǒng),配置英特爾X5處理器,機身內(nèi)存64 GB,運行內(nèi)存4 GB。自帶的鋰電池能使Ohmni移動和通話5小時。Ohmni確實包括一個具有最小自主權(quán)的自動??抗δ埽褐灰鄼C可以對準(zhǔn)插座上的基準(zhǔn),機器人就可以自己定位和???。
Ohmni與其他遠(yuǎn)程呈現(xiàn)平臺不同的地方就是它有一個傾斜的頸部。它不會搖擺不定,因為這個設(shè)計并不是為了環(huán)顧四周,而是一個額外的自由度,允許Ohmni上看、下看和點頭。你可以手動控制,但是可以想象,這個簡單的變化將會使遠(yuǎn)程操作者與機器人聯(lián)系更加緊密。
有關(guān)Ohmni的更多詳情,IEEE Spectrum與Ohmnilabs聯(lián)合創(chuàng)始人兼首席技術(shù)官Jared Go進行了談話。
IEEE Spectrum:手機和平板電腦已經(jīng)自帶視頻聊天功能,您是如何說服別人遠(yuǎn)程呈現(xiàn)機器人值得投資呢?

Jared Go:關(guān)鍵是幫助他們意識到使用電話或視頻聊天來保持聯(lián)系的意義并不是理所當(dāng)然的。幾乎所有與我們談話的人都告訴我們,即使周圍有這么多視頻聊天的APP和硬件,他們?nèi)韵肽钣H臨現(xiàn)場的感覺。所以肯定存在意義差距,我們的研究和早期的用戶測試就是針對這個關(guān)鍵問題—如何使用機器人技術(shù)解決這個問題。
我們現(xiàn)在知道關(guān)鍵在于整體的差異化體驗。它不是擁有一塊屏幕,或者一個遠(yuǎn)程控制輪,而是擁有這些東西能讓我們做些什么。當(dāng)測試者與自己的家人之間試用Ohmni時,我們研究了他們的行為,結(jié)果很棒,幾乎在他們使用Ohmni的瞬間,他們之間的交流方式就完全改變了。
例如,我們發(fā)現(xiàn)對話者會立即移動到最自然和舒適的地方,而不是坐在書房或酒吧凳子上。另一面最常見的是他們覺得更自由,不必再不斷地將裝置對準(zhǔn)自己或坐在一個地方。正因為如此,對話時間更長,且不再是簡單地談?wù)撋现馨l(fā)生的事情,人們會花費一個小時或更多的時間來做不同的事情,比如在電視上觀看體育節(jié)目,這是他們從未用FaceTime或Skype體驗過的事情。
IEEE Spectrum:Ohmni如何區(qū)別于其他移動遠(yuǎn)程操作平臺,如Double或Beam ?
Jared Go:Double和Beam從第1天開始就圍繞企業(yè)用例設(shè)計產(chǎn)品,這使他們走上了與我們十分不同的特定道路。我們從一開始就專注于家庭使用,這使我們能夠提供更好的體驗。我們重新思考了整個過程。我們機器人上的平板電腦是不可移動的且完全集成并提前設(shè)置的。當(dāng)您下單時,我們甚至可以為您預(yù)先編程WiFi憑據(jù),以便您如果將其發(fā)送給您的父母時,他們只需要拆開箱子,展開后打開就好。就這么簡單!我們已經(jīng)為65人以上設(shè)置了高級語言指令。這對消費市場來說非常重要。
移動頸部以及我們的MotionMap技術(shù)也是創(chuàng)造體驗差異的關(guān)鍵。當(dāng)Beam和Double機器人四處移動的時候,感覺就像撐著脖子一樣,這會導(dǎo)致交流很不自然。我們研究了這一點,并注意到在很多情況下,人們會彎下腰或者調(diào)整姿勢與屏幕平視,因為屏幕和相機不能精確的跟蹤客戶的位置。他們說,使產(chǎn)品感覺真正人性化的就是這個可以移動的頸部。人類的大腦與感知注意力是相關(guān)的,所以看到遠(yuǎn)程用戶正在看的事情會有巨大的影響。能夠流露表情和點頭真的使這種體驗更加具有魅力。

IEEE Spectrum:機器人學(xué)家為什么要對Ohmni感到興奮?它使用了什么有趣的技術(shù)(軟件,硬件或兩者都有)?
Jared Go:有兩個主要原因。我們首先專注于優(yōu)化遠(yuǎn)程呈現(xiàn)體驗,但是我們已經(jīng)開始建立Ohmni使其成為一個人們能支付的起的人性化開放平臺。我們有一個基于云數(shù)據(jù)的稱之為OhmniAPI 的JS框架。我們的目標(biāo)是使Ohmni的編程與開發(fā)網(wǎng)頁一樣簡單??蛻艨梢蚤_發(fā)一個豐富的HTML5應(yīng)用程序,在屏幕上顯示任何復(fù)雜的媒體或網(wǎng)絡(luò)邏輯,還可以使用專用的JS調(diào)用來獲得電機,燈光,文字到語音等的全部訪問權(quán)限,并且還可以從云端點擊進入到任何機器人。隨著時間的發(fā)展,我們還將擴展框架的功能,增加更高級別的導(dǎo)航和圖像/音頻識別,以便讓人們在沒有機器人學(xué)博士學(xué)位的情況下能夠編寫高級任務(wù)。
我們還在開發(fā)一個通話開發(fā)者控制臺,因此您可以在進行遠(yuǎn)程通話時在機器人上運行代碼,我們認(rèn)為這是一個令人非常興奮的發(fā)展!我們將在今年晚些時候公布更多細(xì)節(jié)。
Ohmni還建立在開放標(biāo)準(zhǔn)之上,因此它可以更好地破解硬件。我們還預(yù)留了可以連接伺服系統(tǒng)和傳感器的額外的硬件端口。Ohmni的傳感器和外圍設(shè)備的核心是USB根集線器,因此您可以輕松地插入和控制來自筆記本電腦或其他設(shè)備的所有硬件。我們未來會出版用于控制電機的數(shù)據(jù)包協(xié)議。
IEEE Spectrum:您計劃如何通過軟件來改進Ohmni?
Jared Go:我們一直在重復(fù)自動??烤?,MotionMap精度等這些事情,持續(xù)改進駕駛用戶界面。隨著時間的推進,我們計劃推出更多功能例如熱門詞檢測和語音控制(即與Alexa API集成)。我們已經(jīng)對自動駕駛和輔助駕駛有了一些計劃,將在今年晚些時候進行更多的談?wù)?。我們希望開發(fā)人員用Ohmni嘗試瘋狂而有趣的事情,比如嘗試一些有趣的HCI應(yīng)用程序,甚至可以讓一整套Ohmni機器人同步演唱 Hamilton的歌曲。