国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  庫卡  碼垛機器人  機械手 

與機器人戀愛?人工智能已開始影響人類倫理觀

   日期:2016-03-16     來源:環(huán)球網(wǎng)    作者:LX     評論:0    
標簽:
   能不能和機器人談戀愛?《日本經(jīng)濟新聞》3月16日報道稱,隨著人工智能的不斷進步,機器人與人類的界線已經(jīng)變得模糊起來。如果機器人能夠與人類互通心意,也許會出現(xiàn)機器人深入個人生活,威脅人類隱私的事態(tài)。人類與機器人的差距越來越小,我們正面臨著新一輪的倫理問題。
  與機器人戀愛?人工智能已開始影響人類倫理觀
 
  “太可憐了!”“簡直就是虐待。”2月下旬,YouTube上的一則機器人視頻下面出現(xiàn)了眾多網(wǎng)友表示同情的留言。
 
  視頻發(fā)布者是機器人研發(fā)公司美國波士頓動力(Boston Dynamics)。一臺機器人抱著箱子正在雙足直立行走,旁邊一名男子用木棍擊打機器人,打落其手中的箱子,被打倒后的機器人依然能夠獨立站起來。對于機器人技術的進步,人們紛紛稱贊“了不起”,但也有不少評論譴責男子的行為。
 
  波士頓動力公司并沒有惡意。該視頻只是為了測試機器人受阻后恢復動作的性能。但沒想到引發(fā)了很大爭議。波士頓動力公司在1年前發(fā)布的腳踹四足行走機器人的視頻也有過同樣的反響。
 
  大概某些觀眾產(chǎn)生了將機器人當成真正生物的感覺。損壞機器人不會構成傷害罪。但與實際生物相近的機器人受到傷害時,很多人會覺得很可憐。機器人已開始深深地影響了人類的倫理觀。
 
  與機器人做愛?
 
  “到2025年,與機器人做愛將成為很平常的事”。美國著名民間調(diào)查機構皮尤研究中心(Pew Research Center)在2014年發(fā)布的機器人產(chǎn)業(yè)預測中寫入了如上內(nèi)容。這已不再是科幻情節(jié),而是對未來的先知先覺。
 
  2015年秋季,英國BBC和美國CNBC等媒體報道了一家美國企業(yè)制造出女性形象“性愛機器人”的消息。該公司負責人認為該產(chǎn)品可以幫助喪偶者解決生活煩惱。
 
  《日經(jīng)新聞》記者在網(wǎng)上搜索了一下。這臺真人大小的“全球首款性愛機器人”目前正以6995美元的價格銷售。據(jù)悉該機器人預設了“交際型”、“服從型”等多種性格模式。這家企業(yè)的實際經(jīng)營狀況和銷售業(yè)績尚不清楚。但該產(chǎn)品卻在國際社會上引發(fā)討論,反對之聲不絕于耳。
 
  “性愛機器人將進一步激發(fā)人類對身體的欲望”。凱瑟琳·理查德森(Kathleen Richardson)是英國德蒙福特大學(De Montfort University)的機器人倫理研究員,她在網(wǎng)上發(fā)出了警示性聲明,正在向全世界募集贊同者。她指出,過度專注機器人將“損害人類之間的情感共鳴能力”。
 
  因為封面成立的學會
 
  人類與機器人之間關系的變化已引起了技術人員的注意。日本人工智能學會在2014年12月成立了“倫理委員會”。該學會期刊的某期封面上刊登了女性形象的清掃機器人,招致了“性別歧視”的指責,由此成立了倫理委員會。該學會意識到,有必要認真討論機器人和社會倫理觀的聯(lián)系。日本機器人學會提出“實現(xiàn)和維持健康社會”的方針,要求機器人的研究不應脫離一般社會觀念。
 
  盡管追求仿真人的機器人研發(fā)潮流沒有改變,但其實暗藏陷阱。
 
  “個人隱私的收集和管理將成為焦點”。日本花水木律師事務所的機器人法律問題資深律師小林正啟為機器人產(chǎn)業(yè)的風險敲響了警鐘。作為代表性案例,小林正啟提到了日本軟銀集團的人型機器人“Pepper”。
 
  軟銀社長孫正義稱這是一臺“有愛心的機器人”,目標是普及到一家一臺。Pepper可通過人工智能識別感情,不斷提升交流能力。在這一過程中,機器人拍攝和錄音的信息將上傳到云服務器上記錄加工。
 
  備受爭議的車站試驗
 
  小林正啟說:“雖說算不上違法,但如果個人信息操作失誤,就有可能變成問題。企業(yè)應當做好充分說明”。2014年發(fā)生在大阪的事例就成為了教訓之一。
 
  2014年4月,日本情報通信研究機構在曾計劃在大阪車站附近實施一項試驗。內(nèi)容為利用約90個監(jiān)控攝像頭追蹤人的移動路線,試驗目的是檢驗通過面部識別技術掌握單個人行蹤的效果。計劃公布后,人們紛紛擔心個人隱私受到侵犯,最后不得不對試驗內(nèi)容進行了大幅調(diào)整。
 
  該案例只是利用街頭的監(jiān)控攝像頭,但人型機器人與用戶的關系更加親密,因此也更容易獲得家庭內(nèi)部的信息。軟銀主張,“在處理個人信息時會事先就范圍和目的進行說明,取得用戶同意”。預定年內(nèi)推出家用機器人“Kibiro”的日本人工智能技術研發(fā)公司UBIC表示,“我們會獲取對話的歷史記錄,但我們可不想被用戶抱怨,說‘根本不記得同意過這些內(nèi)容’”。
 
  暴力、性、侵犯隱私……。在機器人與人類之間橫亙著難題,而僅靠現(xiàn)有法律已無法解決。已故科幻作家艾薩克·阿西莫夫(Isaac Asimov)曾提出了以“不得危害人類”為核心的“機器人三原則”。人類當前面臨的問題更為復雜。
 
  業(yè)內(nèi)正在討論設立由法律專家和機器人研究人員組成的“機器人法學會”,目前籌備會已發(fā)布了“人類至上”、“保守秘密”等“機器人新八大原則”草案。參與草案擬定的日本慶應大學教授新保史生表示,“制定機器人法律和倫理原則對于產(chǎn)業(yè)界同樣重要”。
 
  人類歷史上有過多次跨越倫理問題后發(fā)展新技術的先例。而現(xiàn)在正是需要充分討論“機器人倫理”的重要時期。
 
 
更多>相關資訊
0相關評論

推薦圖文
推薦資訊
點擊排行