
作為新一代技術人工物,“情感機器人”已經能夠在一定程度上模擬、理解和表達人類情感,從而在人類社會生活中扮演越來越復雜的角色。
情感機器人與人進行情感交互,一定程度上能夠滿足人的某些情感需要。特別是對于一些特殊群體,更具有獨特價值。有研究顯示,社會化程度較低的情感機器人具有面部表情簡化性及肢體動作趣味性等特點,這對于緩解自閉癥兒童“社交恐懼”具有有益幫助。當然,必須指出的是,情感機器人存在著諸多潛在的倫理風險。
“情感認同”問題。情感機器人為人類提供情感陪伴和關懷的同時,也動搖了主體間情感認同體驗的基礎,導致人陷入情感機器人的“情感欺騙”中。比如,與情感機器人“組建”的“新型家庭”更加單一化、簡單化,可能導致傳統家庭觀念淡化,消解了傳統家庭的所謂“情感羈絆”。另一方面,情感機器人終究是“機器”,它與人交往中價值權重較少,人可以在付出較低交往成本的前提下獲得情感滿足,一旦形成慣性,人們便會弱化對社會現實生活中情感交流的需要,導致人際關系冷漠與社會關系淡化,進而影響現有的情感關系結構和社會協作模式。
數據隱私安全問題。情感機器人作為人工智能技術的新型延伸,既面臨著人工智能技術普遍存在的數據隱私問題,也存在其所屬領域的特殊性風險。如情感機器人將個人私密的情感“數據化”,不可避免地產生情感數據泄露的風險,產生了情感領域的隱私安全的不確定性。同時,情感機器人的出現導致數據隱私泄露的模式由以往的“點對面”轉向更加隱蔽的“點對點”,使得人們更難做出相應的規(guī)避對策,且容易被不法分子利用。
行為主體責任歸屬問題。隨著情感機器人的進一步發(fā)展,其情感屬性將來是否“可能”也擁有與人類情感平等的權利?一旦如此,情感機器人與人的交互過程中便可能產生價值判斷上的沖突。約束機器人行為的“三定律”并不能完美契合情感機器人的情感活動,當其行為與人類情感需求相悖時,情感機器人又能否為其行為承擔責任?隨著情感機器人技術的不斷成熟與普及,其技術可靠性也不容忽視,一旦情感機器人觸碰倫理底線或法律紅線,應當如何歸責?是情感機器人的研發(fā)主體、生產主體、使用主體還是機器人本身?這些是情感機器人責任倫理討論中無法回避的問題。
針對上述倫理風險,為了讓情感機器人更好地服務人類,筆者嘗試著從以下三個方面提出應對之策。
第一,完善科研倫理規(guī)范,將倫理考量納入情感機器人創(chuàng)新的評價指標中,為研發(fā)主體提供合理的倫理準則。從過程角度而言,應將倫理因素貫穿情感機器人研發(fā)全過程,即從技術研發(fā)伊始的價值預設、研發(fā)過程中的科研倫理約束到投入使用前的倫理風險預估,并構建技術制品使用過程中的倫理追蹤反饋機制,從而發(fā)揮長效、持續(xù)、閉環(huán)的倫理約束作用。需要指出的是,倫理規(guī)范對研發(fā)過程保持“高壓”態(tài)勢,不能成為此類技術創(chuàng)新發(fā)展的桎梏,應當為情感機器人的研發(fā)和創(chuàng)新留有足夠的彈性和空間。
第二,落實現有機器人倫理原則,并對情感機器人這一特殊領域制定出有針對性的倫理規(guī)范。早在2019年,歐盟委員會人工智能高級專家組便發(fā)布《人工智能倫理指南》和《人工智能政策與投資建議》,強調未來的AI系統應該具備:人類的作用和監(jiān)督、技術的穩(wěn)健性和安全性、隱私和數據管理、透明性等七項原則,這是情感機器人首先作為“機器人”應該遵從的普遍性倫理原則。在此基礎上,情感機器人領域應該延展與情感技術有關的倫理原則,規(guī)范人與機器情感交互的情境、方式等。這種倫理原則,應突出強調技術的每個環(huán)節(jié)都必須堅持人的“主導”地位,實現技術的“可控性”。唯有如此,才能引導人類正確對待機器情感、與情感機器人之間形成更合乎倫理的關系。
第三,構建起更有利于情感機器人發(fā)展與使用的外部環(huán)境。應借助多樣化的媒介渠道,發(fā)揮好媒體監(jiān)督與輿論引導的積極價值,規(guī)范情感機器人發(fā)展與使用的輿論風向,使公眾科學客觀地正視情感機器人的社會影響。科技公共政策部門要緊跟新興生物-信息科技發(fā)展步伐,積極出臺配套科技倫理規(guī)范,明確情感機器人領域相關主體的倫理準則,從而保證情感機器人正向價值最大程度地實現。
對情感機器人進行嚴肅的倫理審視,不僅是一個學理問題,更是現實問題。我們應該用“倫理”來進一步規(guī)約好情感機器人的設計、創(chuàng)新與使用,構建出情感機器人與人更為和諧的交互圖景。