機器人廣泛應用在各類型的實驗室中。除此之外,伴隨著機器人的出現(xiàn),它已開始在制造業(yè)中發(fā)揮作用,從此,機器人在該領域普遍出現(xiàn)。
在早期,機器人應用于制造業(yè)的時候,首先引起人們對倫理問題的關注是通過一個死亡事件。這個事件發(fā)生在年的月日,地點在密歇根的弗林特(福特制造廠。有位工人在一次罷工中,試圖從倉庫取回一些零件而被機器人殺死。另外,在年也發(fā)生了一起死亡事件,一個日本維修工人在對機器進行維修的時候而被機器人殺死。繼這兩個事件之后,制造業(yè)部門開始在一些重大和存在潛在危險的環(huán)節(jié)安裝防護措施。即使如此,在年,還是發(fā)生了機器致工人死亡的案例。很明顯,工廠的雇傭工人和機器人是以合作者的關系出現(xiàn),這種合作本身就包含了倫理責任,那么就需要確保工人的安全和幸福。然而,當時卻沒有一個安全的防護能夠保證人們遠離危險。

設置防護確實在很大程度上緩解了機器人在制造過程中對人類的傷害。然而,人們對機器的大量使用卻也引發(fā)了很多其它方面的倫理問題,尤其是在人類情感上的一些問題。
(1)人類在被機器替代的過程中產生恐懼情感
機器人進入工廠,雇傭工人就會減少,從而導致失業(yè),這必然要引起工人的擔憂和恐懼。這就需要管理人員去阻止或至少是減少這些恐懼。例如,機器人可以被引入一些新的工廠而不是替代存在于一線工作的工人。對于新的工廠來說工人的數(shù)量應該有一定的保證或者在已經存在的工廠適當引入機器人,這樣兩者都可以參與到工作過程中。盡管利用機器人可以降低工業(yè)成本以保持企業(yè)的競爭力,但是,這種降低成本的方式應該考慮到勞資雙方的共同利益。管理者可以考慮對當前的雇傭工人進行新崗位的培訓,這樣可以極大地降低他們對失業(yè)的恐懼。另外,既然機器人在重復性的動作上具有很大的優(yōu)勢,那么在其缺乏判斷和決策的位置上就應該由工人來代替。
?。?)人類對于作為合作者的機器人從情感上的抵觸
原則上,在制造業(yè)領域,科學家應該盡可能地設計能夠完成枯燥和危險任務的機器人,同時,對于一些需要判斷和解決問題的任務由人類工作者完成。然而,在自動化工廠發(fā)展的過程中,人類工作者與機器人在一起工作可能會產生自卑情緒。更進一步來說,他們可能擔心工廠的管理者會進一步用機器人代替他們,因為他們認為機器人(原則上來說)可以完全代替人類的工作。在這樣一種信念的引導下,他們可能會不高興甚至對機器人進行一些破壞性活動。與此相關的一個案例是19世紀英國工人破壞機器的一個事件。‘‘所以管理者應該具有倫理方面的義務以允許工人在一定的任務范圍內去工作,并充分發(fā)揮機器人所不具有的人類獨特的認知能力。
?。?)人機合作已成為當前的發(fā)展趨勢
在最近幾年,人機合作在很多場合的增加己經引起了人們的注意。新感應器的出現(xiàn)更加增進了人機關系,從而將潛在危險降低。這樣,當機器人和人類在工作過程中接近的時候,傳感器就會發(fā)出預警。同時,為了降低任何可能的危險,未來的制造業(yè)機器人將具有識別人類手勢和行動而運作的能力。這一合作也意味著機器人能夠從人類那里學習一些限制性的動作。最終,這一效果的目標是通過吸取機器人和人類各自的優(yōu)勢,為最大可能地實現(xiàn)機器人和人類之間的分享和合作而創(chuàng)造更多的機會。
顯然,人類和機器人之間的分享和合作可能會優(yōu)化工作環(huán)境,但是也可能會降低人機互動與交流。因此,在工廠開始提高機械化的過程中,這些倫理問題就需要先行處理。
健康護理方面的機器人應用是另一個人機交互快速發(fā)展的領域。它主要包括護理,手術,理療和康復等??梢哉f,這個領域的機器人應用極大地拉近了人與機器之間的距離。對此,我們能夠推測,機器人在這一領域的應用可以減弱其對人類的潛在危險。在此我們就機器人在這個領域的快速發(fā)展指出一些典型的應用。
健康護理方面的工作通常是病人和護理者之間一對一的關系,這種人機交互的工作模式是非常重要的。因此,這也就是很多實驗室正在發(fā)展“護理助理”機器人的原因。這方面最早的機器人是由公司制造的輪式助理機器人。旨在幫助護士或醫(yī)院工作人員運送藥物、實驗樣本、設備、食物以及醫(yī)療記錄等工作。還能夠為醫(yī)院的各個地點導航,從而避免人員間的碰撞。除此之外,它還能夠使用電梯以及鎖定某個特定的病房。大學和大學己經制成了命名為的“機器人護士”。
它能夠從一個助理的角度來檢查醫(yī)院的老年病人,從而為醫(yī)護人員提供信息,或提醒病人用藥以及引導相關人員就醫(yī)等。這種機器人的形狀大體是在運動的輪子上安裝直立的身軀,并使它具有類似于人類頭部一樣的物體,上面裝有便于交流的攝像頭和聲音識別與記錄裝置。在頭部或腰部的位置,它們通常也會有數(shù)字顯示的功能,從而提示某些信息。在歐洲,這一領域己發(fā)展的非常普遍,諸如在德國的斯圖加特弗勞恩霍夫研究所的機器人。它擁有一個可以在手術中幫助拾取器械的手臂。類似的機器人也出現(xiàn)在日本,韓國等國家。
在助理機器人有這樣一個設備,它可以提供口頭引導,鼓勵,使中風和脊髓損傷的人在與機器的交互中走向恢復。同時它還可以幫助患有自閉癥的孩子進行治療。這一類型的機器人不會與對象進行身體上的接觸,而是通過聲音和示范予以交流。
在諸如這些護理型或助理型機器人中,經常存在這樣一些倫理方面的問題:
病人可能會對機器人產生感情,這樣如果撤回機器人就可能會觸發(fā)病情甚至加重。
除了遵守人類的指令之外,機器人自身不能就病人的情緒,諸如生氣或失望等做出回應。例如,一個病人可能拒絕機器人喂藥,并把藥片扔到地板上,甚至試圖打擊機器人。
機器人會而對很多病人而不是唯一,而且它不能優(yōu)先考慮一些特殊情況,這有可能觸發(fā)病人的生氣和失望情緒。
我們再來考慮這樣一個狀況。機器人完成了一個手術操作,然后病人出現(xiàn)很多并發(fā)癥并且較之之前病情加重。那么誰來負這個責任?機器人的設計者?制造者?編程人員?或者其它主體?如果對于這一外科手術存在一個眾所周知的可能出現(xiàn)的問題,對于外科醫(yī)生或醫(yī)院,或者兩者都包括在其中,那么這個倫理問題誰來負責?是否建議或者批準使用機器人手術的人?傷害在什么樣的情況下可以定義為不道德?或者換句話說,傷害的程度在什么范圍內可以被道德所允許?即,可接受的風險是什么?
機器人手術中真正的自主權需要有很多安全方面的措施,以確保病人免受其害。更為重要的是,機器人手術較之人類手術應該在精確度標準上要求更高。
結語
它們必須從一個聯(lián)合的程序(可能要用到智能化的工具)中掌握手術操作的技能,并且模仿人類手術操作。在此過程中,我們可以把握這樣一個倫理問題的脈絡:用機器人做手術存在一定的風險,或者獨立完成,或者與外科醫(yī)生合作完成,手術所面臨的風險肯定要比獨立的人工操作低。另外,從手術費用上來看,機器人手術要比純粹的人類醫(yī)生所做的手術費用低。然而,如果這一情況變?yōu)楝F(xiàn)實,那么必然會在手術中增加機器人的應用,我們可能就會在醫(yī)院看到更多的分子。這樣就會涉及到機器人在保險領域所面臨的問題了。