關(guān)于機(jī)器人可能會(huì)反制人類,機(jī)器人可能不受人類的控制,最近已經(jīng)有了新的、可怕的趨勢。臉書的研究人員發(fā)現(xiàn),人工智能(AI)的程序可以使用一種人不懂而只有計(jì)算機(jī)(電腦)懂得的語言,進(jìn)行它們之間的對話。因?yàn)檫@個(gè)程序創(chuàng)建了自己的語言,所以臉書的科研人員最后關(guān)閉了這樣的人工智能(AI)語言程序。他們的研究人員意識(shí)到,非常令人可怕的是,人工智能程序產(chǎn)生的新語言不是英語,而是僅能被它自己識(shí)別的代碼。這是今年七月被披露的事件。
為此,特斯拉電動(dòng)汽車創(chuàng)始人馬斯克(Elon Musk)也對人工智能提出了警告。馬斯克對美國的州長們說,需要積極主動(dòng)地而不是被動(dòng)地對人工智能進(jìn)行監(jiān)管。他甚至擔(dān)心,當(dāng)人們真正需要對人工智能進(jìn)行監(jiān)管時(shí),可能就已經(jīng)太遲了。雖則如此,馬斯克自己的OpenAI實(shí)驗(yàn)室,也成功的讓人工智能機(jī)器人開發(fā)出了自己的語言。
很多人都很愉快的使用谷歌的機(jī)器翻譯功能,并且在實(shí)際運(yùn)用中幫助谷歌完善機(jī)器的翻譯效能。但谷歌的翻譯服務(wù)團(tuán)隊(duì)發(fā)現(xiàn),他們的人工智能程序可以靜悄悄地編寫自己的機(jī)器語言,來幫助翻譯句子。值得人們警惕的是,人類目前根本無法掌握這種機(jī)器所使用的新語言的邏輯性!當(dāng)谷歌的翻譯變得日益廣泛運(yùn)用,當(dāng)世界各地操不同語言的人們、甚至國際會(huì)議,都使用谷歌翻譯時(shí),那豈不是連人們的思維、溝通、交往,都會(huì)被機(jī)器人和機(jī)器人背后的力量所控制和左右?!
目前,世界各國的主要汽車廠商對自駕車的〝自主程度〞有不同的處理方法和態(tài)度。大眾集團(tuán)(Volkswagen Group)旗下品牌奧迪(Audi)發(fā)布了一款可上路行駛的最先進(jìn)的自動(dòng)駕駛汽車,允許車主長時(shí)間不看道路的系統(tǒng)。新款?yuàn)W迪A8允許駕駛員在交通擁堵、車速不超過每小時(shí)60公里時(shí),讓車輛進(jìn)入自動(dòng)駕駛狀態(tài),而駕駛員可以完全不管。
奔馳、日產(chǎn)和奧迪等車企,采取對車輛逐步增強(qiáng)〝自主〞程度的態(tài)度、在發(fā)生緊急情況時(shí)把控制權(quán)交還給駕駛員。福特和捷豹、路虎比較保守,表示只有當(dāng)車輛〝自主〞技術(shù)能在所有情形下駕駛車輛時(shí),才會(huì)給自己的汽車加裝該技術(shù)。福特董事長比爾。福特(Bill Ford)表示,自駕車的技術(shù)要求不難實(shí)現(xiàn),但道德和制度層面的問題才是最大的難題。
關(guān)于機(jī)器人時(shí)代的倫理,美國科幻作家阿西莫夫早就給出了三條法則。阿西莫夫在1950年出版的短篇小說集《我,機(jī)器人》中提出〝機(jī)器人學(xué)三大法則〞,被稱為是機(jī)器人的〝摩西十誡〞。法則第一條是:機(jī)器人不得傷害人類,或因不作為而使人類受到傷害;第二條:除非違背第一法則,機(jī)器人必須服從人類的命令;第三條:在不違背第一及第二法則的情況下,機(jī)器人必須保護(hù)自己。后來,阿西莫夫又補(bǔ)充了第零條法則:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。
但機(jī)器人學(xué)的三大法則,也難以真正的、完全的解決人和機(jī)器的關(guān)系問題。阿西莫夫的《機(jī)器人與帝國》故事中,一名罪犯犯下重罪,必須被處死,但如果機(jī)器人在場看見了,機(jī)器人要服從第一法則,就不能對人類個(gè)體可能死亡而袖手旁觀,它可能就需要去〝劫法場〞救下那個(gè)死刑犯,從而干擾了人類社會(huì)的秩序。第二法則的〝自保〞和第三法則的〝服從命令〞也有可能發(fā)生沖突,從而使得機(jī)器人無所適從。
阿西莫夫的〝?shù)诹惴▌t〞,是更高的智慧,涉及人類的整體。但涉及到人類的整體,涉及到人類的前途和命運(yùn),這時(shí)候機(jī)器人插進(jìn)來,就更可怕。機(jī)器人如果看到人類無節(jié)制、無限度的盲目發(fā)展,導(dǎo)致更多的災(zāi)難、戰(zhàn)爭和貧窮,如果要遵循〝?shù)诹惴▌t〞,機(jī)器人就必須選擇用機(jī)器人自己〝理性的頭腦〞來支配和保護(hù)人類,這樣人類就不會(huì)絕種,但人類自己的自由意志,可能就被機(jī)器人奪取了。這是人類希望的嗎?我們的世界上,超過85%的人是信神、信佛的,信神信佛的人們相信,人是神佛創(chuàng)造的,如果神造的人就這樣被機(jī)器人或者機(jī)器人背后的勢力、生命去左右了人類的人生、生命,神佛會(huì)允許這樣的事情發(fā)生嗎?
在道德層面,一個(gè)典型的例子就是,當(dāng)要發(fā)生汽車事故時(shí),自駕車是選擇救駕駛員,還是選擇讓駕駛員受傷而去救10個(gè)行人?在解釋人類社會(huì)的行為時(shí),有一個(gè)〝有軌電車難題〞。
在這個(gè)經(jīng)典的思維實(shí)驗(yàn)中,一輛有軌電車沿著軌道飛馳而來,馬上要撞到五個(gè)人。如果你有控制桿可以把電車轉(zhuǎn)到另一個(gè)軌道,從而救下這五個(gè)人,但是會(huì)犧牲掉另一個(gè)軌道上的一個(gè)人。這個(gè)時(shí)刻,你怎么辦?你是〝采取行動(dòng)但是殺死一個(gè)人〞還是〝什么都不做讓五個(gè)人死〞?這個(gè)選擇的難處,在于它迫使人們在〝不殺生〞的個(gè)人道德和〝救更多的人〞的更高的善良之間,進(jìn)行一番掙扎。
面對〝有軌電車難題〞,大多數(shù)人可能會(huì)選擇更高的善良,轉(zhuǎn)向救大多數(shù)人,而犧牲一個(gè)人。但是,人是有強(qiáng)烈的感情的,如果可能的單個(gè)受害人是婦女、兒童、弱者或者自己的親人,實(shí)驗(yàn)參與者很有可能讓大多數(shù)人犧牲,而救下自己的親人或者一名婦女或兒童。這里,人類做出這種選擇,可能都是非常困難的,那顯而易見,人類不能讓機(jī)器去做這個(gè)選擇,不能讓機(jī)器決定人的生死。所以,我們必須對機(jī)器、機(jī)器人、自駕車和電腦做出一定的規(guī)范。