隨著人工智能的發(fā)展,越來越多的科學(xué)家開始擔(dān)憂人工智能會(huì)給人類帶來各種難以預(yù)計(jì)的影響,甚至可能是災(zāi)難。
關(guān)于人工智能(AI):人類必須監(jiān)督和設(shè)定AI的每一次提升都增加了網(wǎng)絡(luò)的力量,然而能掌控它的仍是人類。事實(shí)上,AI也只是一系列指示和命令,類似于法律條文和游戲玩法,軍隊(duì)就像AI應(yīng)用的有機(jī)體。雖然AI夠極大的增強(qiáng)網(wǎng)絡(luò)的威力,但AI卻是執(zhí)行人類設(shè)定的目標(biāo),采集特定目標(biāo)下的數(shù)據(jù)。
因而,如果提供的數(shù)據(jù)是扭曲的,或是設(shè)定的目標(biāo)是不公正的,AI只會(huì)擴(kuò)大這種不公平。一旦用看似公平的AI替代人類做決定,社會(huì)將會(huì)受到巨大的威脅。AI的應(yīng)用必須受到智慧和聰明的局外人審視和監(jiān)督,以防止集團(tuán)利益優(yōu)先于正義和社會(huì)整體利益。
機(jī)器人可感受到疼痛,且它善于處理負(fù)面情緒日前德國科學(xué)家開發(fā)出了一套人工神經(jīng)系統(tǒng),可以讓機(jī)器人感覺到疼痛,使其在面對(duì)潛在危險(xiǎn)時(shí)能迅速做出反應(yīng),避免受到傷害,同時(shí),也能保護(hù)站在身邊的自然人類。
研發(fā)人員稱,讓機(jī)器人感覺到疼痛,其實(shí)并不困難,只需在機(jī)器手臂上安裝一個(gè)類似手指的傳感器,他們就能探測(cè)到環(huán)境的壓力和溫度,而且這套系統(tǒng)也能把收到的感覺進(jìn)行分類:輕度、中度和重度疼痛等等,依照不同程度的疼痛,啟動(dòng)相應(yīng)的保護(hù)機(jī)制。事實(shí)上,如果編程者的數(shù)據(jù)足夠強(qiáng)大,機(jī)器人的胳膊在被女朋友咬了一口之后,臉上甚至?xí)霈F(xiàn)一個(gè)痛苦的表情,且能跪下來發(fā)誓,再也不會(huì)偷看街上美女了。
這個(gè)生物版的機(jī)器人再次引發(fā)熱議,科技人士關(guān)心的是,自己的理念能否完美變現(xiàn),他們不在乎愚蠢的同類是否想得通,是否能接受;而社會(huì)學(xué)家則會(huì)再次扯出人性、倫理等道德層面的東西,他們害怕機(jī)器人搶走了自己的工作、情感和之于世界的主導(dǎo)權(quán)??傊磥淼?0年內(nèi),自然人會(huì)時(shí)不時(shí)地陷入糾結(jié)和恐懼中,畢竟,科技在進(jìn)步,機(jī)器人也會(huì)進(jìn)步。
機(jī)器人誕生之初,最早的定義應(yīng)該是人類的奴隸,他們要負(fù)責(zé)自然人類干不了和不想干的工作,在很長一段時(shí)間內(nèi),人類都盼望著機(jī)器人能更加地聰明,甚至能獨(dú)立完成工作,因?yàn)槭澜缟嫌心敲炊嗟墓ぷ鞫荚诘戎鴻C(jī)器人來完成。
我們希望機(jī)器人能協(xié)助完成一些單調(diào)、無聊的工作,比如流水線上的組裝、簡單、枯燥,長時(shí)間操作會(huì)影響效率和良品率,這就是為什么制造企業(yè)在規(guī)劃未來時(shí),言必稱“自動(dòng)化”;再有一類則是具有職業(yè)危害的工作,比如有害氣體、粉塵、容易爆炸的拋光車間等,在這些車間里裝兩個(gè)機(jī)器人,管理起來則會(huì)輕松愜意。
目前的情況,人類同機(jī)器之間雖然不是親密無間,但總也算的上相安無事,現(xiàn)在的機(jī)器人沒有情感,不用表達(dá)情緒,但也只能完成最基本的工作,事實(shí)上,倘若想要機(jī)器人完成更復(fù)雜的工作,勢(shì)必要賦予機(jī)器表達(dá)情緒的權(quán)利:
如機(jī)器人在感受到疼痛之后,會(huì)啟動(dòng)相應(yīng)的機(jī)制,從而保護(hù)自己以及身邊的自然人——倘若機(jī)器人足夠敏感,他們會(huì)覺得累、覺得疼,覺得自己做出的產(chǎn)品會(huì)有問題,可隨時(shí)反饋給管理人員,在適當(dāng)?shù)臅r(shí)候調(diào)整工作強(qiáng)度,而不必非要等到機(jī)器人累到吐、累到報(bào)廢才考慮停下來,這樣不僅可以大大延長機(jī)器人的使用壽命,也能有效降低不良品所帶來的重工成本,這都是目光長遠(yuǎn)的策略。
受惠于感應(yīng)器、云計(jì)算、大數(shù)據(jù)等技術(shù),機(jī)器人正變得更加聰明,他們可以記錄“眼睛”看到的一切,越來越多的數(shù)據(jù)量不經(jīng)篩選地全部進(jìn)入機(jī)器人的大腦里,經(jīng)大數(shù)據(jù)分析之后,做出類人的判斷,這種模式最可怕的地方在于,機(jī)器人具有了自主學(xué)習(xí)、持續(xù)成長的能力,這種感覺不知道會(huì)不會(huì)給他們帶來快樂,但肯定會(huì)提升其玩轉(zhuǎn)世界的能力。
而且相比于自然人,機(jī)器人在處理恐懼、焦慮等負(fù)面情緒時(shí)會(huì)更有優(yōu)勢(shì),他們的反應(yīng)都是經(jīng)過計(jì)算得出的最佳結(jié)果,基本上沒有沖動(dòng)的懲罰,更恐怖的則是,他們不會(huì)輕易感冒、發(fā)燒,恢復(fù)起來更加容易,胳膊、腿什么的更容易復(fù)制,自然人骨折了需要100天,而機(jī)器人骨折了,可能只需要1個(gè)小時(shí)就痊愈了。
機(jī)器人的疼痛之所以能引發(fā)廣泛關(guān)注,一方面這標(biāo)志科學(xué)技術(shù)的進(jìn)步;另一方面,這也標(biāo)志著人類生活又被機(jī)器人攻陷了一大塊。事實(shí)上,隨著機(jī)器人智能化程度的提升,它們終于變成了“他們”,終于開始搶奪人類不想丟掉的東西,包含一部分工作,更重要的是,機(jī)器終于開始分享人性快樂,比如學(xué)習(xí)的快樂、宣泄的快樂、性的快樂。
人工智能專家建議向機(jī)器人灌輸人類價(jià)值觀以防背叛機(jī)器人知道疼了,但是我們變得更恐懼了。
在近日開幕的“TED2017”大會(huì)上,計(jì)算機(jī)專家斯圖爾特-拉塞爾再次發(fā)出警告稱,人類制造出的事物(人工智能)將可能進(jìn)化得比人類更聰明。人類必須要在機(jī)器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。
美國加州大學(xué)教授斯圖爾特-拉塞爾稱感覺制造出一種比自身物種更為聰明的事物并不一定是好事情。拉塞爾建議,為防止機(jī)器人接管我們?nèi)祟悾仨氈圃斐鰺o私心的機(jī)器人,即在它們的目標(biāo)任務(wù)中存在一定程序的不確定性,應(yīng)該教會(huì)它們?nèi)祟悆r(jià)值觀方面的知識(shí)。通過向人工智能系統(tǒng)中灌輸“人類常識(shí)”,科學(xué)家必須重新定義人工智能,這樣我們才能制造出有益的機(jī)器。
拉塞爾表示,機(jī)器人應(yīng)該按照某種法則或定律去編程,就比如科幻作家艾薩克-阿西莫夫提出的機(jī)器人三定律,以防止它們?cè)趫?zhí)行任務(wù)時(shí)造成無意識(shí)的傷害。
因此,在為機(jī)器人編程時(shí),就必須將利他主義、謙虛謹(jǐn)慎的態(tài)度以及其它一些人類價(jià)值觀方面的優(yōu)越性編寫進(jìn)去。拉塞爾認(rèn)為,“這是人類與人工智能互相適應(yīng)、和諧相處的第一步。”
不過,蘋果Siri高級(jí)研發(fā)主管湯姆-格魯伯對(duì)人類和人工智能的未來抱有較為樂觀的態(tài)度。他認(rèn)為,人工智能將可用于增強(qiáng)人類的忘記力,讓人類不再會(huì)忘記任何事情。
格魯伯表示,“人工智能所帶來的超人能力是不可避免的,這能夠讓我們記住每個(gè)人的名字,記住聽過的每一首歌或者看過的任何事物。人工智能能夠與人類協(xié)作,而不是許多人所擔(dān)心的對(duì)抗,它們能夠幫助我們?nèi)祟悜?zhàn)勝極限。如何利用這一強(qiáng)大的科學(xué)技術(shù),我們有自己的選擇。我們既可以讓它們與我們競(jìng)爭,也可以讓它們與我們協(xié)作。它們只會(huì)讓我們克服局限,做得更好。機(jī)器人變得越來越聰明,我們?nèi)祟愐矔?huì)更加聰明。”
但筆者認(rèn)為,世界總會(huì)隨著科技的發(fā)展而向前推進(jìn),如果有一天,人類在爭奪地球控制權(quán)的戰(zhàn)爭中輸給了機(jī)器,那么,也應(yīng)該心服口服地接受,畢竟,適者生存。更何況,機(jī)器人也是我們的孩子,未來出現(xiàn)更多優(yōu)秀的孩子也不失為一件好事兒,美麗世界也應(yīng)該屬于他們。