隨著人工智能的發(fā)展,越來越多的科學家開始擔憂人工智能會給人類帶來各種難以預計的影響,甚至可能是災(zāi)難。
關(guān)于人工智能(AI):人類必須監(jiān)督和設(shè)定AI的每一次提升都增加了網(wǎng)絡(luò)的力量,然而能掌控它的仍是人類。事實上,AI也只是一系列指示和命令,類似于法律條文和游戲玩法,軍隊就像AI應(yīng)用的有機體。雖然AI夠極大的增強網(wǎng)絡(luò)的威力,但AI卻是執(zhí)行人類設(shè)定的目標,采集特定目標下的數(shù)據(jù)。
因而,如果提供的數(shù)據(jù)是扭曲的,或是設(shè)定的目標是不公正的,AI只會擴大這種不公平。一旦用看似公平的AI替代人類做決定,社會將會受到巨大的威脅。AI的應(yīng)用必須受到智慧和聰明的局外人審視和監(jiān)督,以防止集團利益優(yōu)先于正義和社會整體利益。
機器人可感受到疼痛,且它善于處理負面情緒日前德國科學家開發(fā)出了一套人工神經(jīng)系統(tǒng),可以讓機器人感覺到疼痛,使其在面對潛在危險時能迅速做出反應(yīng),避免受到傷害,同時,也能保護站在身邊的自然人類。
研發(fā)人員稱,讓機器人感覺到疼痛,其實并不困難,只需在機器手臂上安裝一個類似手指的傳感器,他們就能探測到環(huán)境的壓力和溫度,而且這套系統(tǒng)也能把收到的感覺進行分類:輕度、中度和重度疼痛等等,依照不同程度的疼痛,啟動相應(yīng)的保護機制。事實上,如果編程者的數(shù)據(jù)足夠強大,機器人的胳膊在被女朋友咬了一口之后,臉上甚至會出現(xiàn)一個痛苦的表情,且能跪下來發(fā)誓,再也不會偷看街上美女了。
這個生物版的機器人再次引發(fā)熱議,科技人士關(guān)心的是,自己的理念能否完美變現(xiàn),他們不在乎愚蠢的同類是否想得通,是否能接受;而社會學家則會再次扯出人性、倫理等道德層面的東西,他們害怕機器人搶走了自己的工作、情感和之于世界的主導權(quán)。總之,未來的50年內(nèi),自然人會時不時地陷入糾結(jié)和恐懼中,畢竟,科技在進步,機器人也會進步。
機器人誕生之初,最早的定義應(yīng)該是人類的奴隸,他們要負責自然人類干不了和不想干的工作,在很長一段時間內(nèi),人類都盼望著機器人能更加地聰明,甚至能獨立完成工作,因為世界上有那么多的工作都在等著機器人來完成。
我們希望機器人能協(xié)助完成一些單調(diào)、無聊的工作,比如流水線上的組裝、簡單、枯燥,長時間操作會影響效率和良品率,這就是為什么制造企業(yè)在規(guī)劃未來時,言必稱“自動化”;再有一類則是具有職業(yè)危害的工作,比如有害氣體、粉塵、容易爆炸的拋光車間等,在這些車間里裝兩個機器人,管理起來則會輕松愜意。
目前的情況,人類同機器之間雖然不是親密無間,但總也算的上相安無事,現(xiàn)在的機器人沒有情感,不用表達情緒,但也只能完成最基本的工作,事實上,倘若想要機器人完成更復雜的工作,勢必要賦予機器表達情緒的權(quán)利:
如機器人在感受到疼痛之后,會啟動相應(yīng)的機制,從而保護自己以及身邊的自然人——倘若機器人足夠敏感,他們會覺得累、覺得疼,覺得自己做出的產(chǎn)品會有問題,可隨時反饋給管理人員,在適當?shù)臅r候調(diào)整工作強度,而不必非要等到機器人累到吐、累到報廢才考慮停下來,這樣不僅可以大大延長機器人的使用壽命,也能有效降低不良品所帶來的重工成本,這都是目光長遠的策略。
受惠于感應(yīng)器、云計算、大數(shù)據(jù)等技術(shù),機器人正變得更加聰明,他們可以記錄“眼睛”看到的一切,越來越多的數(shù)據(jù)量不經(jīng)篩選地全部進入機器人的大腦里,經(jīng)大數(shù)據(jù)分析之后,做出類人的判斷,這種模式最可怕的地方在于,機器人具有了自主學習、持續(xù)成長的能力,這種感覺不知道會不會給他們帶來快樂,但肯定會提升其玩轉(zhuǎn)世界的能力。
而且相比于自然人,機器人在處理恐懼、焦慮等負面情緒時會更有優(yōu)勢,他們的反應(yīng)都是經(jīng)過計算得出的最佳結(jié)果,基本上沒有沖動的懲罰,更恐怖的則是,他們不會輕易感冒、發(fā)燒,恢復起來更加容易,胳膊、腿什么的更容易復制,自然人骨折了需要100天,而機器人骨折了,可能只需要1個小時就痊愈了。
機器人的疼痛之所以能引發(fā)廣泛關(guān)注,一方面這標志科學技術(shù)的進步;另一方面,這也標志著人類生活又被機器人攻陷了一大塊。事實上,隨著機器人智能化程度的提升,它們終于變成了“他們”,終于開始搶奪人類不想丟掉的東西,包含一部分工作,更重要的是,機器終于開始分享人性快樂,比如學習的快樂、宣泄的快樂、性的快樂。
人工智能專家建議向機器人灌輸人類價值觀以防背叛機器人知道疼了,但是我們變得更恐懼了。
在近日開幕的“TED2017”大會上,計算機專家斯圖爾特-拉塞爾再次發(fā)出警告稱,人類制造出的事物(人工智能)將可能進化得比人類更聰明。人類必須要在機器人內(nèi)部預置不確定性,以防備它們的背叛。
美國加州大學教授斯圖爾特-拉塞爾稱感覺制造出一種比自身物種更為聰明的事物并不一定是好事情。拉塞爾建議,為防止機器人接管我們?nèi)祟?,必須制造出無私心的機器人,即在它們的目標任務(wù)中存在一定程序的不確定性,應(yīng)該教會它們?nèi)祟悆r值觀方面的知識。通過向人工智能系統(tǒng)中灌輸“人類常識”,科學家必須重新定義人工智能,這樣我們才能制造出有益的機器。
拉塞爾表示,機器人應(yīng)該按照某種法則或定律去編程,就比如科幻作家艾薩克-阿西莫夫提出的機器人三定律,以防止它們在執(zhí)行任務(wù)時造成無意識的傷害。
因此,在為機器人編程時,就必須將利他主義、謙虛謹慎的態(tài)度以及其它一些人類價值觀方面的優(yōu)越性編寫進去。拉塞爾認為,“這是人類與人工智能互相適應(yīng)、和諧相處的第一步。”
不過,蘋果Siri高級研發(fā)主管湯姆-格魯伯對人類和人工智能的未來抱有較為樂觀的態(tài)度。他認為,人工智能將可用于增強人類的忘記力,讓人類不再會忘記任何事情。
格魯伯表示,“人工智能所帶來的超人能力是不可避免的,這能夠讓我們記住每個人的名字,記住聽過的每一首歌或者看過的任何事物。人工智能能夠與人類協(xié)作,而不是許多人所擔心的對抗,它們能夠幫助我們?nèi)祟悜?zhàn)勝極限。如何利用這一強大的科學技術(shù),我們有自己的選擇。我們既可以讓它們與我們競爭,也可以讓它們與我們協(xié)作。它們只會讓我們克服局限,做得更好。機器人變得越來越聰明,我們?nèi)祟愐矔勇斆鳌?rdquo;
但筆者認為,世界總會隨著科技的發(fā)展而向前推進,如果有一天,人類在爭奪地球控制權(quán)的戰(zhàn)爭中輸給了機器,那么,也應(yīng)該心服口服地接受,畢竟,適者生存。更何況,機器人也是我們的孩子,未來出現(xiàn)更多優(yōu)秀的孩子也不失為一件好事兒,美麗世界也應(yīng)該屬于他們。