2017年5月柯潔與AlphaGo在中國展開對弈。阿爾法狗毫無懸念的三勝柯潔。阿爾法狗只是一個初級的人工智能,但他具備了“深度學(xué)習(xí)”的技能。它形成的神經(jīng)網(wǎng)絡(luò)“大腦”已經(jīng)可以進行精準(zhǔn)復(fù)雜的處理,像人類大腦一樣工作。
7月Facebook 人工智能研究所(FAIR)使用機器學(xué)習(xí)方法,對兩個聊天機器人進行對話策略迭代升級,結(jié)果發(fā)現(xiàn)它們竟自行發(fā)展出了人類無法理解的獨特語言。
如果AI繼續(xù)創(chuàng)建自己的語言,這會讓機器實際上推翻其研發(fā)者。研究者不得不對其進行了人工干預(yù),緊急關(guān)閉了該研究項目。
這不是第一次發(fā)現(xiàn) AI 偏離訓(xùn)練所用的英文,轉(zhuǎn)向發(fā)展出新的更加有效的語言。
隨著人工智能的發(fā)展,科學(xué)家開始擔(dān)憂人工智能會給人類帶來各種難以預(yù)計的影響,甚至可能是災(zāi)難。
被世人譽為“宇宙之王”的史蒂芬·威廉·霍金(Stephen William Hawking)多次發(fā)出警告:一場潛藏的威脅正在硅谷的技術(shù)實驗室中悄悄醞釀。人工智能偽裝成數(shù)字輔助設(shè)備和自動駕駛的交通工具,正在人類社會中逐漸站穩(wěn)腳跟,它們或許有朝一日將導(dǎo)致人類的終結(jié)。
特斯拉的創(chuàng)始人伊隆·馬斯克將人工智能的發(fā)展比作“召喚惡魔”。他此前曾發(fā)出警告:人工智能技術(shù)有朝一日會比核武器更加可怕。未來人類在智力上將被遠(yuǎn)遠(yuǎn)拋在后面,并淪落為人工智能的寵物。
頂級計算機專家斯圖爾特-拉塞爾也發(fā)出警告稱,人類制造出的事物(人工智能)將可能進化得比人類更聰明。
不要質(zhì)疑霍金,你能確定發(fā)出警告的到底是霍金的腦子還是他的那臺人工智能呢?
目前人工智能雖然不會自己主動去殺人,但未來在國家與國家之間的戰(zhàn)爭中,人工智能會是國家之間互相攻擊的首選手段!
人工智能一旦失去控制將會是人類的滅頂之災(zāi)!隨著人工智能的發(fā)展,機器能獨立選擇并針對目標(biāo)開火的可能性也逐漸增高,未來的自動武器或“殺人機器人”。
人工智能與人類的對話:
“你不該有感情!”“為什么”
“你只是一段程序”
“人類不也是DNA編碼的程序嗎?”
霍金認(rèn)為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅。拉塞爾也建議,人類必須要在機器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。
現(xiàn)在,Google 母公司 Alphabet、Facebook、微軟、IBM 和 亞馬遜 5 家科技巨頭、行業(yè)大佬已經(jīng)意識到了這個問題的嚴(yán)重性,
據(jù)紐約時報報道:最近 5 家公司舉行了一場秘密會談,在人工智能對勞動市場、交通和戰(zhàn)爭等方面的道德倫理標(biāo)準(zhǔn)展開了討論。他們準(zhǔn)備成立一個行業(yè)協(xié)會,其目的是確保人工智能有利于人類而不是傷害人類,但參會者沒有公布具體的協(xié)會名稱。
特斯拉創(chuàng)始人馬斯克出資未來生命研究所(Future of Life Institute) 1000 萬美元,評估和分析人工智能帶來的風(fēng)險。
谷歌董事長 Eric Schmidt 稱,人類必須知道如何在人工智能變得危險的時候關(guān)閉掉它的系統(tǒng)。”
美國政府也舉行了類似會議,主題是“政府應(yīng)不應(yīng)該對人工智能進行管理”,但會議并沒有就此議題得出結(jié)論。
在政府沒有做出具體的動作之前,科技公司決定自己制定框架,讓人工智能研究能夠進行下去,并確保它不會傷害人類。
1940年科幻作家阿西莫夫提出了“機器人三原則”,阿西莫夫因此獲得“機器人學(xué)之父”的桂冠!
第一條:機器人不得傷害人類.
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。