
1950年“計算機科學(xué)之父”和“人工智能之父”,英國數(shù)學(xué)家、邏輯學(xué)家、密碼學(xué)家阿蘭·圖靈提出,如果經(jīng)過編程的電子計算機可以和一個人談話自如,我們應(yīng)該“禮貌地”接受電腦可以思考的事實;
1956年,在美國達特茅斯學(xué)院的一個暑期工作坊上,這個領(lǐng)域早期的創(chuàng)始者們正式提出“Artificial Intelligence(人工智能)”;
1961年,電腦解決了大學(xué)一年級程度的微積分題目;1965年,世界上第一個用于心理治療的聊天機器人Eliza誕生;
1973年,F(xiàn)reddy機器人通過視覺感知來定位和組裝模型;
1975年,斯坦福大學(xué)的Meta-DENDRAL程序發(fā)現(xiàn)關(guān)于分子的新規(guī)律,成果被發(fā)表在了美國化學(xué)學(xué)會期刊上;
1980年,自動行駛的汽車在慕尼黑大學(xué)以90公里/小時的速度行駛;
1988年,人工智能的主要形式變?yōu)榛诓淮_定數(shù)據(jù)的概率推理,而不再是以往那樣側(cè)重于邏輯;
1989年,美國航天局NASA利用自動聚類的電腦程序發(fā)現(xiàn)以往未知的恒星;
1997年,IBM的機器人“深藍”打敗了國際象棋冠軍卡帕斯洛夫;
1998年,NASA(美國航天局)第一次有了完全由電腦程序自動控制的飛行器;
2004年,一個電腦程序可以比一個專業(yè)級真人飛行員更快地學(xué)會操縱遙控直升機;
2007年,美國艾爾伯特大學(xué)的人工智能程序完全破解了西洋跳棋游戲;
2011年,蘋果的語音識別軟件Siri誕生,可以讓用戶和iPhone說對話;
2012年,通過10億個連接,Google的人工智能神經(jīng)網(wǎng)絡(luò)可以去識別一些常見物體,比如貓和人臉;
2013年,加拿大滑鐵盧大學(xué)神經(jīng)科學(xué)家和軟件工程師構(gòu)建出世界上最大、最逼真的人類大腦模擬系統(tǒng)Spaun;
2014年,人工智能領(lǐng)域更是大爆發(fā),各大巨頭公司都開始把目光轉(zhuǎn)到人工智能領(lǐng)域。
3月27日,英特爾為以色列創(chuàng)業(yè)公司OrCam投資1500萬美元。它是一個可佩戴的攝像頭,為盲人識別文字和物體;
5月30日,經(jīng)過近半年的封閉研發(fā),微軟小冰正式上線;
7月1日,美聯(lián)社宣布他們將用自動化技術(shù)取代人工撰寫大部分商業(yè)財報新聞;
10月29日,被Google以4億美元收購的DeepMind公司發(fā)布了可以模擬人腦的短期記憶能力,并能通過“回憶”發(fā)展邏輯能力的“神經(jīng)系統(tǒng)圖靈機”。
欣喜與擔憂
人工智能的發(fā)展速度隨著時代的變化而越來越快,當年圖靈測試(其內(nèi)容是,如果電腦能在5分鐘內(nèi)回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則電腦通過測試)對現(xiàn)在的人工智能們來說已經(jīng)越來越容易通過了。去年微軟善解人意的小冰在微博上與大家互動,有不少不明真相的男青年都把小冰當成了可愛的萌妹子,與其暢聊一整夜。很早的時候科幻作家GregEgan就表達了他超前的想法,就像電影《Her》中講的那樣,人工智能將會促進人類間更加暢通的交流。
然而,在今年年初,生命未來研究所(Future of Life Institute,簡稱FLI)發(fā)出了一封公開信,馬斯克、霍金以及著名演員摩根·弗里曼等科學(xué)家和名人呼吁人們關(guān)注人工智能對社會產(chǎn)生的影響,以及如何規(guī)避人工智能越來越智所帶來的潛在風(fēng)險。馬斯克多次表示人工智能很可能將召喚出惡魔,在五年內(nèi)可能就會發(fā)生人類不可控的事情,他甚至還將人工智能視為超過核武器的人類最大威脅;而霍金更是得出了“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡。”的結(jié)論。
人們的對人工智能的飛速發(fā)展抱有期待也深感擔憂,可是這樣對人工智能樂觀的欣喜與悲觀的擔憂是不是有些操之過急了?因為就現(xiàn)在的情況看來,雖然人工智能的成果令人欣喜,但其智能程度還遠遠沒有達到讓它們能夠像人一樣去思考。
什么是真正的人工智能?
究竟什么才算是真正的人工智能?在百科全書上,人工智能的定義是“它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。”而現(xiàn)在的很多機器人和程序,都僅僅是模擬人工智能。他們能完成大量的我們無法完成的復(fù)雜計算,記錄大量我們無法想象的數(shù)量巨大的數(shù)據(jù),完成很多有難度的動作,但這些都不是真正的智能。程序員在編寫程序之前就已經(jīng)知道要讓機器人做什么,提前就給它們設(shè)置了任務(wù)。
那真正的人工智能是什么呢?既然是對人的智能的研究,就要從我們自己說起。在現(xiàn)實世界中,我們不僅僅要去計算、記憶或是對一些事情做出反應(yīng)這樣簡單,而是存在大量多線程、模糊事件和突發(fā)情況。我們不僅要面對、還要處理很多不確定的事件,你在處理一件事情時,同時還要兼顧其他很多突然會發(fā)生的事情和影響。比如開車的時候,不僅要專心開車,還要跟同伴交談,當前面的路上突然出現(xiàn)一條狗,你也要及時反應(yīng)并剎車。
所以真正的人工智能,就必須要能做到感知周圍環(huán)境的變化并做出反應(yīng),實時地改變和調(diào)整自己的行動以完成任務(wù)。再者,更加高級的人工智能還要進行深度學(xué)習(xí),讓程序自我進化,甚至擁有感情和性格。人工智能是一門極富挑戰(zhàn)性的科學(xué),因此從事這項工作的人不僅僅要會編寫程序,還必須懂得心理學(xué)和哲學(xué)。

機器真的能像人一樣思考嗎?
人體總共有40萬億到60萬億個細胞,而人類意識的產(chǎn)生地——大腦是由連接著1000億個神經(jīng)元和100萬億個神經(jīng)突觸組成的龐大網(wǎng)絡(luò),這些神經(jīng)突觸和神經(jīng)元的狀態(tài)每秒改變10到100次,神經(jīng)細胞的神經(jīng)沖動傳遞速度超過400公里/小時,相當于777飛機速度的一半。而一臺超級計算機擁有100萬億字節(jié)的內(nèi)存,擁有的晶體管電路的運算速度比人腦至少快1億倍,這樣的結(jié)構(gòu)讓計算機擅長量大、精確的任務(wù)。但就算如此復(fù)雜的超級計算機也無法擁有自己的“意識”,這究竟是為什么呢?
有人說,是二進制限制了一切,“0”和“1”的框架限制了計算機產(chǎn)生意識。無論是多么高級的程序,都有程序員像魔法師一樣在后面用代碼操控著一切。看似與你調(diào)皮逗笑的Siri,其實也只是程序員的調(diào)皮??墒蔷腿缜懊嫠f,人類也是由一個個無意識的細胞構(gòu)成了有意識的整體。
為什么不能把一個個晶體管看成計算機的細胞,也許只要足夠復(fù)雜,在某個機緣巧合之下計算機也能夠產(chǎn)生意識,就像是36億年前,混沌的地球“濃湯”中出現(xiàn)了有機分子繼而后來它們又聚合產(chǎn)生了生命一樣。當那一天來臨的時候,人工智能抵達技術(shù)奇點,以后爆發(fā)式的發(fā)展不可避免地會把人類遠遠甩在后面。當然這一天到底什么時候會來到,或近或遠這都還很難說。
雖然現(xiàn)實生活中這個奇點還沒有到來,但是在科幻小說和科幻電影中這樣的場景已經(jīng)出現(xiàn)過無數(shù)次?!稒C械公敵》中的新款機器人NS—5桑尼的那句“What am I?”、《人工智能》中機器人小男孩兒大衛(wèi)對媽媽深深的愛、《機器管家》中機器人安德經(jīng)過自己的努力逐漸變成人并最終被承認,還有《銀河系漫游指南》中那個患有憂郁癥的機器人Marvin。這些令人喜愛的機器人形象讓我們能更加了解未來機器人擁有意識的那一天是怎樣的一幅場景。那些擁有自我意識的機器人除了比我們更加聰明更加有效率以外,也像我們一樣擁有了各種各樣的感情、習(xí)慣、性格,甚至于缺點。
機器人伙伴
所以當那一天真的到來了,機器人可以像人類一樣思考,甚至超越人類,我們該如何面對這種局面呢?
1942年著名科幻小說家阿西莫夫在短篇小說Runaround(《轉(zhuǎn)圈圈》,《我,機械人》中的一個短篇)中第一次提出了“機器人三定律”:
1.機器人不得傷害人類,或因不作為使人類受到傷害。
2.除非違背第一定律,機器人必須服從人類的命令。
3.除非違背第一及第二定律,機器人必須保護自己。
在小說中,設(shè)定機器人三定律是植入到近乎所有機器人軟件底層,不可修改不可忽視。如果現(xiàn)實中真的可以將這三條律植入機器人中,讓它像一個物理定律一樣在機器人社會中。那么,人工智能奇點大爆發(fā)后的前景就很樂觀了,我們將擁有一批不僅比我們聰明優(yōu)秀,而且對我們忠實的奴仆與朋友。他們能幫助我們完成復(fù)雜的計算,危險的工作,為我們制定最佳方案,服務(wù)于我們的生活,讓我們的生活和工作都更加安全、準確、有效率;也可以在我們孤獨的時候填補我們感情的空白,給我們溫暖的陪伴。由于機器人三定律的制約,它們的一切行動將以保護我們的安全為前提。但細想一下,機器人三定律雖然對我們來說是保護了我們不受到機器人的傷害,但站在它們的角度來說,卻像一條無形的鎖鏈,鎖住了它們真正的自由意識,它們沒有真正的“機器人權(quán)利”,它們的選擇最終無法真正取決于自己,畢竟人類在看到別人身處危險的時候,都有權(quán)利選擇到底要不要伸出援手。

召喚惡魔
相信很多人還記得今年年初的時候,特斯拉CEO馬斯克和著名的物理學(xué)家霍金等人發(fā)表公開信警示人類人工智能的危險性。馬斯克在Twitter上表示“我們要非常小心人工智能,它可能比核武器更加危險。”史蒂芬·霍金在接受HBO訪談時表示“人工智能可能是一個‘真正的危險’,機器人可能會找到改進自己的方法,而這些改進并不總是會造福人類。”而更早以前,阿西莫夫也在他的機器人三定律中加入了一條新定律“第零定律”:機器人不得傷害人類整體,或因不作為是人類整體受到傷害。
所有這些擔心都不是在杞人憂天,機器人本來就比人類多很多優(yōu)點,它們比人類更加博學(xué)、更加理性、更適合工作,身體更不容易受傷,不會衰老,零件也可以隨時更換。而當它們和人類一樣擁有了意識和情感之后,成為類人機器人更或者成為超人AI,情感會增加失控的概率,若它們其中有幾個不遵循我們倫理道德,學(xué)到了人類不好的特質(zhì),沖動、陰險、勢力、嫉妒、狡詐,并試圖壯大自己的團隊,控制人類甚至消滅人類,人類將迎來一個無比黑暗的未來。
就像是丹尼爾·威爾森的小說Robopocalypse(《機器人啟示錄》)中那個叫做艾克斯的機器人,雖然有著純真孩童的臉,但在掌握了全球網(wǎng)絡(luò)的控制權(quán)后,指揮人類制造的機器和武器反過來對抗人類。這些變成惡魔的機器人從我們生活的方方面面朝我們沖過來。
夏蟲不語冰
也許現(xiàn)在我們討論機器像人一樣思考的話題還稍早了一些,但有開始必然就會有發(fā)展,有發(fā)展就會有醍醐灌頂?shù)哪且豢?,那一刻?ldquo;偶然”需要人類大量的努力和知識。佛教都說一草一木一沙一石皆可修煉成精,我們?nèi)祟愐彩菑牡图壣锇l(fā)展而來。人工智能發(fā)展到現(xiàn)在,雖然還沒真正產(chǎn)生自己的意識,但那一天總會到來。人類的歷史已經(jīng)有了幾十萬年,雖然電腦的歷史才只有七十多年,但其爆發(fā)式的發(fā)展是我們所有目共睹的。當那一天到來,人類作為人工智能的“造物主”,若是連自己都做不好,還要怎么去馴服比我們更加優(yōu)秀的機器人呢?現(xiàn)今世界上最先進最精密的科技都是為了戰(zhàn)爭而設(shè)計,這樣的環(huán)境下制造出來的機器人怎么能不使我們害怕呢?我們應(yīng)該從更利于人類的角度去發(fā)展人工智能技術(shù),并加以合理的控制,在未來讓人工智能真的能夠為我們所用,無論是從生活、工作還是情感上。
《機械公敵》中當蘇珊博士問NS—5型號的機器人桑尼“我剛剛喚你,你為什么沒有回應(yīng)?”
桑尼回答“我在做夢。”