觀看阿爾法狗與李世石的“人機(jī)大戰(zhàn)”,相信很多人都會(huì)和我一樣對(duì)李世石九段被一臺(tái)冰冷的智能機(jī)器恣意碾壓而心生些許兔死狐悲之感。更多的人恐怕還會(huì)在頭腦中開這樣的小差:如果有一天那些在各方面都已經(jīng)全面超越人類的機(jī)器人碾壓的不單是人類的智商而且是我們的肉體,我們?nèi)祟愂欠褚矔?huì)像今天坐在阿爾法狗對(duì)面的李世石一般束手無策?
其實(shí),人類懷有這樣的憂戚并非自今日始——那些富于幻想、多愁善感的文學(xué)家、藝術(shù)家們?cè)谏蟼€(gè)世紀(jì)甚至上上個(gè)世紀(jì)就已經(jīng)借助于小說或影視的形式表達(dá)出同樣的隱憂。比如英國詩人雪萊的妻子瑪麗·雪萊創(chuàng)作于19世紀(jì)的科幻小說《弗蘭肯斯坦》,以及攝制于上個(gè)世紀(jì)的科幻電影《2001太空漫游》《終結(jié)者》等一系列作品,都從一個(gè)側(cè)面?zhèn)鬟_(dá)出人類潛意識(shí)中對(duì)人工智能這一人類創(chuàng)造出的“最終極有可能毀掉它的創(chuàng)造者的東西”的深深憂慮。
或許有人會(huì)說,上述隱憂只不過是那些文學(xué)家、藝術(shù)家們神經(jīng)過敏所致,并無多少科學(xué)根據(jù)。殊不知,今天同樣有不少科學(xué)家在面對(duì)不斷發(fā)展進(jìn)步的人工智能技術(shù)時(shí)也步入了悲觀和憂慮者的行列,且言之鑿鑿。英國著名物理學(xué)家霍金便是這些“悲觀派”中的代表性人物。
霍金因患有肌肉萎縮性側(cè)索硬化癥而難以與人正常交流,正是人工智能系統(tǒng)幫助他推測(cè)想要表達(dá)的語言詞匯,使他打字和發(fā)郵件的速度大大提升。霍金表示,人工智能系統(tǒng)可以幫助他更好地演講、撰寫論文和著書立說,也可以幫助他更方便地與親人和朋友交流。即便這樣,霍金還是對(duì)人工智能的發(fā)展心存疑忌,甚至認(rèn)為創(chuàng)造“能思考”的機(jī)器的努力將威脅到人類自身的生存。他認(rèn)為,“對(duì)完全人工智能的發(fā)展可能會(huì)招致人類歷史的終結(jié)”,因?yàn)?ldquo;人工智能可能會(huì)自發(fā)地開始進(jìn)化,而且以前所未有的速度重新設(shè)計(jì)自己。受限于緩慢的生物進(jìn)化過程的人類,無法與人工智能相比,最終會(huì)被它們所超越。”此言令人不寒而栗!
我們可以推測(cè),隨著經(jīng)濟(jì)與科技的發(fā)展,人類在不久的將來一定能制造出“完全人工智能”的機(jī)器,也愿意相信人類在相當(dāng)長的一段時(shí)間內(nèi)將保持對(duì)人工智能技術(shù)的掌控。但是誰也不能保證,“可以自發(fā)進(jìn)化”的人工智能機(jī)器,在某一天不會(huì)因?yàn)橐粋€(gè)偶然的設(shè)計(jì)錯(cuò)誤或某一次的“逆反心理”而如《弗蘭肯斯坦》中的“怪人”那樣,給它的“主人”致命一擊。
未來的人工智能技術(shù)或許就像火一樣,成為人類發(fā)展進(jìn)程中最重要的工具,讓你無法舍棄。但是切記,在火不為我們所掌控的時(shí)候,它隨時(shí)可以將我們化為灰燼。人工智能同樣如此,如果理性地使用它,它將造福良多;當(dāng)它脫離了人類的掌控,后果將不堪設(shè)想。
別把霍金的擔(dān)憂僅僅看做是“烏鴉嘴”,科技工作者應(yīng)當(dāng)將他的話當(dāng)做一種告誡、一種警醒,從而理性地、道德地、合法地開發(fā)和利用人工智能,千萬別讓憂語成讖言!