2017年10月19日,谷歌Deepmind團(tuán)隊在《自然》刊發(fā)論文《精通圍棋對弈無需借助人類知識》。一款新的人工智能AlphaGo Zero,從零開始學(xué)習(xí),自己與自己對弈,不借助任何圍棋棋譜與人類經(jīng)驗,10小時左右發(fā)現(xiàn)簡單定式;15小時發(fā)現(xiàn)復(fù)雜定式;55小時左右發(fā)現(xiàn)人類頂尖高手從未用過的新定式;72小時出關(guān)。出關(guān)后以100∶0完敗AlphaGo Lee(曾戰(zhàn)勝李世石),以89∶11大勝棋力更強的AlphaGo Master。

在AlphaGo系列版本連敗人類頂尖高手之后,圍棋對弈的看頭已不在人類頂尖高手之間,也不在人工智能與人類頂尖高手之間,只在人工智能與人工智能之間了。AlphaGo Zero三天的自我學(xué)習(xí),超越了人類幾千年對圍棋知識的積累,也超越了借助于人類經(jīng)驗與大數(shù)據(jù)訓(xùn)練的AlphaGo Lee及Master,讓人嘆為觀止,充分揭示了人類經(jīng)驗的局限性。
有人說,AlphaGo Zero橫空出世,說明“算法比大數(shù)據(jù)更重要”。這當(dāng)然是對的。棋力的本質(zhì)就是算法與算力。
首先,人工智能戰(zhàn)勝人類頂尖高手,是算法與算力的勝利。由于算力的限制,人類棋手采用的是局部最優(yōu)化算法,每一落子,主要考慮對周邊局面當(dāng)下與后續(xù)的影響。算力優(yōu)裕的人工智能,原則上可采用全局最優(yōu)化算法,每一落子,考慮對全局當(dāng)下與后續(xù)的全部影響。在絕大多數(shù)情況下,局部最優(yōu)與全局最優(yōu)的落子是一致的。但極少數(shù)情況下,局部最優(yōu)就不是全局最優(yōu),人工智能就碾壓人類頂尖高手了。
其次,用一張神經(jīng)網(wǎng)絡(luò)自我學(xué)習(xí)與訓(xùn)練的人工智能,戰(zhàn)勝借助于人類經(jīng)驗與大數(shù)據(jù)訓(xùn)練的人工智能,也是算法的勝利。看來,前者才是真全局最優(yōu)化算法,因不看棋譜而免于被人類經(jīng)驗帶偏;后者只是準(zhǔn)全局最優(yōu)化算法,算法受到了人類棋譜中的局部最優(yōu)化算法的“污染”,也就是說,人類經(jīng)驗束縛了人工智能棋力的提升。這對人類來說真是一個尷尬的事實。
由此,“圍棋的終結(jié)”那一天似乎也不遠(yuǎn)了。圍棋對弈是在完全信息下進(jìn)行的,規(guī)則也很明確,理論上存在著一盤“終極棋局”:對弈雙方下的每一步,都是全局意義上的最優(yōu)落子,也就是說,任何一方的任何一步不這樣落子是不明智的,最后就形成了“終極棋局”。
AlphaGo Zero的最大意義,在于有助于我們反思人類經(jīng)驗的局限性,讓我們清醒認(rèn)識到經(jīng)驗有效性的邊界在哪里,不至于以為自己的經(jīng)驗是絕對真理。人類經(jīng)驗的本質(zhì)其實就是局部最優(yōu)解。你的個人經(jīng)驗就是你個人視角下的局部最優(yōu)解。
如果說在圍棋對弈中人類棋手不得不采用局部最優(yōu)化算法的原因是算力限制,那么在日常決策中人們采用局部最優(yōu)化算法的主要原因在于信息不充分、不準(zhǔn)確。人類社會中的博弈基本都是信息不對稱下的博弈。你在對自己掌握的有限信息去粗取精、去偽存真之后做出的決策,是局限條件下最優(yōu)的決策,但并不一定等于真正對你最優(yōu)、最有利的決策。不過,要是你占有的信息盡可能全面、盡可能精確,那你的決策就會更接近于上帝全知視角下的全局最優(yōu)解。
此外,人們在決策中常犯的錯誤是只考慮短期效應(yīng),而忽視長期效應(yīng);只看到“看得見的”,而忽視“看不見的”;只看到直接的“一階效應(yīng)”,而忽視“二階效應(yīng)”等高階效應(yīng)。這看起來也挺像“算力限制”導(dǎo)致的,但其實是一種“算法缺陷”,是智力上的懶惰。AlphaGo Zero就不會犯這樣的錯誤,一定會考慮落子對當(dāng)下與后續(xù)的全部影響。
是的,AlphaGo Zero就是一面鏡子,照見了人類經(jīng)驗的局限性。