北京時間10月19日早間消息,谷歌旗下人工智能研究部門DeepMind發(fā)布了新版AlphaGo(阿爾法狗)軟件,它可以完全靠自己學(xué)習(xí)圍棋。這款名為AlphaGo Zero的系統(tǒng)可以通過自我對弈進(jìn)行學(xué)習(xí),它利用了一種名為強化學(xué)習(xí)的技術(shù)。在不斷訓(xùn)練的過程中,這套系統(tǒng)開始靠自己的能力學(xué)會圍棋中的一些高級概念。

經(jīng)過3天的訓(xùn)練后,這套系統(tǒng)已經(jīng)可以擊敗AlphaGo Lee,也就是去年擊敗韓國頂尖棋手李世石的那套系統(tǒng),而且比分高達(dá)100比0。經(jīng)過40天訓(xùn)練后,它總計運行了大約2900萬次自我對弈,使得AlphaGo Zero得以擊敗AlphaGo Master(今年早些時候擊敗世界冠軍柯潔的系統(tǒng)),比分為89比11。
結(jié)果表明,具體到不同技術(shù)的效果,人工智能在這一領(lǐng)域仍有很多學(xué)習(xí)的空間。AlphaGo Master使用了很多與AlphaGo Zero相同的開發(fā)技術(shù),但它需要首先利用人類的數(shù)據(jù)進(jìn)行訓(xùn)練,隨后才切換成自我對弈。
值得注意的是,雖然AlphaGo Zero在幾周的訓(xùn)練期間學(xué)會了一些關(guān)鍵概念,但該系統(tǒng)學(xué)習(xí)的方法與人類有所不同。另外,AlphaGo Zero也比前幾代系統(tǒng)更加節(jié)能,AlphaGo Lee需要使用幾臺機(jī)器和48個谷歌TPU機(jī)器學(xué)習(xí)加速芯片。其上一代AlphaGo Fan則要用到176個GPU芯片。AlphaGo Zero只需要使用一臺配有4個TPU的機(jī)器即可。