AI界“教父”GeoffreyHinton離職谷歌,對(duì)AI聊天機(jī)器人發(fā)出警告。他認(rèn)為過(guò)度依賴聊天機(jī)器人可能會(huì)帶來(lái)一些不可預(yù)知的危害。
其實(shí)這種擔(dān)憂背后的核心是兩個(gè)方面:一方面是對(duì)于人類在還沒有養(yǎng)成對(duì)機(jī)器知識(shí)識(shí)別能力的情況下,過(guò)度的依賴于機(jī)器智能,可能會(huì)限制并降低我們?nèi)祟惖乃枷肓εc創(chuàng)新力;另外一方面則是機(jī)器在不斷的人機(jī)對(duì)話過(guò)程中,以及機(jī)器自身不斷的知識(shí)再造之后,基于互聯(lián)網(wǎng)的知識(shí)體系將很快被AI所編寫的知識(shí)取代。

那么人類如果過(guò)去的依賴于這種聊天機(jī)器人,最終機(jī)器所產(chǎn)生的知識(shí)會(huì)影響我們?nèi)祟惖恼J(rèn)知,并對(duì)我們?nèi)祟悗浊陙?lái)所構(gòu)建的知識(shí)體系帶來(lái)挑戰(zhàn)與沖擊。然而,我們?nèi)祟悈s難以識(shí)別,最終在依賴于機(jī)器的過(guò)程中,喪失了人類獨(dú)有的創(chuàng)造力,而淪為機(jī)器知識(shí)洗腦下的產(chǎn)物。