Google 收購的英國人工智能公司 Deep Mind 已經(jīng)展現(xiàn)出 AI 先進(jìn)的自學(xué)能力,其演算法不僅在玩游戲比人厲害,而且還在與人類頂級圍棋選手的對決中取得了壓倒性的勝利。這不僅引發(fā)了 AI 超越人類的擔(dān)憂,甚至還有人擔(dān)心類似《魔鬼終結(jié)者》劇情那樣,天網(wǎng)對人類殺戮時刻的到來。現(xiàn)在 Deep Mind 決定未雨綢繆,據(jù)英國鏡報報導(dǎo),在近日公布的一篇論文中,Deep Mind 提出了給機(jī)器人安裝“切斷開關(guān)(kill switch)”的想法,為的是阻止 AI 學(xué)會如何阻止人類對某項(xiàng)活動(比方說發(fā)射核武器)的干預(yù)。用專業(yè)術(shù)語來說,這叫做“安全可中斷性”。

關(guān)于安全科中斷性的作用,論文寫道:安全可中斷性可用于控制機(jī)器人不正確甚至可能導(dǎo)致不可逆后果的行為,或者將其從微妙處境中脫身出來,或者甚至臨時用來實(shí)現(xiàn)某項(xiàng)機(jī)器人尚未學(xué)會執(zhí)行或未必會為此受到獎勵的任務(wù)。
天生具備拯救人類使命感的 Elon Musk 以及地球最聰明的大腦之一霍金都認(rèn)為,機(jī)器對人類的威脅并非杞人憂天。2015 年底的時候,Musk 和孵化器 YC 的總裁 Sam Altman 共同宣布設(shè)立一家非盈利的人工智能公司 OpenAI。他們希望,這個專案能夠抵消邪惡的人工超級智能可能帶來的威脅。這種威脅的可能性正如牛津大學(xué)的哲學(xué)家 Nick Bostrom 發(fā)出的警告一樣──如果毫無限制地分享人工智能的研究成果,在沒能確保安全的情況下,一些不懷好意的人可能就會利用它干壞事:“如果你有一個按鈕,只要按一下就能夠?qū)κ澜缭斐善茐?,你肯定不希望每個人都擁有一個這樣按鈕。”而 Deep Mind 的研究,就是這一種按鈕的切斷按鈕。不過將來的問題也許是,哪一個按鈕會先用到?