

在隨后的推文中,馬斯克詳細(xì)闡述了對AI系統(tǒng)開發(fā)進(jìn)行監(jiān)管的必要性。這與他本月早些時候所說的話相呼應(yīng),當(dāng)時他說:“我認(rèn)為,任何對公眾構(gòu)成危險的事情,至少政府應(yīng)該有所了解,因?yàn)檎牧x無之一就是確保公共福利。沒有人喜歡受到監(jiān)管,但對公眾有危險的任何東西(包括汽車、飛機(jī)、食品以及藥品等)都應(yīng)該受到管制,AI也是如此。”
瀏覽對馬斯克推文的評論發(fā)現(xiàn),似乎大多數(shù)人都在某種程度上同意馬斯克的意見。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶認(rèn)為:“我們需要一個適應(yīng)性較強(qiáng)的框架,不需要固定的規(guī)則、法律或原則,這對管理AI有好處。這個領(lǐng)域正在不斷地變化和演進(jìn),任何固定的規(guī)則很快就會失效。”
許多專家都不愿意AI發(fā)展得太快。它造成的威脅聽起來可能有點(diǎn)兒像科幻小說中的場景,但它們最終可能被證明是有效的。像史蒂芬·霍金(Stephen Hawking)這樣的專家早就發(fā)出警告,宣稱AI有終結(jié)人類的可能。在2014年采訪中,這位著名的物理學(xué)家說:“AI的發(fā)展可能預(yù)示著人類的終結(jié)。”他甚至認(rèn)為自動化的擴(kuò)散對中產(chǎn)階級是一種有害的力量。
另一位專家、MetaMed Research的首席科學(xué)官邁克爾·瓦薩爾(Michael Vassar)指出:“如果遠(yuǎn)超人類的通用人工智能沒有受到謹(jǐn)慎監(jiān)管,可以肯定的是,人類將在非常短的時間內(nèi)滅絕。”
很顯然,至少在科學(xué)界,AI的自由發(fā)展可能不符合人類的最佳利益。很多人已經(jīng)開始著手制定這些規(guī)則,以確保AI的發(fā)展“合乎道德規(guī)范”。電氣與電子工程師協(xié)會提出了他們的第一份規(guī)則草案,希望能引導(dǎo)開發(fā)人員朝著正確的方向發(fā)展。
此外,在政府介入之前,科技巨頭們也正在制定自我監(jiān)管規(guī)則。來自谷歌、亞馬遜、微軟、IBM以及Facebook等大型科技公司的研究人員和科學(xué)家已經(jīng)開始討論,以確保AI造福于人類,而不是成為人類的生存威脅。
當(dāng)然,要想達(dá)到足以威脅人類生存的程度,AI還有很長的路要走。然而,AI的進(jìn)步是突飛猛進(jìn)的。著名未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)預(yù)言,計算機(jī)將在2045年變得比人類更聰明。然而,他并不認(rèn)為這是件可怕的事。也許,科技公司的自我監(jiān)管將足以確保這些擔(dān)憂變得毫無意義,或者最終可能需要政府的幫助。不管你的感覺如何,現(xiàn)在開始這些對話不算杞人憂天。但與此同時,也不要過于擔(dān)心,除非你是個有競爭力的玩家。