IT之家 3 月 24 日消息,人工智能領域的開創(chuàng)者之一,被譽為“AI 教父”的杰弗里?辛頓(Geoffrey Hinton)近日接受日本經(jīng)濟新聞采訪,講述了 AI 與人類的未來。
IT之家注:去年 5 月,杰弗里?辛頓宣布離開他工作了十年的谷歌公司,原因是他對人工智能技術(shù)的發(fā)展越來越擔憂。
談到當初從谷歌離職的原因時,辛頓稱希望自己離職后能夠“自由地傳播”自己相信的東西。去年 4 月,他曾與自己的上司 —— 首席科學家杰夫?迪恩(Jeff Dean)交談,自己提出了 AI 有可能帶來事關人類生存危機的看法。迪恩試圖挽留辛頓,并提議留在谷歌研究 AI 的安全對策,但最終被辛頓拒絕。辛頓表示,自己非常尊敬迪恩,“即使不會被明確限制,但若身為谷歌的一員,講話時也不得不考慮到公司的利益。”
辛頓之所以認為 AI 有可能威脅人類,是因為若給 AI 設定目標,作為解決對策,它可能會找出對人類不利的方法。
比方說,假設向 AI 下達遏制氣候變化的指令。AI 會意識到為了達到目的而有必要將人類清除,我擔心真的會付諸實施的風險。
今后還可能會出現(xiàn)不同的 AI 相互競爭的局面。例如,如果 AI 之間發(fā)生數(shù)據(jù)中心等資源的爭奪,這將是一個像生物體一樣推動進化的過程。面對通過競爭變得更聰明的 AI,我們?nèi)祟悓⒙湓诤竺妗?/div>
很多人主張,要防止 AI 失控,只要關掉電源開關就可以。但超越人類智慧的 AI 可以用語言操縱我們,或許會試圖說服我們不要關掉開關。
日本經(jīng)濟新聞提到了 OpenAI 聯(lián)創(chuàng)伊爾亞?蘇茨克維(Ilya Sutskever)在去年曾試圖解雇該公司首席執(zhí)行官 (CEO) 山姆?阿爾特曼(Sam Altman)的話題,辛頓稱伊爾亞非常擔心 AI 的危險性。“以前我們都認為數(shù)字的智能不會像人類那么優(yōu)秀,理解語言和復雜的東西或?qū)⑹呛芫弥蟮氖虑椤R翣杹喡氏雀淖兞丝捶?,但我并沒有馬上同意,現(xiàn)在我覺得他是對的。”
半個世紀以來,辛頓一直在培養(yǎng) ChatGPT 等聊天機器人背后的核心技術(shù)。但是現(xiàn)在,他擔心 AI 會造成嚴重危害。
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應并做處理。
電話:021-39553798-8007
電話:021-39553798-8007
更多>相關資訊
0 條相關評論