IT之家11月14日消息,meta生成式人工智能工程總監(jiān)謝爾蓋?埃杜諾夫近日在硅谷數(shù)字工人論壇上分享了他對人工智能推理需求的預(yù)測。他認(rèn)為,明年全球新增的人工智能應(yīng)用推理需求,如果使用合理規(guī)模的語言模型,僅需兩座核電站的發(fā)電量就可以滿足。

圖源Pexels

圖源Pexels
人工智能推理是指利用已經(jīng)訓(xùn)練好的人工智能模型,在實際場景中進(jìn)行各種任務(wù),如生成文本、回答問題、識別圖像等。埃杜諾夫表示,他通過簡單的數(shù)學(xué)計算,估計了明年全球推理需求的用電量。他假設(shè),明年全球會新增100萬到200萬個Nvidia H100圖形處理器,每個處理器的功率約為1千瓦。如果每個處理器每天運行24小時,每人每天可生成10萬個“token”。他認(rèn)為以人類規(guī)模來看,這用電量尚屬合理。全球僅需新增兩座核電站,就可以提供足夠電力。
不過IT之家注意到,埃杜諾夫也指出,人工智能的發(fā)展還面臨著一些挑戰(zhàn)和限制,其中之一是數(shù)據(jù)量的問題。目前,人工智能模型的訓(xùn)練需要大量的數(shù)據(jù),而公開的互聯(lián)網(wǎng)數(shù)據(jù)已經(jīng)不足以支撐下一代模型的訓(xùn)練。下一代模型可能需要10倍的數(shù)據(jù)量,這意味著需要更多的專業(yè)領(lǐng)域的數(shù)據(jù),或者更多的多模態(tài)數(shù)據(jù),如視頻、音頻等。另一個挑戰(zhàn)是供應(yīng)鏈的問題。由于全球芯片產(chǎn)能的緊張,人工智能模型的改進(jìn)速度也會受到影響。因此,研究人員正努力提高模型的效率,以減少對數(shù)據(jù)和硬件的依賴。例如,Salesforce公司開發(fā)了Blib-2,這是一種能夠自動調(diào)整模型大小的技術(shù),可以根據(jù)不同的任務(wù)和資源需求,動態(tài)地縮小或擴大模型。
業(yè)內(nèi)專家普遍認(rèn)為,語言模型在兩年內(nèi)將為企業(yè)帶來巨大價值。埃杜諾夫預(yù)計,三四年內(nèi)我們將知曉當(dāng)前技術(shù)是否能實現(xiàn)通用人工智能。