IHS Markit在本周發(fā)布的AI普及度調(diào)查中預(yù)測(cè),到2025年AI應(yīng)用將從2019年的428億美元激增至1,289億美元。AI處理器市場(chǎng)將以可比的速度增長(zhǎng),到2020年代中期將達(dá)到685億美元,IHS說(shuō)。
蓬勃發(fā)展的AI芯片市場(chǎng)受到用于深度學(xué)習(xí)和矢量處理任務(wù)的GPU,F(xiàn)PGA和ASIC新興處理器架構(gòu)的推動(dòng)。此外,汽車,計(jì)算和醫(yī)療保健等領(lǐng)先應(yīng)用程序正在推動(dòng)一波新的AI應(yīng)用程序浪潮。
IHS Markit的AI高級(jí)研究總監(jiān)Luca De Ambroggi說(shuō):“ AI已經(jīng)推動(dòng)了對(duì)微芯片的大規(guī)模需求增長(zhǎng)。” “但是,這項(xiàng)技術(shù)也正在改變芯片市場(chǎng)的形態(tài),重新定義了傳統(tǒng)的處理器架構(gòu)和存儲(chǔ)器接口,以適應(yīng)新的性能需求。”
其中,處理深度學(xué)習(xí)算法所需的高帶寬易失性存儲(chǔ)器數(shù)量不斷增長(zhǎng)。分析師警告說(shuō),增加內(nèi)存帶寬來(lái)處理AI模型將處理器功耗降至“不可持續(xù)的水平”。
作為回應(yīng),De Ambroggi說(shuō),正在出現(xiàn)新的處理器體系結(jié)構(gòu),這些結(jié)構(gòu)試圖通過(guò)將內(nèi)存移近處理器內(nèi)核來(lái)減少數(shù)據(jù)移動(dòng)。IHS指出,該框架“為每個(gè)處理核心配備了專用存儲(chǔ)單元”,從而加速了并行處理。
另一種方法是將處理任務(wù)直接轉(zhuǎn)移到內(nèi)存中,以減少數(shù)據(jù)移動(dòng)。這個(gè)想法是在數(shù)據(jù)駐留的地方進(jìn)行處理,從而減少功耗和延遲。
去年至少有一家芯片創(chuàng)業(yè)公司出現(xiàn)了,其架構(gòu)在ASIC上集成了嵌入式低功耗MRAM。Gyrfalcon Technology Inc.去年表示,其“生產(chǎn)就緒型” ASIC利用片上存儲(chǔ)器作為AI處理器,減少了邊緣設(shè)備之間的數(shù)據(jù)移動(dòng),同時(shí)加快了AI模型的處理。
該公司表示,AI內(nèi)存中處理框架“優(yōu)化了處理速度,實(shí)現(xiàn)了每秒較高的[理論運(yùn)算]性能,同時(shí)還通過(guò)避免了對(duì)離散內(nèi)存組件中的數(shù)據(jù)進(jìn)行管理來(lái)節(jié)省大量電量。”