国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 佳士科技  irobot  工業(yè)機(jī)器人  機(jī)器人  機(jī)器人產(chǎn)業(yè)聯(lián)盟  ABB  發(fā)那科  機(jī)械手  碼垛機(jī)器人  機(jī)器人展覽 

Meta 發(fā)布 Megabyte AI 模型抗衡 Transformer:解決后者已知問題、速度提升 4 成

   日期:2023-05-31     來源:IT之家     評論:0    
標(biāo)簽: AI 科技 創(chuàng)新
   IT之家5月30日消息,近日meta團(tuán)隊開發(fā)了一款名為Megabyte的AI模型以抗衡Transformer,據(jù)稱Megabyte解決了Transformer模型所面臨的問題,并且在速度上提升了40%。

d3eb0739-19e0-4126-9bd4-258443745d97
▲圖源Arxiv
 
  目前Transformer在自然語言處理等領(lǐng)域非常流行,但由于其序列數(shù)據(jù)的處理方式是逐步進(jìn)行的,無法并行化處理,因此訓(xùn)練速度較慢;難以處理長序列,因為其在反向傳播過程中,梯度很容易消失或爆炸;此外,由于需要在每一步保留歷史信息,內(nèi)存消耗較大。
 
  而Megabyte模型將輸入和輸出序列劃分為patch,而不是單個的token。這種架構(gòu)使得對大多數(shù)任務(wù)而言字節(jié)級別的預(yù)測相對容易,例如根據(jù)前幾個字符預(yù)測完成的單詞等。這意味著在大型網(wǎng)絡(luò)中可以精簡字符以提升效率,并且內(nèi)部預(yù)測可以使用更小的模型進(jìn)行。Megabyte模型的這種方法解決了當(dāng)今AI模型所面臨的訓(xùn)練速度、可靠性及硬件占用比挑戰(zhàn)。
 
  此外,在計算效率方面,相比于等大的Transformer和Linear Transformer,Megabyte模型在固定模型大小和序列長度范圍內(nèi)使用更少的token。因此相對于Transformer,Megabyte模型可以在相同的計算成本下訓(xùn)練內(nèi)容更豐富、體積更大、性能更好的模型。
 
  目前meta團(tuán)隊放出了Megabyte模型的論文,IT之家小伙伴可以前往查閱。
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與中國機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)資訊
0相關(guān)評論

推薦圖文
推薦資訊
點擊排行
?