国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 發(fā)那科機(jī)器人  工業(yè)  機(jī)器人  上海  ABB機(jī)器人  自動(dòng)化  工業(yè)機(jī)器人  工業(yè)機(jī)器人展  機(jī)器  展會(huì) 

微軟Facebook聯(lián)手發(fā)布AI生態(tài)系統(tǒng),推出開放神經(jīng)網(wǎng)絡(luò)交換格式

   日期:2017-09-08     來源:36氪    作者:dc136     評(píng)論:0    
 微軟Facebook聯(lián)手發(fā)布AI生態(tài)系統(tǒng),推出開放神經(jīng)網(wǎng)絡(luò)交換格式
   微軟Facebook聯(lián)手發(fā)布AI生態(tài)系統(tǒng),推出 Open Neural Network Exchange(ONNX,開放神經(jīng)網(wǎng)絡(luò)交換)格式,這是一個(gè)用于表示深度學(xué)習(xí)模型的標(biāo)準(zhǔn),可使模型在不同框架之間進(jìn)行轉(zhuǎn)移。ONNX是邁向開放生態(tài)系統(tǒng)的第一步,AI開發(fā)人員可以輕松地在最先進(jìn)的工具之間轉(zhuǎn)換,并選擇最適合他們的組合。但是,現(xiàn)在系統(tǒng)支持的框架只有Caffe2,PyTorch 和Cognitive Toolkit ,谷歌的TensorFlow并沒有被包含在內(nèi)。在TensorFlow的市場(chǎng)份額迅猛增長(zhǎng)的當(dāng)下,兩家企業(yè)的聯(lián)手,似乎有特別的意味。
 
  Facebook 和微軟宣布,推出 Open Neural Network Exchange(ONNX,開放神經(jīng)網(wǎng)絡(luò)交換)格式,這是一個(gè)用于表示深度學(xué)習(xí)模型的標(biāo)準(zhǔn),可使模型在不同框架之間進(jìn)行轉(zhuǎn)移。ONNX是邁向開放生態(tài)系統(tǒng)的第一步,AI開發(fā)人員可以輕松地在最先進(jìn)的工具之間轉(zhuǎn)換,并選擇最適合他們的組合。
 
  以下是Facebook、微軟官方博客的介紹:
 
  在開發(fā)學(xué)習(xí)模型時(shí),工程師和研究人員有許多AI框架可以選擇。在項(xiàng)目開始時(shí),開發(fā)人員必須選擇對(duì)應(yīng)一個(gè)框架的特征(features)。很多時(shí)候,在研發(fā)過程中進(jìn)行實(shí)驗(yàn)時(shí)選擇的 feature 與生產(chǎn)所需的 feature 是不一致的。許多組織都沒有很好的方法來消除這些操作模式之間的差距,只有采取一系列創(chuàng)造性的解決辦法來應(yīng)對(duì),例如要求研究人員在生產(chǎn)系統(tǒng)中工作或人工翻譯模型。
 
  Facebook 與微軟一起開發(fā)了 ONNX,以彌合這一差距,讓AI開發(fā)人員可以選擇符合項(xiàng)目當(dāng)前階段的框架,并隨著項(xiàng)目的發(fā)展輕松切換框架。Caffe2,PyTorch 和Cognitive Toolkit 將在9月份發(fā)布對(duì) ONNX 的支持,這將允許在其中一個(gè)框架訓(xùn)練的模型導(dǎo)出到另一個(gè)框架來進(jìn)行推理。我們邀請(qǐng)社區(qū)加入這一努力,并在其生態(tài)系統(tǒng)中支持ONNX。實(shí)現(xiàn)不同框架之間的相互操作性,簡(jiǎn)化從研究到生產(chǎn)的過程,將有助于提高AI社區(qū)創(chuàng)新的速度。
 
  ONNX 在 Facebook 內(nèi)部使用
 
  ONNX 是 Facebook 深度學(xué)習(xí)方法的重要組成部分。在Facebook的AI團(tuán)隊(duì)(FAIR和AML)中,我們不斷嘗試推動(dòng)AI的前沿研究,開發(fā)更好的學(xué)習(xí)算法。當(dāng)我們得到一個(gè)突破時(shí),我們希望盡快在應(yīng)用中提供更好的技術(shù)。通過ONNX,我們專注于將AI研究和產(chǎn)品實(shí)現(xiàn)更緊密地結(jié)合在一起,從而更快地進(jìn)行創(chuàng)新和部署。
 
  嘗試新模型的人們,特別是研究人員,希望在編寫神經(jīng)網(wǎng)絡(luò)時(shí)擁有最大的靈活性和表現(xiàn)力——從動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)到支持梯度漸變(gradients of gradients),同時(shí)保持基本的ConvNet性能。研究人員也想實(shí)現(xiàn)快速迭代,這意味著他們需要優(yōu)秀的交互式開發(fā)和調(diào)試工具。PyTorch旨在突破研究框架的局限,使研究人員免受平臺(tái)的限制,讓他們能夠比以前更容易地表達(dá)想法。
 
  相反,產(chǎn)品流程每天都需要對(duì)大量新的數(shù)據(jù)進(jìn)行訓(xùn)練和推理,同時(shí)保持模型大部分不變。仔細(xì)優(yōu)化產(chǎn)品的特定模型的代碼,例如通過量化和仔細(xì)編寫人工調(diào)整的代碼(hand-tuned code)之類的技巧節(jié)省資源。Caffe2已經(jīng)在產(chǎn)品、移動(dòng)和極端考慮性能的情況構(gòu)建起來。Caffe2的內(nèi)部靈活而且高度優(yōu)化,所以我們可以利用技巧將更大更好的模型部署到性能不足的硬件中。
 
  通過 ONNX,我們可以在這兩個(gè)方面獲得最優(yōu)。我們現(xiàn)在可以從PyTorch導(dǎo)出許多常見神經(jīng)網(wǎng)絡(luò)的模型,并將它們部署在Caffe2上。這是將最新的研究成果快速推向生產(chǎn)的第一步。在接下來的幾個(gè)月中,我們將加強(qiáng)ONNX,并對(duì)Caffe2和PyTorch進(jìn)行改進(jìn),使其能夠更深入地互通。
 
  怎么運(yùn)行
 
  為了實(shí)現(xiàn)ONNX支持,我們必須對(duì)PyTorch和Caffe2進(jìn)行更改,并且在框架之間統(tǒng)一運(yùn)算符。在Caffe2中,這個(gè)過程類似于添加一個(gè)翻譯器,因?yàn)镃affe2已經(jīng)有一個(gè)內(nèi)置的靜態(tài)圖。在PyTorch中,神經(jīng)網(wǎng)絡(luò)是被定義為程序而不是顯式圖,因此這帶來了更大的挑戰(zhàn)。為了從程序中提取圖,我們開發(fā)了一個(gè)跟蹤器,將運(yùn)行時(shí)程序執(zhí)行的操作記錄下來。跟蹤程序消除了復(fù)雜性,并使其更容易轉(zhuǎn)換為圖表示。
 
  要了解它是如何工作的,看以下代碼:
 
  x = y * 2
 
  if someComplicatedFunction():  z = x + y
 
  else:  z = x * y
 
  要直接導(dǎo)出此代碼,ONNX將不得不支持conditionals和某些復(fù)雜函數(shù) someComplicatedFunction();實(shí)際上成了通用編程語言。然而,在許多深度學(xué)習(xí)模型中,someComplicatedFunction() 的結(jié)果在推理過程中總是相同的。例如,在PyTorch條件中,通常是對(duì)輸入張量的大小或尺寸進(jìn)行的一些計(jì)算。在這些情況下,通過代碼的單一跟蹤將會(huì)更簡(jiǎn)單,并且可以輕松地在ONNX中表示為:
 
  #someComplicatedFunction() == True
 
  x = y * 2 z = x + y
 
  目前,我們的tracer能與許多常見的神經(jīng)網(wǎng)絡(luò)配合使用,但PyTorch中一些更先進(jìn)的程序,比如有動(dòng)態(tài)流控制(dynamic flow control)的程序還不行。隨著時(shí)間的推移,我們將完善ONNX和tracer來支持這些程序,讓開發(fā)人員可以充分利用PyTorch的靈活性與Caffe2的高性能強(qiáng)大部署功能。
 
  微軟:ONNX 表征具有框架互操作性和共享優(yōu)化兩大優(yōu)點(diǎn)
 
  在 Facebook 發(fā)布博客的同時(shí),微軟也發(fā)布了題為《微軟和 Facebook 為 AI 模型的互操作性構(gòu)建開放生態(tài)系統(tǒng)》的博客。在博客中,微軟表示:
 
  微軟給大家做出的承諾是“”人人有機(jī)會(huì)更方便,更有價(jià)值。我們提供各種平臺(tái)和工具來促進(jìn)這一點(diǎn),包括我們的認(rèn)知工具包,一個(gè)構(gòu)建深層神經(jīng)網(wǎng)絡(luò)的開源框架。我們還與其他分享我們觀點(diǎn)的組織合作,幫助 AI 社區(qū)。
 
  今天,我們高興地宣布,微軟和Facebook 一起推出Open Neural Network Exchange (ONNX,開放神經(jīng)網(wǎng)絡(luò)交換) 格式。 ONNX為AI 框架生態(tài)系統(tǒng)中的互操作性和創(chuàng)新提供了共享的模型表征。CognitiveToolkit,Caffe2和PyTorch都將支持ONNX。微軟和Facebook 共同開發(fā)了ONNX 這一開源項(xiàng)目,并希望社區(qū)能夠幫助其不斷進(jìn)化。
 
  什么是ONNX 表征?
 
  Cognitive Toolkit 和其他框架提供了使開發(fā)人員更容易構(gòu)建和運(yùn)行表征神經(jīng)網(wǎng)絡(luò)的計(jì)算圖的界面。雖然提供的功能類似,但是今天的每個(gè)框架都有自己表征這些圖的格式。 ONNX表征有以下主要優(yōu)點(diǎn):
 
  1.框架互操作性
 
  開發(fā)人員可以更輕松地在框架間轉(zhuǎn)換,并為手頭的任務(wù)選擇最佳工具。每個(gè)框架都針對(duì)具體特性進(jìn)行了優(yōu)化,如快速訓(xùn)練,支持靈活的網(wǎng)絡(luò)架構(gòu),在移動(dòng)端進(jìn)行推理等等。許多時(shí)候,研發(fā)過程中最重要的特性與生產(chǎn)環(huán)節(jié)最重要的特性是不同的。這導(dǎo)致開發(fā)人員在框架之間進(jìn)行模型轉(zhuǎn)換時(shí),會(huì)因框架使用不正確或明顯延遲而使得效率降低。使用ONNX 表征的框架簡(jiǎn)化了這一點(diǎn),使得開發(fā)人員更加靈活。
 
  2.共享優(yōu)化
 
  硬件供應(yīng)商和其他改進(jìn)神經(jīng)網(wǎng)絡(luò)性能的優(yōu)化可以通過定位ONNX 表征來同時(shí)影響多個(gè)框架。優(yōu)化經(jīng)常需要被分別整合進(jìn)入每個(gè)框架,這一過程很費(fèi)時(shí)間。ONNX 表征使得優(yōu)化更容易實(shí)現(xiàn),從而覆蓋更多開發(fā)人員。
 
  技術(shù)總結(jié)
 
  ONNX 提供了可擴(kuò)展計(jì)算圖模型的定義,以及內(nèi)置 operators 和標(biāo)準(zhǔn)數(shù)據(jù)類型的定義。起初我們專注于推理(評(píng)價(jià))所需的能力。
 
  每個(gè)計(jì)算數(shù)據(jù)流圖被構(gòu)造為形成非循環(huán)圖的節(jié)點(diǎn)列表。節(jié)點(diǎn)具有一個(gè)或多個(gè)輸入和一個(gè)或多個(gè)輸出。每個(gè)節(jié)點(diǎn)是對(duì) operators 的調(diào)用。
 
  可用性
 
  ONNX 代碼和文檔的初始版本現(xiàn)在已經(jīng)在GitHub(https://github.com/onnx/onnx)上開源,呼喚著社區(qū)的立即參與。我們將積極開展基于ONNX 的工作,即將推出的Cognitive Toolkit 也將對(duì)其支持。我們還計(jì)劃和Facebook一道,提供部署參考、示例、工具和model zoo。
 
  ONNX 表征形成了開放生態(tài)系統(tǒng)的基礎(chǔ),使 AI 更容易獲取并富有價(jià)值。開發(fā)人員可以為其任務(wù)選擇合適的框架,框架作者可以專注于創(chuàng)新,硬件供應(yīng)商可以簡(jiǎn)化優(yōu)化流程。我們希望社區(qū)能夠支持ONNX,以實(shí)現(xiàn)這一令人興奮的愿景。
 
  下一步是什么
 
  我們今天發(fā)布最新版本的Caffe2和PyTorch,帶有ONNX支持。我們希望你對(duì)新功能能跟我們一樣興奮!它們處于早期階段,我們希望你們檢查出來并提交你的反饋和改進(jìn)。我們將繼續(xù)發(fā)展ONNX,PyTorch和Caffe2,確保開發(fā)人員擁有AI的最新工具。敬請(qǐng)期待后續(xù)更新!
 
 
聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對(duì)其真實(shí)性負(fù)責(zé)。您若對(duì)該文章內(nèi)容有任何疑問或質(zhì)疑,請(qǐng)立即與中國(guó)機(jī)器人網(wǎng)(www.baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)專題
0相關(guān)評(píng)論

推薦圖文
推薦專題
點(diǎn)擊排行
?