Facebook的Big Sur 服務器,在設計上運用了高效能的GPU,這也是公司發(fā)展人工智能與深度學習技術的利器。
MIT Technology Review實際走訪了美國Oregon州的Prineville,F(xiàn)acebook在這個9,000人的小鎮(zhèn)存放了數(shù)億用戶的數(shù)據(jù)。在總面積達80萬平方英尺的4棟大樓中,安裝了一排又一排的電腦。
Facebook近期在Prinville加了一些運算能力更強的 服務器Big Sur,搭配強大的GPU芯片,要讓軟體可以完成更多的任務,例如進行翻譯、或擔任虛擬助理等。
這些芯片,正是人工智能科技的基礎,促進深度學習的發(fā)展?,F(xiàn)在的軟體可以了解圖像和語言,正是因為GPU的效能精進,讓軟體可以處理更大、更復雜的數(shù)據(jù)。
GPU可以把照片切割成很細的單位,然后同時分析。在每一臺Big Sur 服務器上,都有8個NVIDIA的GPU。Facebook工程師Kevin Lee并未指出目前Facebook有多少個這樣的 服務器,不過他表示,目前運作的GPU有數(shù)千個。
Lee表示,他們會幫助Facebook的研究人員訓練這些軟體,讓軟體效率變得更快。這些 服務器都是有專門設計的硬體,用于人工智能研究和機器學習。
由于GPU極度耗能,所以不能在 服務器上放得太密集,避免造成所謂的“熱點”,造成散熱困難。在一個7英尺高的機架中,只能裝設8臺Big Sur 服務器;如果是一般的Facebook 服務器,可以裝30臺。
除了Prinville的數(shù)據(jù)中心之外,F(xiàn)acebook在Ashburn與Virginia的數(shù)據(jù)中心,都有這樣的Big Sur 服務器。目前包括微軟(Microsoft)、Google和百度等,都仰賴GPU進行深度學習研究。
Facebook已經(jīng)公開了Big Sur的設計。事實上,F(xiàn)acebook在2011年啟動了開放運算平臺計劃(Open Cloud Project),鼓勵各家公司一起設計低價、高效能的數(shù)據(jù)中心硬件。這項計劃也讓亞洲硬體公司擠壓了傳統(tǒng)廠商如惠普(HP)和戴爾(Dell)的空間。
未來的機器學習 服務器,也可能不會以GPU為核心。許多公司都在研究新的芯片設計。
例如Google在5月宣布,已經(jīng)開始研發(fā)自己的芯片設計,名為TPU,專門用來支持語音辨識等功能所需的深度學習軟體。NVIDIA以及新創(chuàng)公司Nervana Systems等,也在研發(fā)客制化的深度學習芯片。