英特爾發(fā)布首款人工智能專用芯片Springhill
英特爾今天在以色列海法的一次特別活動中,悄然推出了首款專用人工智能處理器。
這款名為Nervana Neural Network Processor for Inference的處理器(也稱為Springhil),是在位于海法的英特爾實驗室開發(fā)的,據(jù)稱是專為運行人工智能工作負載的大型數(shù)據(jù)中心設(shè)計的。據(jù)路透社報道,它基于改進的10納米Ice Lake處理器,能夠處理密集型工作負載,同時能耗極少。
英特爾表示,包括Facebook在內(nèi)的多家客戶已經(jīng)開始在他們的數(shù)據(jù)中心使用該芯片。
Nervana NNP-I芯片是英特爾“AI無處不在”戰(zhàn)略的一個組成部分。英特爾采用GPU、FPGA以及定制的ASIC來處理人工智能中的各種復雜任務,包括創(chuàng)建用于語音翻譯和對象識別神經(jīng)網(wǎng)絡,以及通過推理過程運行訓練模型。
Nervana NNP-I芯片足夠小,可以通過所謂的M.2存儲設(shè)備部署在數(shù)據(jù)中心,然后插入主板標準的M.2端口。這樣就可以讓英特爾標準的至強處理器從推理工作負載中脫離,更專注于一般性的計算任務。
Moor Insights&Strategy分析師Patrick Moorhead表示:“大多數(shù)推理工作負載都是在CPU上運行完成的,即便是像Nvidia T系列這樣的加速器可以提供更高的性能。當延遲無關(guān)緊要而原始性能更重要的時候,則首選是加速器。英特爾的Nervana NNP-I旨在與Nvidia甚至Xilinx FPGA這樣的分立加速器展開競爭。”
英特爾表示,Nervana NNP-I芯片實際上是改進版的10納米Ice Lake芯片,帶有兩個計算機核心,圖形引擎被剝離以容納12個推理計算引擎,這些目的都是為了加速推理過程,也就是針對語音和圖像識別等任務實施經(jīng)過訓練的神經(jīng)網(wǎng)絡模型。
Constellation Research分析師Holger Mueller表示,這對英特爾來說是一次重要的發(fā)布,因為此前英特爾在人工智能推理方面基本處于觀望狀態(tài)。
Mueller說:“英特爾正在提升在能耗和存儲方面的能力,并在處理器套件中尋求協(xié)同效應。由于Springhill是通過M2設(shè)備和端口部署的,這在幾十年前稱為協(xié)同處理器,這有效地卸載了至強處理器。但我們必須等待,看看Springhill能否與更專業(yè)的、通常是基于GPU的處理器架構(gòu)相抗衡。”
本文章選自《AI啟示錄》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼
