8月22日,英特爾公布了即將推出的兩款針對大型數(shù)據(jù)中心設計的處理器,這是該公司首次披露高性能人工智能加速器產(chǎn)品。
這兩款芯片是Nervana神經(jīng)網(wǎng)絡處理器系列產(chǎn)品,其中一款用于訓練,另一款用于推理,這是人工智能算法形成的兩個關(guān)鍵環(huán)節(jié)。2016年8月,英特爾收購美國創(chuàng)業(yè)公司Nervana Systems,隨后將其與自身業(yè)務整合,并追加3.5億美元的投入,用于研發(fā)和自身產(chǎn)品匹配。
不僅如此,英特爾還表示,這些產(chǎn)品是近兩年在投資了以色列人工智能公司Habana Labs和NeuroBlade后推出的。Habana Labs的解決方案Goya性能優(yōu)于目前數(shù)據(jù)中心常用方案的1到3個數(shù)量級,而NeuroBlade的優(yōu)勢在于降低成本和功耗。
與通用芯片不同,人工智能專用加速器強調(diào)的是適當?shù)臅r間提供給合適的智能。英特爾全球副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao表示,針對復雜的人工智能應用,數(shù)據(jù)中心和云端需要提供通用計算以及專門的加速。
英特爾披露用于訓練的NNP-T可以進行定制,以便加速各種負載,而用于推理的NNP-I利用10納米制程技術(shù)提升了每瓦性能。事實上,這些產(chǎn)品將與谷歌的TPU、英偉達以及亞馬遜AWS自研芯片競爭。
與專為谷歌機器學習框架TensorFlow設計的TPU不同,英特爾的產(chǎn)品支持百度、Facebook以及谷歌等提出的主流機器學習框架。2019年7月,Naveen Rao曾在百度人工智能開發(fā)者大會上宣布,為了提升訓練模型速度雙方合作開發(fā)處理器產(chǎn)品。此次英特爾發(fā)布產(chǎn)品時還宣布,F(xiàn)acebook正在使用這些產(chǎn)品。
新京報記者 梁辰 編輯 程波 校對 李世輝
關(guān)鍵詞:
責任編輯:Rex_01