Intel將推出AI訓(xùn)練嵌入式處理器Nervana
百度與Intel打造的Nervana神經(jīng)網(wǎng)絡(luò)處理器NNP-T對應(yīng)Paddle Paddle學(xué)習(xí)框架運作最佳化,并且整合Intel自有nGraph DNN (深度神經(jīng)網(wǎng)絡(luò),Deep Nerual Network)編譯器,借此讓大規(guī)模分散式數(shù)據(jù)學(xué)習(xí)效率提升,同時也能讓開發(fā)者透過單次編碼即可讓深度神經(jīng)網(wǎng)絡(luò)在個平臺順利運作,進而加快人工智能學(xué)習(xí)速度。
依照說明,NNP-T采用24組CU設(shè)計,搭載32GB容量設(shè)計的HBM2高頻寬RAM,并且能搭配額外內(nèi)存加快資料緩沖存取,相比其他同類型處理契約可提升10倍訓(xùn)練效率,同時跟Intel先前推出的代號「Lake Crest」的Nervana NNP-L 1000處理器更提升3-4倍效能。
另外,Intel也強調(diào)將以軟體驅(qū)動硬件運算性能,因此也說明此次與百度合作的戰(zhàn)略意義,借此透過軟件定義方式讓Nervana處理器能對應(yīng)各類人工智能訓(xùn)練學(xué)習(xí)需求。
在此之前,Intel從2016年便與百度合作,使旗下Xeon Scalable系列處理器能對應(yīng)百度PaddlePaddle學(xué)習(xí)框架,此次打造的NNP-T也同樣對應(yīng)Paddle Paddle學(xué)習(xí)框架運作最佳化,并且整合Intel自有nGraph DNN (深度神經(jīng)網(wǎng)路,Deep Nerual Network)編譯器,借此讓大規(guī)模分散式數(shù)據(jù)學(xué)習(xí)效率提升,同時也能讓開發(fā)者透過單次編碼即可讓深度神經(jīng)網(wǎng)絡(luò)在個平臺順利運作,進而加快人工智能學(xué)習(xí)速度。