當前位置:首頁 > 廠商動態(tài) > Intel
[導讀]作為英特爾首個神經元數(shù)量達到11.5億的神經擬態(tài)系統(tǒng),Hala Point為更高效、規(guī)模更大的AI開辟了道路。

英特爾發(fā)布了代號為Hala Point的大型神經擬態(tài)系統(tǒng)。Hala Point基于英特爾Loihi 2神經擬態(tài)處理器打造而成,旨在支持類腦AI領域的前沿研究,解決AI目前在效率和可持續(xù)性等方面的挑戰(zhàn)。在英特爾第一代大規(guī)模研究系統(tǒng)Pohoiki Springs的基礎上,Hala Point改進了架構,將神經元容量提高了10倍以上,性能提高了12倍。

英特爾研究院神經擬態(tài)計算實驗室總監(jiān)Mike Davies 表示:“目前,AI模型的算力成本正在持續(xù)上升。行業(yè)需要能夠規(guī)?;娜掠嬎惴椒?。為此,英特爾開發(fā)了Hala Point,將高效率的深度學習和新穎的類腦持續(xù)學習、優(yōu)化能力結合起來。我們希望使用Hala Point的研究能夠在大規(guī)模AI技術的效率和適應性上取得突破?!?

Hala Point在主流AI工作負載上展現(xiàn)了出色的計算效率。研究顯示,在運行傳統(tǒng)深度神經網(wǎng)絡時,該系統(tǒng)能夠每秒完成多達2萬萬億次(20 petaops)運算,8位運算能效比達到了15 TOPS/W,相當于甚至超過了基于GPU和CPU的架構。Hala Point有望推動多領域AI應用的實時持續(xù)學習,如科學研究、工程、物流、智能城市基礎設施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個旨在改進未來商用系統(tǒng)的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新數(shù)據(jù)中持續(xù)學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續(xù)性。

深度學習模型的規(guī)模正在不斷擴大,參數(shù)量可達萬億級。這一趨勢意味著AI技術在可持續(xù)性上面臨著嚴峻的挑戰(zhàn),有必要探索硬件架構底層的創(chuàng)新。神經擬態(tài)計算是一種借鑒神經科學研究的全新計算方法,通過存算一體和高細粒度的并行計算,大幅減少了數(shù)據(jù)傳輸。在本月舉行的聲學、語音與信號處理國際會議(ICASSP)上,英特爾發(fā)表的研究表明,Loihi 2在新興的小規(guī)模邊緣工作負載上實現(xiàn)了效率、速度和適應性數(shù)量級的提升[1]。

Hala Point在其前身Pohoiki Springs的基礎上實現(xiàn)了大幅提升,基于神經擬態(tài)計算技術提升了主流、常規(guī)深度學習模型的性能和效率,尤其是那些用于處理視頻、語音和無線通信等實時工作負載的模型。例如,在今年的世界移動通信大會(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將 Loihi 2神經擬態(tài)處理器應用于電信基礎設施效率的優(yōu)化。

Hala Point基于神經擬態(tài)處理器Loihi 2打造,Loihi 2應用了眾多類腦計算原理,如異步(asynchronous)、基于事件的脈沖神經網(wǎng)絡(SNNs)、存算一體,以及不斷變化的稀疏連接,以實現(xiàn)能效比和性能的數(shù)量級提升。神經元之間能夠直接通信,而非通過內存通信,因此能降低整體功耗。

Hala Point系統(tǒng)由封裝在一個六機架的數(shù)據(jù)中心機箱中的1152個Loihi 2處理器(采用Intel 4制程節(jié)點)組成,大小相當于一個微波爐。該系統(tǒng)支持分布在 140544 個神經形態(tài)處理內核上的多達 11.5 億個神經元和 1280 億個突觸,最大功耗僅為 2600 瓦。Hala Point還包括 2300 多個嵌入式 x86 處理器,用于輔助計算。

在大規(guī)模的并行結構中,Hala Point集成了處理器、內存和通信通道,內存帶寬達每秒16PB,內核間的通信帶寬達每秒3.5 PB,芯片間的通信帶寬達每秒5TB。該系統(tǒng)每秒可處理超過380萬億次8位突觸運算和超過240萬億次神經元運算。

在用于仿生脈沖神經網(wǎng)絡模型時,Hala Point能夠以比人腦快20倍的實時速度運行其全部11.5億個神經元,在運行神經元數(shù)量較低的情況下,速度可比人腦快200倍。雖然Hala Point并非用于神經科學建模,但其神經元容量大致相當于貓頭鷹的大腦或卷尾猴的大腦皮層。

在執(zhí)行AI推理負載和處理優(yōu)化問題時, Loihi 2神經擬態(tài)芯片系統(tǒng)的速度比常規(guī)CPU和GPU架構快50倍,同時能耗降低了100倍[1]。早期研究結果表明,通過利用稀疏性高達10比1的稀疏連接(sparse connectivity)和事件驅動的活動,Hala Point運行深度神經網(wǎng)絡的能效比高達15 TOPS/W[2] ,同時無需對輸入數(shù)據(jù)進行批處理。批處理是一種常用于GPU的優(yōu)化方法,會大幅增加實時數(shù)據(jù)(如來自攝像頭的視頻)處理的延遲。盡管仍處于研究階段,但未來的神經擬態(tài)大語言模型將不再需要定期在不斷增長的數(shù)據(jù)集上再訓練,從而節(jié)約數(shù)千兆瓦時的能源。

世界各地領先的學術團體、研究機構和公司共同組成了英特爾神經擬態(tài)研究社區(qū)(INRC),成員總數(shù)超過200個。攜手英特爾神經擬態(tài)研究社區(qū),英特爾正致力于開拓類腦AI前沿技術,以將其從技術原型轉化為業(yè)界領先的產品。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉