當(dāng)前位置:首頁(yè) > 廠商動(dòng)態(tài) > Achronix半導(dǎo)體
[導(dǎo)讀]探索FPGA加速語(yǔ)言模型如何通過(guò)更快的推理、更低的延遲和更好的語(yǔ)言理解來(lái)重塑生成式人工智能

簡(jiǎn)介:大語(yǔ)言模型

近年來(lái),大型語(yǔ)言模型(Large Language Models,LLM)徹底改變了自然語(yǔ)言處理領(lǐng)域,使機(jī)器能夠生成類似人類的文本并進(jìn)行有意義的對(duì)話。這些模型,例如OpenAI的GPT,擁有驚人的語(yǔ)言理解和生成能力。它們可以被用于廣泛的自然語(yǔ)言處理任務(wù),包括文本生成、翻譯、自動(dòng)摘要、情緒分析等。

大語(yǔ)言模型通常是基于深度學(xué)習(xí)技術(shù)來(lái)構(gòu)建,特別是廣泛使用了transformer架構(gòu)。Transformer是一類神經(jīng)網(wǎng)絡(luò)模型,擅長(zhǎng)捕捉語(yǔ)言序列中的遠(yuǎn)關(guān)聯(lián)關(guān)系,這使得它們非常適合于語(yǔ)言理解和生成任務(wù)。訓(xùn)練一種大語(yǔ)言模型的方法是將模型暴露給大量文本數(shù)據(jù)中,這些文本數(shù)據(jù)通常來(lái)源于書(shū)籍、網(wǎng)站和其它文本資源。該模型學(xué)會(huì)了預(yù)測(cè)句子中的下一個(gè)單詞,或者根據(jù)它所看到的上下文填充缺失的單詞。通過(guò)這個(gè)過(guò)程,它獲得了關(guān)于語(yǔ)法、句法的知識(shí),甚至是一定程度的世界知識(shí)。

與大語(yǔ)言模型相關(guān)的主要挑戰(zhàn)之一是其巨大的計(jì)算和內(nèi)存需求。這些模型由數(shù)十億個(gè)參數(shù)組成,需要強(qiáng)大的硬件和大量的計(jì)算資源來(lái)有效地訓(xùn)練和部署它們,正如Nishant Thakur在2023年3月于領(lǐng)英發(fā)布的文章《ChatGPT背后令人難以置信的處理能力和成本:構(gòu)建終極AI聊天機(jī)器人需要什么?》中所討論的。資源有限的組織機(jī)構(gòu)和研究人員在充分利用這些模型的潛力方面經(jīng)常遇到瓶頸,因?yàn)樵贫诵枰罅康奶幚砟芰蛸Y金。此外,在生成響應(yīng)時(shí),為創(chuàng)建適當(dāng)?shù)姆?hào)、單詞或單詞子部分,上下文長(zhǎng)度會(huì)急劇增長(zhǎng),對(duì)內(nèi)存和計(jì)算資源產(chǎn)生更多的需求。

這些計(jì)算挑戰(zhàn)導(dǎo)致更高的延遲,這使得大語(yǔ)言模型的采用變得更加困難,并且不是實(shí)時(shí)的,因此不那么自然。在這篇博客中,我們將深入研究大語(yǔ)言模型遇到的困難,并探索潛在的解決方案,這些解決方案可以為其增強(qiáng)的可用性和可靠性鋪平道路。

大語(yǔ)言模型的加速

大語(yǔ)言模型的構(gòu)建通常需要一個(gè)大規(guī)模的系統(tǒng)來(lái)執(zhí)行該模型,這個(gè)模型會(huì)持續(xù)變大,在其發(fā)展到一定程度后,僅靠在CPU上的運(yùn)行就不再具有成本、功耗或延遲的優(yōu)勢(shì)了。使用GPU或FPGA這樣的加速器可顯著提高計(jì)算能效、大幅降低系統(tǒng)延遲,并以更小的規(guī)模實(shí)現(xiàn)更高的計(jì)算水平。雖然GPU無(wú)疑正在成為硬件加速的標(biāo)準(zhǔn)選擇,主要是因?yàn)樗哂械目稍L問(wèn)性和易于編程特性;實(shí)際上,在低延遲方面,F(xiàn)PGA架構(gòu)比GPU有更卓越的性能。

由于本質(zhì)上GPU是采用扭曲鎖定(warp-locked)架構(gòu),跨多個(gè)內(nèi)核并行執(zhí)行超過(guò)32個(gè)SIMT線程,因此它們通常也需要批量處理大量數(shù)據(jù),以嘗試和偏移warp-locked架構(gòu)并保持流水線被充滿。這等同于更大的延遲和更多系統(tǒng)內(nèi)存的需求。同時(shí),F(xiàn)PGA可構(gòu)建自定義數(shù)據(jù)路徑來(lái)同時(shí)在多個(gè)數(shù)據(jù)模塊上執(zhí)行多個(gè)不同的指令,這意味著它可以非常有效地運(yùn)行,一直到批量大小為1,這是實(shí)時(shí)的,延遲要低得多,同時(shí)最大限度地減少外部存儲(chǔ)器需求。因此,與其他競(jìng)爭(zhēng)性架構(gòu)相比,F(xiàn)PGA能夠顯著提高其TOPs的利用率——隨著系統(tǒng)規(guī)模擴(kuò)展到ChatGPT系統(tǒng)大小時(shí),這種性能差距只會(huì)繼續(xù)增加。

當(dāng)系統(tǒng)規(guī)模擴(kuò)展到需要超過(guò)8個(gè)處理器件時(shí)(GPT3的訓(xùn)練需要使用10,000個(gè)GPU),用Achronix的FPGA來(lái)執(zhí)行大語(yǔ)言模型可在吞吐量和延遲方面勝過(guò)GPU。如果模型可以使用INT8精度,那么使用GPT-20B作為參考的Achronix FPGA則具有更大的優(yōu)勢(shì),如下表所示。這些數(shù)據(jù)說(shuō)明使用FPGA是有優(yōu)勢(shì)的,因?yàn)镚PU需要較長(zhǎng)的交付時(shí)間(高端GPU超過(guò)一年)、得到的用戶支持可能也很少,并且比FPGA貴得多(每塊GPU的成本可能超過(guò)10,000美元)。

Speedster7tFPGA芯片與GPU的性能比較

將大語(yǔ)言模型映射到Achronix的FPGA加速器上

Achronix的Speedster7t FPGA具有一個(gè)獨(dú)特的架構(gòu),使其非常適合這些類型的模型。首先,它有一個(gè)硬二維片上網(wǎng)絡(luò)(2D NoC),解決了整個(gè)器件的數(shù)據(jù)傳輸以及輸入輸出。此外,它使用了帶有緊耦合RAM的機(jī)器學(xué)習(xí)處理器(MLP),以便在計(jì)算之間實(shí)現(xiàn)高效的結(jié)果重用。最后,與GPU類似但與其他FPGA不同,Achronix的Speedster7t FPGA具有八組高效的GDDR6存儲(chǔ)器IP,可支持更高的帶寬,并且能夠以4 Tbps的速度加載參數(shù)。

由于這些系統(tǒng)需要可擴(kuò)展性,F(xiàn)PGA可以實(shí)現(xiàn)各種標(biāo)準(zhǔn)接口,以將加速卡互連在一起,并可實(shí)現(xiàn)卡之間無(wú)縫地傳輸數(shù)據(jù)。Achronix的Speedster7t AC7t1500器件具有32個(gè)100 Gbps的SerDes通道,不需要諸如NVLink這樣的專有且成本高昂的解決方案。

大語(yǔ)言模型的未來(lái):升級(jí)為增強(qiáng)型語(yǔ)言理解方案及領(lǐng)域特定方案

由于這些大語(yǔ)言模型需要巨大的規(guī)模才能以最小的延遲影響來(lái)執(zhí)行訓(xùn)練和推理,模型的復(fù)雜性將繼續(xù)增加,這將使得不斷發(fā)展的語(yǔ)言理解、生成,甚至預(yù)測(cè)能力具有令人難以置信的準(zhǔn)確性。雖然目前許多GPT類模型都是通用的,很可能接下來(lái)會(huì)出現(xiàn)針對(duì)某些領(lǐng)域,如醫(yī)學(xué)、法律、工程或金融等而訓(xùn)練的專用模型。總之,在很長(zhǎng)一段時(shí)間內(nèi),這些系統(tǒng)將協(xié)助人類專家處理由人工智能系統(tǒng)處理的更多平凡的任務(wù),并為提供解決方案建議或協(xié)助完成創(chuàng)造性的任務(wù)。

聯(lián)系A(chǔ)chronix,了解我們?nèi)绾螏椭铀龠@些大語(yǔ)言模型系統(tǒng)。

在即將于9月14-15日在深圳市深圳灣萬(wàn)麗酒店舉辦的“2023全球AI芯片峰會(huì)”(第10號(hào)展位)上,Achronix將展出其最新的自動(dòng)語(yǔ)音識(shí)別(Accelerated Automatic Speech Recognition, ASR)加速方案。它具有領(lǐng)先的超低延遲、大并發(fā)實(shí)時(shí)處理的特性,運(yùn)行在VectorPath加速卡上的Speedster7t FPGA中。作為一種帶有外接主機(jī)API的完整解決方案,其應(yīng)用不需要具備RTL或FPGA知識(shí)。

Achronix還將介紹針對(duì)高帶寬、計(jì)算密集型和實(shí)時(shí)處理應(yīng)用的最新的FPGA和eFPGA IP解決方案,包括Speedster®7t系列FPGA芯片、Speedcore? eFPGA IP和VectorPath®加速卡。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉