浪潮信息趙帥:開(kāi)放計(jì)算創(chuàng)新 應(yīng)對(duì)Scaling Law挑戰(zhàn)
北京2024年8月15日 /美通社/ -- 日前在2024開(kāi)放計(jì)算中國(guó)峰會(huì)上,浪潮信息服務(wù)器產(chǎn)品線總經(jīng)理趙帥表示,智能時(shí)代,開(kāi)源模型和開(kāi)放計(jì)算激發(fā)了人工智能產(chǎn)業(yè)生態(tài)的創(chuàng)新活力,面對(duì)大模型Scaling Law帶來(lái)的AI基礎(chǔ)設(shè)施Scale up和Scale out的挑戰(zhàn),數(shù)據(jù)中心需要以開(kāi)放創(chuàng)新加速算力系統(tǒng)、管理和基礎(chǔ)設(shè)施的全向Scale進(jìn)程,推動(dòng)AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。
開(kāi)源開(kāi)放推動(dòng)人工智能創(chuàng)新與算力生態(tài)的全面發(fā)展
生成式人工智能的飛躍式進(jìn)步正在加速智能時(shí)代的到來(lái),數(shù)據(jù)中心基礎(chǔ)設(shè)施面臨全方位創(chuàng)新,將越來(lái)越依賴更加廣泛的全球化開(kāi)放協(xié)作,加速AI技術(shù)創(chuàng)新與應(yīng)用,共同構(gòu)建一個(gè)充滿創(chuàng)新活力的智能世界,而激發(fā)人工智能創(chuàng)新活力,開(kāi)源開(kāi)放是核心和源泉。
模型開(kāi)源激發(fā)人工智能創(chuàng)新活力。隨著開(kāi)源大模型能力的不斷增強(qiáng)和開(kāi)源生態(tài)的持續(xù)壯大,帶動(dòng)模型、應(yīng)用到產(chǎn)業(yè)的全面發(fā)展,三分之二的基礎(chǔ)模型選擇開(kāi)源,超過(guò)80%以上的AI項(xiàng)目使用開(kāi)源框架進(jìn)行開(kāi)發(fā),開(kāi)源模型的下載量突破3億次,并衍生出超過(guò) 3萬(wàn)個(gè)新模型,Llama 3.1、通義千問(wèn)、源2.0等開(kāi)源大模型成為人工智能創(chuàng)新的驅(qū)動(dòng)力。
硬件開(kāi)放完善人工智能算力生態(tài)。人工智能帶來(lái)指數(shù)級(jí)增長(zhǎng)的算力需求,全球已有上百家公司投入新型AI芯片的研發(fā)與設(shè)計(jì),百花齊放的算力芯片需要統(tǒng)一的算力平臺(tái)才能快速推向市場(chǎng),實(shí)現(xiàn)落地。開(kāi)放加速規(guī)范OAM的出現(xiàn)大大加速多元算力芯片的適配兼容過(guò)程,大幅降低資源投入,使算力部署和迭代提速,支撐上層大模型和AIGC應(yīng)用的快速迭代成熟。目前,90% 高端AI芯片基于OAM規(guī)范設(shè)計(jì),去年浪潮信息剛剛發(fā)布的基于OAM規(guī)范的開(kāi)放加速計(jì)算平臺(tái)NF5698G7與多款主流AI加速芯片適配兼容,基于OAM的智算產(chǎn)業(yè)生態(tài)圈日趨完善。
我們可以看到,AI時(shí)代,算力正在呈現(xiàn)出多元化的發(fā)展趨勢(shì)。為應(yīng)對(duì)AIGC、云計(jì)算、大數(shù)據(jù)等應(yīng)用復(fù)雜且不斷變化的計(jì)算需求,不僅僅是GPU,CPU、FPGA、ASIC等芯片也在朝著更加多樣化和專用化的方向發(fā)展。而且無(wú)論是手機(jī)、電腦、邊緣設(shè)備、CPU通用服務(wù)器、加速服務(wù)器都具有了AI計(jì)算的能力,可以說(shuō)一切計(jì)算皆AI,AI算力已經(jīng)深入到千行百業(yè),滲透進(jìn)每一個(gè)計(jì)算設(shè)備里。面向人工智能的算力范式不斷革新,基于CPU的通用服務(wù)器不僅要承載大數(shù)據(jù)、關(guān)鍵計(jì)算、科學(xué)計(jì)算外,也要承擔(dān)AI應(yīng)用的重要任務(wù),這也是CPU通用服務(wù)器的重大機(jī)遇。
但隨著應(yīng)用范式的多樣化,目前x86、ARM、RISC-V等不同架構(gòu)的CPU處理器百花齊放,僅中國(guó),就有10多種CPU處理器,不同CPU協(xié)議標(biāo)準(zhǔn)不統(tǒng)一,同時(shí)為了更好的適合AI推理高并行的計(jì)算特點(diǎn),CPU總線互聯(lián)帶寬、內(nèi)存帶寬及容量也需要特別優(yōu)化,使得系統(tǒng)功耗、總線速率、電流密度不斷提升……多種因素疊加之下,硬件開(kāi)發(fā)、固件適配、部件測(cè)試資源等時(shí)間激增,給算力系統(tǒng)設(shè)計(jì)帶來(lái)巨大挑戰(zhàn)。
為了縮短從芯片到算力系統(tǒng)的轉(zhuǎn)化時(shí)間,給用戶提供更快、更好的算力支撐,CPU端也亟需構(gòu)建智算時(shí)代的CPU統(tǒng)一底座, 能夠兼容不同芯片廠商、多代產(chǎn)品。2024開(kāi)放計(jì)算中國(guó)峰會(huì)上,開(kāi)放算力模組(OCM)規(guī)范正式啟動(dòng),首批成員包括中國(guó)電子標(biāo)準(zhǔn)院、百度、小紅書(shū)、浪潮信息、聯(lián)想、超聚變、英特爾、AMD等機(jī)構(gòu)和企業(yè)。
全新的開(kāi)放算力模組OCM規(guī)范,旨在建立基于處理器的標(biāo)準(zhǔn)化算力模組單元,通過(guò)統(tǒng)一不同處理器算力單元對(duì)外高速互連、管理協(xié)議、供電接口等,實(shí)現(xiàn)服務(wù)器主板平臺(tái)的深度解耦和模塊化設(shè)計(jì),兼容不同架構(gòu)的多代處理器芯片,方便客戶根據(jù)人工智能、云計(jì)算、大數(shù)據(jù)等多樣化應(yīng)用場(chǎng)景,靈活、快速匹配最適合的算力平臺(tái),推動(dòng)算力產(chǎn)業(yè)高質(zhì)量快速發(fā)展。
OCM規(guī)范是國(guó)內(nèi)首個(gè)服務(wù)器計(jì)算模組設(shè)計(jì)規(guī)范,產(chǎn)業(yè)界上下游伙伴將基于OCM規(guī)范,共同建立標(biāo)準(zhǔn)化的算力模組單元,構(gòu)建開(kāi)放合作、融合創(chuàng)新的產(chǎn)業(yè)生態(tài),為用戶提供更多通用性強(qiáng)、綠色高效、安全可靠的算力選擇。
以開(kāi)放創(chuàng)新的全向Scale應(yīng)對(duì)大模型第一性原理
算力、算法和數(shù)據(jù)是推動(dòng)人工智能發(fā)展的三駕馬車(chē),自Transformer架構(gòu)出現(xiàn)以來(lái),大模型性能與其參數(shù)量、計(jì)算當(dāng)量、數(shù)據(jù)量的協(xié)同作用尤為顯著,業(yè)界稱之為大語(yǔ)言模型的第一性原理——Scaling Law。
智算時(shí)代,需要用開(kāi)放的理念來(lái)加速算力系統(tǒng)全向Scale,從而應(yīng)對(duì)大模型的Scaling Law。隨著大模型能力的持續(xù)進(jìn)化,算法規(guī)模和復(fù)雜性不斷增加、數(shù)據(jù)量越來(lái)越大,算力需求也在不斷攀升,需要同時(shí)應(yīng)對(duì)單系統(tǒng)性能提升Scale up與多系統(tǒng)大規(guī)模擴(kuò)展Scale out兩個(gè)方向擴(kuò)展的挑戰(zhàn),對(duì)數(shù)據(jù)中心基礎(chǔ)設(shè)施、算力管理、迭代升級(jí)等都提出了更高要求。
在算力方面,智算中心需要同時(shí)應(yīng)對(duì)兩個(gè)方向的擴(kuò)展,分別是強(qiáng)算力支持、一機(jī)多芯、多元多模的單機(jī)系統(tǒng)Scale up要求和大規(guī)模AI組網(wǎng)、高帶寬、資源池化的大規(guī)?;瘮U(kuò)展Scale out要求,以開(kāi)放加速模組和開(kāi)放網(wǎng)絡(luò)實(shí)現(xiàn)算力的Scale。UBB2.0開(kāi)放標(biāo)準(zhǔn)支持更高算力規(guī)格的加速卡、可以實(shí)現(xiàn)更大的OAM domain互聯(lián),未來(lái)可以支持8000+ 張加速卡Scale up,突破大模型All to All通信過(guò)程中的互聯(lián)瓶頸。同時(shí),大模型的發(fā)展需要更大規(guī)模的算力系統(tǒng),浪潮信息開(kāi)放網(wǎng)絡(luò)交換機(jī)可實(shí)現(xiàn)16000+個(gè)計(jì)算節(jié)點(diǎn)10萬(wàn)+加速卡的Scale out組網(wǎng),滿足加速卡之間的互聯(lián)通信需求,帶寬利用率高達(dá)95%+。
在管理方面,需要解決跨平臺(tái)適配、模塊化架構(gòu)、快速迭代的Scale要求,以開(kāi)放的固件解決方案實(shí)現(xiàn)了管理的Scale。當(dāng)前,異構(gòu)算力多元分化,異步迭代,管理接口規(guī)范各不相同,導(dǎo)致固件平臺(tái)分支版本龐大,相互割裂,無(wú)法歸一,單一企業(yè)資源在維護(hù)和適配如此眾多的分支版本方面捉襟見(jiàn)肘。為解決一系列管理挑戰(zhàn),需要依托于開(kāi)源社區(qū)的開(kāi)源固件平臺(tái),構(gòu)建原生解耦架構(gòu)提升可擴(kuò)展性,建立統(tǒng)一標(biāo)準(zhǔn)的接口規(guī)范,支持用戶對(duì)于自主模塊進(jìn)行定制化,實(shí)現(xiàn)標(biāo)準(zhǔn)接口規(guī)范下的異步、自主定制迭代,以滿足智算時(shí)代的算力迭代需求。
在基礎(chǔ)設(shè)施方面,數(shù)據(jù)中心面臨智能算力擴(kuò)展的兩大Scale挑戰(zhàn):一是GPU、CPU算力提升,單芯片單卡功耗急劇增加,單機(jī)柜在供電和制冷上面臨著Scale up支撐挑戰(zhàn);同時(shí),Scaling Law驅(qū)動(dòng)GPU規(guī)模無(wú)限膨脹,達(dá)到萬(wàn)卡、十萬(wàn)卡級(jí)別,帶來(lái)了數(shù)據(jù)中心層級(jí)Scale out的支撐挑戰(zhàn),需要開(kāi)放標(biāo)準(zhǔn)和開(kāi)放生態(tài)將實(shí)現(xiàn)基礎(chǔ)實(shí)施的Scale,滿足快速建設(shè)、高算力/高能耗支撐要求。采用開(kāi)放標(biāo)準(zhǔn)、開(kāi)放生態(tài)構(gòu)建的數(shù)據(jù)中心基礎(chǔ)設(shè)施,能更好地匹配智算時(shí)代多元、異構(gòu)算力的擴(kuò)展和迭代速度,進(jìn)而支撐上層智能應(yīng)用的進(jìn)一步普及。以浪潮信息為例,基于開(kāi)放標(biāo)準(zhǔn)推出的液冷冷板組件,支撐單機(jī)系統(tǒng)內(nèi)GPU和CPU核心算力原件Scale up擴(kuò)展;推出模塊化、標(biāo)準(zhǔn)接口的120kw機(jī)柜,兼容液冷、風(fēng)冷場(chǎng)景,支撐柜內(nèi)更大的部署需求;推出基于開(kāi)放標(biāo)準(zhǔn)的預(yù)制化集裝箱數(shù)據(jù)中心,大幅壓縮建設(shè)周期,其擴(kuò)展性很好的滿足了AI算力系統(tǒng)的Scale需要。
開(kāi)放計(jì)算為數(shù)據(jù)中心的全向Scale,提供了一個(gè)可以迅速傳遞到整個(gè)產(chǎn)業(yè)鏈的"通道"。 目前,開(kāi)放加速模組和開(kāi)放網(wǎng)絡(luò)實(shí)現(xiàn)了算力的Scale,開(kāi)放固件解決方案實(shí)現(xiàn)了管理的Scale,開(kāi)放標(biāo)準(zhǔn)和開(kāi)放生態(tài)實(shí)現(xiàn)了基礎(chǔ)設(shè)施的Scale。開(kāi)放計(jì)算對(duì)于智算時(shí)代至關(guān)重要,需要用開(kāi)放應(yīng)對(duì)多元算力,用開(kāi)放促進(jìn)算力的Scale,基于開(kāi)放創(chuàng)新構(gòu)建的全向Scale能力將會(huì)成為未來(lái)AI基礎(chǔ)設(shè)施的核心驅(qū)動(dòng)力,加速智算時(shí)代的創(chuàng)新,加速人工智能的前行。