IBM發(fā)布全新光電共封裝工藝:AI模型訓(xùn)練速度將提升5倍
12月12日消息,據(jù)報道,IBM在光學(xué)技術(shù)方面獲得新進展,有望提升數(shù)據(jù)中心訓(xùn)練和運行生成式AI模型的效率。
IBM推出了新一代光電共封裝(CPO)工藝。該技術(shù)利用光學(xué)連接,實現(xiàn)了數(shù)據(jù)中心內(nèi)部的光速數(shù)據(jù)傳輸,完美補充了現(xiàn)有的短距離光纜系統(tǒng)。
研究人員展示了光電共封裝技術(shù)將如何重新定義計算行業(yè)在芯片、電路板和服務(wù)器之間的高帶寬數(shù)據(jù)傳輸。最大限度地減少GPU停機時間,同時大幅加快AI工作速度。
具體而言,這一新技術(shù)帶來了三大方面的顯著優(yōu)勢:
首先,它極大地降低了規(guī)?;瘧?yīng)用生成式AI的成本。與中距離電氣互連裝置相比,光電共封裝技術(shù)的能耗降低了五倍以上,同時,數(shù)據(jù)中心互連電纜的長度也從傳統(tǒng)的1米擴展至數(shù)百米,進一步提升了數(shù)據(jù)中心的靈活性和擴展性。
其次,該技術(shù)顯著提高了AI模型的訓(xùn)練速度。與傳統(tǒng)的電線相比,使用光電共封裝技術(shù)訓(xùn)練大型語言模型的速度幾乎提升了五倍。
這意味著,原本需要三個月才能訓(xùn)練完成的標(biāo)準大語言模型,現(xiàn)在僅需三周即可完成。對于更大的模型和更多的GPU,性能的提升將更為顯著。
最后,光電共封裝技術(shù)還顯著提升了數(shù)據(jù)中心的能效。據(jù)估算,每訓(xùn)練一個AI模型所節(jié)省的電量,竟然相當(dāng)于5000個美國家庭一年的耗電量總和。這一數(shù)據(jù)無疑彰顯了該技術(shù)在節(jié)能減排方面的巨大潛力。