當下,人工智能已經深入到經濟和產業(yè)的每個細分領域,很多產品也已經具備了人工智能的能力,這是積極的一面。但同時,也給我們帶來一些嚴峻的問題和挑戰(zhàn)。隨著人工智能的發(fā)展,能源消耗的越來越嚴重,有數據預測到2025年,全球的數據中心將消耗全球所有可用電力的20%。
此外,深度神經網絡的能耗與其規(guī)模大小也成正比。資料顯示,到2025年,神經網絡的繼續(xù)發(fā)展有望將其規(guī)模擴大至100萬億個參數,相當于人類大腦的容量,這樣規(guī)模的神經網絡將消耗大量能源。人類大腦的能效比當前最優(yōu)秀硬件的能效要高100倍,因此我們應該從大腦得到啟發(fā),發(fā)展能效更高的人工智能技術。
人工智能的能耗問題具備兩大挑戰(zhàn)
在Qualcomm技術副總裁韋靈思看來,人工智能的能耗問題存在兩個重要的挑戰(zhàn)。第一,人工智能創(chuàng)造的經濟價值和效益必須超過運行這個服務的成本,否則人們將無法盈利,人們開發(fā)的這些卓越的人工智能技術也就無所用處。不管是社交網絡上按用戶喜好排序,或者是個性化的廣告和推薦,它的應用成本都需要控制在一定范圍內。此外,人工智能還被應用到大型的智慧城市和智慧工廠中,同樣需要控制成本。
Qualcomm技術副總裁韋靈思
第二,人工智能能效問題也是一大挑戰(zhàn),是因為在邊緣側也就是移動環(huán)境中,還存在散熱的限制。比如說,我們不能在手機里運行能耗過高的任務,否則手機就會變得非常熱。但同時,我們需要處理大量的人工智能工作負載,包括完成非常密集的計算分析任務、處理復雜的并發(fā)性即在一段時間內同時完成多項任務,還需要保證實時和始終開啟,移動環(huán)境又有多種多樣的限制條件,比如說終端的尺寸很小,又需要保證長久續(xù)航以支持全天使用。此外,受尺寸影響,移動終端的內存和帶寬也都有限制。
“所以說,不管是從經濟效益還是熱效率的角度看,我們都必須要降低人工智能運行的能耗。” 韋靈思總結到:“我認為未來人工智能算法將不會由其所能提供的智能多少來衡量,而是要看這種算法每瓦時所提供的智能多少,這會成為未來人工智能算法的重要衡量指標。在此方面Qualcomm擁有很大的優(yōu)勢,低功耗計算正是我們一直以來所擅長的。”
Qualcomm在終端側讓深度學習更加高效
深度學習是人工智能發(fā)展歷程中的一次重要變革,受神經網絡的大幅發(fā)展所驅動,深度學習顯著提高了預測的準確性。此外,韋靈思表示我們不應該從聲音、信號等大量原始數據中人工定義特性,而是應該讓算法從原始數據中自行學習提取特性,這是一個巨大的突破。神經網絡的優(yōu)點還包括,它能夠自動探測物體,非常高效地共享參數,使部分數據更加高效,并且可以在現代硬件上快速執(zhí)行。
當然,深度學習也有需要改進的方面,在韋靈思看來,最重要的一點是,卷積神經網絡使用了太多的內存、計算能力和能源,這是現在急需改善的。此外,神經網絡不具備旋轉不變性、不能量化不確定性以及它很容易被輸入側輕微的改變所欺騙等。
為應對這些挑戰(zhàn),Qualcomm開展了大量的工作。在降低能耗方面,受人類大腦的啟發(fā),Qualcomm早在超過十年前就已經開始了脈沖神經網絡的研究,這也是實現低功耗計算的一種方法。現在同樣受人腦的啟發(fā),Qualcomm正考慮利用噪音來實現深度學習方面的低功耗計算。
韋靈思解釋稱:“人腦其實是一個充滿噪聲的系統(tǒng),它知道如何處理噪音。我相信,我們可以更進一步利用噪音來為神經網絡帶來益處。在專業(yè)領域,我們將這種方法稱為貝葉斯深度學習,這也是我們實現這一切的重要基礎性框架。通過貝葉斯深度學習,我們把神經網絡壓縮得更小,使其可以更高效地運行在驍龍平臺上。我們還通過使用這一框架,量化我們需要進行的計算處理的比特位。”
談及這些噪音如何幫助我們進行壓縮和量化時,韋靈思講到,我們將噪聲引入到神經網絡,繼而影響到各個參數和連接,然后這些擾動的參數將噪聲傳播到激活節(jié)點,也就是各個神經元。如果這些神經元充滿了噪音、不存儲任何信息、或對預測不能發(fā)揮任何作用,我們就對其進行裁剪。通過裁剪神經元,神經網絡會變得更小,從而在計算機和驍龍平臺上也將會運行得更快。
剛剛談到了使用貝葉斯框架進行壓縮與量化,事實上它還可以解決許多其他問題。如果神經網絡只進行過面向某一場景的訓練,例如一臺自動駕駛汽車只接受過某一城市的相關訓練,現在這臺汽車來到另一個新的城市,你可以使用貝葉斯深度學習進行泛化。Qualcomm的思路是,能夠對數據做出解釋的最小、最簡單的模型即為最適合的模型,這就是奧卡姆剃刀。貝葉斯學習還可以幫助我們產生置信估計,即量化神經網絡的不確定性。當我們加入噪聲,噪聲將傳播至預測,從而產生預測的分布區(qū)間,由此完成對預測置信度的量化。最后,貝葉斯學習可以幫助我們不易遭受對抗攻擊,即通過輸入側的輕微改變來得到不同的預測結果。它也有助于保護用戶的個人隱私,因為數據信息可以轉換為模型參數甚至可以進行重構,使得數據具有隱私敏感度。所以說通過加入噪聲,可以很好地幫助我們保護隱私??傮w而言,貝葉斯深度學習可以很好地解決深度神經網絡所面臨的諸多挑戰(zhàn)。
“隨著壓縮比越來越大,貝葉斯深度學習相比于其他方法的性能優(yōu)勢就越明顯,其在移動平臺上的運行也更為高效,這就是為什么我們認為貝葉斯深度學習尤其適合移動場景。” 韋靈思進一步講到。
此外,據介紹,目前Qualcomm異構計算系統(tǒng)中包括了三個組件,分別是CPU、GPU和DSP。超過十年來,在每一個產品研發(fā)周期內,Qualcomm都從多個維度持續(xù)提升這三大組件。舉例來說,在緩存結構(caching structure)上,Qualcomm不斷優(yōu)化內存工作方式;持續(xù)優(yōu)化精確性,通過最低的能耗實現對精確度優(yōu)化;優(yōu)化計算管理,比如說當有一個計算任務,可以選擇讓GPU、CPU或是DSP完成,或者讓所有組件共同完成。雖然目前只對單一終端上的計算進行管理,但Qualcomm有更遠大的愿景,在即將到來的5G時代,Qualcomm將在萬物互聯的環(huán)境下,將計算放在由終端及云端組成的整個網絡中運行,為網絡邊緣帶來強大的人工智能系統(tǒng)。”
Qualcomm三層努力加速人工智能研究
在加速人工智能研究方面,Qualcomm也做了很大的努力,包括對計算架構、內存層級及使用層面的優(yōu)化和提升。在計算架構方面,Qualcomm專注于優(yōu)化指令類型和并行性,以及優(yōu)化運行計算所需的精確度,貝葉斯深度學習可以幫助實現最佳的運行精確度。同樣重要甚至更為重要的是內存層級。據估計,從DRAM遷移數據或將數據遷移至DRAM的功耗,是ALU運算(ALU Operation)功耗的200倍,因此,需要優(yōu)化內存層級以降低數據移動的功耗。在使用層面,Qualcomm致力于優(yōu)化硬件、軟件和編譯器,從而減少計算的冗余并最大化計算吞吐量和內存帶寬。
韋靈思補充道:“由硬件、軟件和算法構成的生態(tài)系統(tǒng)對我們來說至關重要。高效的硬件將不斷演進,以適應在人工智能領域出現的全新算法。”
他進一步講到:“我們關注如何在硬件上更高效地運行卷積神經網絡,以及為高效運行神經網絡而開發(fā)更高效的新硬件。在算法方面,確保算法在驍龍平臺上的高效運行。這一切都需要通過軟件工具來實現,也就是我們的驍龍神經處理SDK。大家可以將軟件看成是連接硬件和算法之間的橋梁。比如說,你在驍龍平臺上構建你最喜歡的模型,或進行你最喜歡的人工智能測試,當你將模型放到神經處理SDK中,這些可用的軟件工具將幫助你進行壓縮和量化,從而確保你的模型或測試在驍龍平臺上高效運行。”