人工智能的又一個微小進步_麒麟970:人工智能芯片NPU_親測Mate10手機麒麟970性能
人工智能時代是信息化時代的延續(xù)和新生,今天在這個領域的每個微小的進步都會累積起來,直到再為我們推開一扇偉大時代的大門。
人類在出生時近1000億個大腦神經(jīng)元就已經(jīng)產(chǎn)生和分化好,并且處在它們該存在的位置,等著建立神經(jīng)網(wǎng)絡。這時候的神經(jīng)元還沒有多少觸突,相互之間也沒有多少鏈接,新生兒的神經(jīng)觸突數(shù)不到成年人的三分之一。在嬰幼兒的成長發(fā)育過程中,神經(jīng)元迅速伸出觸突,彼此建立起非常復雜的鏈接,相連的神經(jīng)元可以傳遞電和化學信號,接近三歲的時候,觸突的數(shù)量達到頂峰,此時的數(shù)量是成人的二倍,這段時間也正是人類學習和認知最快的時期,我們基本的生存技能,比如語言、圖像識別和分類、運動都要在這個時候建立起來。此后的時間里,大腦不斷優(yōu)化和修剪神經(jīng)元的鏈接,讓信息的處理更加高效。在神經(jīng)網(wǎng)絡的建立過程中,鏈接的建立是隨機的,但是修剪不是隨機的,大腦不斷根據(jù)外界信息和反饋來完成。最終形成的神經(jīng)網(wǎng)絡復雜且能高效處理數(shù)據(jù),即便是相同環(huán)境里成長起來的同卵雙胞胎也會有完全不同的兩個大腦。
模仿生物神經(jīng)系統(tǒng)建立的神經(jīng)計算網(wǎng)絡,基本原理就是一層一層處理和過濾信息,每一層的基本運算都很簡單,無非是用加法和乘法來完成矩陣運算,但是運算中的各種參數(shù)因子是個未知數(shù),只能讓神經(jīng)網(wǎng)絡通過大量的數(shù)據(jù)來自己學習,這個學習的過程和孩子學習識圖是一樣的,大量各種形態(tài)的圖像數(shù)據(jù)輸入,對最終輸出做出糾正,一旦發(fā)現(xiàn)輸出錯誤就回退嘗試新的參數(shù)設定,直到找到復合要求的輸出。所以神經(jīng)網(wǎng)絡只關注于問題「可解」,并不強調「最優(yōu)解」,每次解決和處理問題,都可以進一步優(yōu)化網(wǎng)絡參數(shù),讓網(wǎng)絡適應更復雜的數(shù)據(jù)輸入。
一直到2016年,GoogleDeepmind團隊的AlphaGo戰(zhàn)勝了職業(yè)九段李世石,才在世界范圍內掀起了對人工神經(jīng)網(wǎng)絡的關注。這是一場徹底的勝利,AlphaGo的研發(fā)者并不懂圍棋,打開AlphaGo程序也沒人讀得懂里面天書一樣的各種參數(shù),AlphaGo完全是靠自己學習圍棋來達到了戰(zhàn)勝人類的能力。最初的AlphaGo以CPU+GPU為運算單元,隨著運算量的增加,GPU畢竟不是專為神經(jīng)網(wǎng)絡計算而設計,Google為了提升效率而自行設計了計算單元TPU。TPU是專為深度學習框架TensorFlow而定制的,改用TPU的AlphaGo提升更快,僅靠單機4個TPU就在隨后的比賽里碾壓了所有人類頂級棋手。