引述外媒報道,斯坦福大學的AI指數2019年度報告發(fā)現,人工智能(AI)的速度超過了摩爾定律。
據《計算機周刊》報道,斯坦福大學和麥肯錫公司的報告顯示,人工智能的計算能力每三個月左右就翻一番。這意味著AI正在以比摩爾定律所期望的計算機芯片快得多的速度變得更強大。摩爾定律說,芯片速度每18個月到兩年將翻一番。
這意味著應用程序開發(fā)人員可以期望在相同硬件成本的情況下將應用程序性能提高一倍。
但是與麥肯錫公司,谷歌,普華永道,OpenAI,Genpact和AI21Labs聯合制作的斯坦福報告發(fā)現,人工智能的計算能力比傳統(tǒng)處理器的開發(fā)速度更快。報告稱:“在2012年之前,人工智能的結果緊追摩爾定律,計算量每兩年翻一番。” “ 2012年之后,計算量每3.4個月翻一番?!?/p>
該研究通過跟蹤ImageNet圖像識別程序的進度,研究了AI算法如何隨時間改進。鑒于圖像分類方法主要基于有監(jiān)督的機器學習技術,該報告的作者研究了訓練AI模型和相關成本所需的時間,他們表示這是對AI開發(fā)基礎設施成熟度的衡量,反映了軟件的進步和硬件。
他們的研究發(fā)現,在18個月的時間里,在云基礎架構上訓練監(jiān)督圖像識別的網絡所需的時間從2017年10月的大約3個小時減少到2019年7月的大約88秒。該報告指出,有關ImageNet在私有云上訓練時間的數據實例符合公共云AI培訓時間的改進。
該報告的作者使用ResNet圖像分類模型來評估算法達到高準確度所需的時間。在2017年10月,需要13天的培訓時間才能達到略高于93%的準確性。該報告發(fā)現,在13天內訓練基于AI的圖像分類以達到93%的準確性將在2017年花費約2,323美元。
這項研究報告稱,斯坦福大學DAWNBench上提供的最新基準測試是在GCP上使用云TPU運行ResNet模型,以實現略高于93%精度的圖像分類精度,2018年9月的成本僅為12美元。
該報告還探討了計算機視覺的進步,探討了創(chuàng)新算法,這些算法突破了自動活動理解的局限性,可以使用ActivityNet Challenge從視頻中識別出人類的活動和活動。
這項挑戰(zhàn)中的一項任務稱為“時間活動本地化”,它使用一長串視頻序列來描述一個以上的活動,并要求算法查找給定的活動。如今,算法可以實時準確地識別數百種復雜的人類活動,但是該報告發(fā)現還需要做更多的工作。
“在過去四年中組織了國際活動認可挑戰(zhàn)賽(AcTIvityNet)之后,我們注意到需要開展更多研究來開發(fā)能夠可靠地區(qū)分活動的方法,這些方法涉及運動線索,物體和物體的細粒度運動和/或微妙模式。人與對象之間的相互作用,”阿卜杜拉國王科技大學電氣工程副教授Bernard Ghanem說。
“展望未來,我們預見到下一代算法將成為一種強調學習的算法,而無需過多的手動整理數據。在這種情況下,基準測試和競賽仍將是追蹤此自學領域進展的基石。”