當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]我們的世界正在經(jīng)歷一場由深度神經(jīng)網(wǎng)絡(luò)驅(qū)動的人工智能革命。隨著 Apple Intelligence 和 Gemini 的出現(xiàn),人工智能已經(jīng)普及到每個擁有手機(jī)的人。除了消費(fèi)者人工智能之外,我們還將深度學(xué)習(xí)模型應(yīng)用于汽車、金融、醫(yī)療、制造業(yè)等多個行業(yè)。這促使許多工程師學(xué)習(xí)深度學(xué)習(xí)技術(shù)并將其應(yīng)用于解決項目中的復(fù)雜問題。為了幫助這些工程師,必須制定一些指導(dǎo)原則,以防止在構(gòu)建這些黑盒模型時出現(xiàn)常見的陷阱。

我們的世界正在經(jīng)歷一場由深度神經(jīng)網(wǎng)絡(luò)驅(qū)動的人工智能革命。隨著 Apple Intelligence 和 Gemini 的出現(xiàn),人工智能已經(jīng)普及到每個擁有手機(jī)的人。除了消費(fèi)者人工智能之外,我們還將深度學(xué)習(xí)模型應(yīng)用于汽車、金融、醫(yī)療、制造業(yè)等多個行業(yè)。這促使許多工程師學(xué)習(xí)深度學(xué)習(xí)技術(shù)并將其應(yīng)用于解決項目中的復(fù)雜問題。為了幫助這些工程師,必須制定一些指導(dǎo)原則,以防止在構(gòu)建這些黑盒模型時出現(xiàn)常見的陷阱。

任何深度學(xué)習(xí)項目都涉及五個基本要素:數(shù)據(jù)、模型架構(gòu)、損失函數(shù)、優(yōu)化器和評估過程。設(shè)計和配置每個要素以確保模型正確收斂至關(guān)重要。本文將介紹與每個要素相關(guān)的一些推薦做法和常見問題及其解決方案。

數(shù)據(jù)

所有深度學(xué)習(xí)模型都需要大量數(shù)據(jù),至少需要數(shù)千個示例才能充分發(fā)揮其潛力。首先,重要的是確定不同的數(shù)據(jù)源,并設(shè)計適當(dāng)?shù)臋C(jī)制來選擇和標(biāo)記數(shù)據(jù)(如果需要)。這有助于建立一些啟發(fā)式數(shù)據(jù)選擇方法,并仔細(xì)考慮平衡數(shù)據(jù)以防止無意的偏差。例如,如果我們正在構(gòu)建一個用于人臉檢測的應(yīng)用程序,重要的是確保數(shù)據(jù)中沒有種族或性別偏見,以及在不同的環(huán)境條件下捕獲數(shù)據(jù)以確保模型的穩(wěn)健性。亮度、對比度、照明條件、隨機(jī)裁剪和隨機(jī)翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)也有助于確保適當(dāng)?shù)臄?shù)據(jù)覆蓋范圍。

下一步是小心地將數(shù)據(jù)分成訓(xùn)練集、驗證集和測試集,同時確保沒有數(shù)據(jù)泄漏。數(shù)據(jù)分割應(yīng)具有相似的數(shù)據(jù)分布,但訓(xùn)練集和測試集中不應(yīng)存在相同或非常密切相關(guān)的樣本。這很重要,因為如果訓(xùn)練樣本存在于測試集中,那么我們可能會看到高測試性能指標(biāo),但生產(chǎn)中仍有幾個無法解釋的關(guān)鍵問題。此外,數(shù)據(jù)泄漏幾乎不可能知道模型改進(jìn)的替代想法是否帶來了任何真正的改進(jìn)。因此,代表生產(chǎn)環(huán)境的多樣化、防泄漏、平衡的測試數(shù)據(jù)集是提供強(qiáng)大的基于深度學(xué)習(xí)的模型和產(chǎn)品的最佳保障。

模型架構(gòu)

為了開始模型設(shè)計,首先要確定手頭任務(wù)的延遲和性能要求。然后,可以查看類似這樣的開源基準(zhǔn),以確定一些合適的論文。無論我們使用 CNN 還是 transformer,一開始就有一些預(yù)先訓(xùn)練好的權(quán)重會有所幫助,以減少訓(xùn)練時間。如果沒有可用的預(yù)訓(xùn)練權(quán)重,那么對每個模型層進(jìn)行合適的模型初始化對于確保模型在合理的時間內(nèi)收斂非常重要。此外,如果可用的數(shù)據(jù)集非常小(幾百個樣本或更少),那么訓(xùn)練整個模型就沒有意義了,而應(yīng)該只對最后幾個特定于任務(wù)的層進(jìn)行微調(diào)。

現(xiàn)在,是否使用 CNN、Transformer 或兩者的組合取決于具體問題。對于自然語言處理,Transformer 已被確定為最佳選擇。對于視覺,如果延遲預(yù)算非常緊張,CNN 仍然是更好的選擇;否則,應(yīng)該嘗試使用 CNN 和 Transformer 以獲得所需的結(jié)果。

損失函數(shù)

分類任務(wù)中最流行的損失函數(shù)是交叉熵?fù)p失,回歸任務(wù)中最流行的損失函數(shù)是是 L1 或 L2 (MSE) 損失。但是,為了在模型訓(xùn)練期間保持?jǐn)?shù)值穩(wěn)定性,可以使用某些變體。例如,在 Pytorch 中,BCEWithLogitsLoss 將 sigmoid 層和 BCELoss 合并為一個類,并使用對數(shù)和指數(shù)技巧,這使其比 sigmoid 層后跟 BCELoss 更具有數(shù)值穩(wěn)定性。另一個示例是 SmoothL1Loss,它可以看作是 L1 和 L2 損失的組合,并使 L1 損失平滑接近于零。但是,在使用平滑 L1 損失時必須小心,以適當(dāng)設(shè)置 beta,因為其默認(rèn)值 1.0 可能不適合在正弦和余弦域中回歸值。下圖顯示了 L1、L2 (MSE) 和平滑 L1 損失的損失值以及不同 beta 值下平滑 L1 損失值的變化。

優(yōu)化器

動量隨機(jī)梯度下降法傳統(tǒng)上是研究人員針對大多數(shù)問題非常流行的優(yōu)化器。然而,在實踐中,Adam 通常更易于使用,但存在泛化問題。Transformer 論文推廣了 AdamW 優(yōu)化器,它將權(quán)重衰減因子的選擇與學(xué)習(xí)率分離開來,并顯著提高了 Adam 優(yōu)化器的泛化能力。這使得 AdamW 成為當(dāng)今優(yōu)化器的最佳選擇。

此外,沒有必要對整個網(wǎng)絡(luò)使用相同的學(xué)習(xí)率。通常,如果從預(yù)訓(xùn)練的檢查點開始,最好凍結(jié)或保持初始層的低學(xué)習(xí)率,并為更深的任務(wù)特定層保持較高的學(xué)習(xí)率。

評價與概括

開發(fā)適當(dāng)?shù)哪P驮u估框架是防止生產(chǎn)中出現(xiàn)問題的關(guān)鍵。這不僅應(yīng)涉及完整基準(zhǔn)數(shù)據(jù)集的定量和定性指標(biāo),還應(yīng)涉及特定場景的定量和定性指標(biāo)。這樣做是為了確保性能在每種情況下都是可接受的,并且不會出現(xiàn)倒退。

應(yīng)謹(jǐn)慎選擇性能指標(biāo),以確保它們能夠恰當(dāng)?shù)卮硪獙崿F(xiàn)的任務(wù)。例如,在許多不平衡的問題中,精度/召回率或 F1 分?jǐn)?shù)可能比準(zhǔn)確率更好。有時,我們可能有多個指標(biāo)來比較替代模型,那么通常有助于提出一個可以簡化比較過程的單一加權(quán)指標(biāo)。例如,nuScenes 數(shù)據(jù)集引入了 NDS(nuScenes 檢測分?jǐn)?shù)),它是 mAP(平均精度)、mATE(平均平移誤差)、mASE(平均尺度誤差)、mAOE(平均方向誤差)、mAVE(平均速度誤差)和 mAAE(平均屬性誤差)的加權(quán)和,以簡化各種 3D 物體檢測模型的比較。

此外,還應(yīng)盡可能可視化模型輸出。這可能涉及在輸入圖像上繪制邊界框(用于 2D 物體檢測模型)或在激光雷達(dá)點云上繪制長方體(用于 3D 物體檢測模型)。這種手動驗證可確保模型輸出合理,并且模型錯誤中沒有明顯的模式。

此外,密切關(guān)注訓(xùn)練和驗證損失曲線有助于檢查是否存在過度擬合或欠擬合。過度擬合是一種問題,其中驗證損失與訓(xùn)練損失不同并開始增加,表示模型的泛化能力不佳。通常可以通過添加適當(dāng)?shù)恼齽t化(如權(quán)重衰減、drop-out 層)、添加更多數(shù)據(jù)增強(qiáng)或使用早期停止來解決此問題。另一方面,欠擬合表示模型沒有足夠的容量來擬合訓(xùn)練數(shù)據(jù)的情況。這可以通過訓(xùn)練損失下降不夠和/或在各個時期保持或多或少平穩(wěn)來識別。可以通過向模型添加更多層、減少數(shù)據(jù)增強(qiáng)或選擇其他模型架構(gòu)來解決此問題。下圖通過損失曲線展示了過度擬合和欠擬合的例子。

深度學(xué)習(xí)之旅

與傳統(tǒng)軟件工程不同,深度學(xué)習(xí)更具實驗性,需要仔細(xì)調(diào)整超參數(shù)。但是,如果上述基本原則得到照顧,這個過程會更易于管理。由于模型是黑匣子,我們必須利用損失曲線、輸出可視化和性能指標(biāo)來了解模型行為并相應(yīng)地采取糾正措施。希望本指南可以讓您的深度學(xué)習(xí)之旅不那么費(fèi)力。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉