當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 最優(yōu)化問題是機器學習算法中非常重要的一部分,幾乎每一個機器學習算法的核心都是在處理最優(yōu)化問題。 本文中我講介紹一些機器學習領域中常用的且非常掌握的最優(yōu)化算法,看完本篇文章后你將會明白:

最優(yōu)化問題是機器學習算法中非常重要的一部分,幾乎每一個機器學習算法的核心都是在處理最優(yōu)化問題。

本文中我講介紹一些機器學習領域中常用的且非常掌握的最優(yōu)化算法,看完本篇文章后你將會明白:

* 什么是梯度下降法?

* 如何將梯度下降法運用到線性回歸模型中?

* 如何利用梯度下降法處理大規(guī)模的數(shù)據(jù)?

* 梯度下降法的一些技巧

梯度下降法

梯度下降法是一個用于尋找最小化成本函數(shù)的參數(shù)值的最優(yōu)化算法。當我們無法通過分析計算(比如線性代數(shù)運算)求得函數(shù)的最優(yōu)解時,我們可以利用梯度下降法來求解該問題。

梯度下降法的直覺體驗

想象一個你經(jīng)常用來吃谷物或儲存受過的大碗,成本函數(shù)的形狀類似于這個碗的造型。

碗表面上的任一隨機位置表示當前系數(shù)對應的成本值,碗的底部則表示最優(yōu)解集對應的成本函數(shù)值。梯度下降法的目標就是不斷地嘗試不同的系數(shù)值,然后評估成本函數(shù)并選擇能夠降低成本函數(shù)的參數(shù)值。重復迭代計算上述步驟直到收斂,我們就能獲得最小成本函數(shù)值對應的最優(yōu)解

梯度下降法的過程

梯度下降法首先需要設定一個初始參數(shù)值,通常情況下我們將初值設為零(coefficient=0coefficient=0),接下來需要計算成本函數(shù) cost=f(coefficient)cost=f(coefficient) 或者cost=evaluate(f(coefficient))cost=evaluate(f(coefficient))。然后我們需要計算函數(shù)的導數(shù)(導數(shù)是微積分的一個概念,它是指函數(shù)中某個點處的斜率值),并設定學習效率參數(shù)(alpha)的值。

coefficient=coefficient?(alpha?delta) coefficient=coefficient?(alpha?delta) 重復執(zhí)行上述過程,直到參數(shù)值收斂,這樣我們就能獲得函數(shù)的最優(yōu)解。

你可以看出梯度下降法的思路多么簡單,你只需知道成本函數(shù)的梯度值或者需要優(yōu)化的函數(shù)情況即可。接下來我將介紹如何將梯度下降法運用到機器學習領域中。

批量梯度下降法

所有的有監(jiān)督機器學習算法的目標都是利用已知的自變量(X)數(shù)據(jù)來預測因變量(Y)的值。所有的分類和回歸模型都是在處理這個問題。

機器學習算法會利用某個統(tǒng)計量來刻畫目標函數(shù)的擬合情況。雖然不同的算法擁有不同的目標函數(shù)表示方法和不同的系數(shù)值,但是它們擁有一個共同的目標——即通過最優(yōu)化目標函數(shù)來獲取最佳參數(shù)值。

線性回歸模型和邏輯斯蒂回歸模型是利用梯度下降法來尋找最佳參數(shù)值的經(jīng)典案例。

我們可以利用多種衡量方法來評估機器學習模型對目標函數(shù)的擬合情況。成本函數(shù)法是通過計算每個訓練集的預測值和真實值之間的差異程度(比如殘差平方和)來度量模型的擬合情況。

我們可以計算成本函數(shù)中每個參數(shù)所對應的導數(shù)值,然后通過上述的更新方程進行迭代計算。

在梯度下降法的每一步迭代計算后,我們都需要計算成本函數(shù)及其導數(shù)的情況。每一次的迭代計算過程就被稱為一批次,因此這個形式的梯度下降法也被稱為批量梯度下降法。

批量梯度下降法是機器學習領域中常見的一種梯度下降方法。

隨機梯度下降法

處理大規(guī)模的數(shù)據(jù)時,梯度下降法的運算效率非常低。

因為梯度下降法在每次迭代過程中都需要計算訓練集的預測情況,所以當數(shù)據(jù)量非常大時需要耗費較長的時間。

當你處理大規(guī)模的數(shù)據(jù)時,你可以利用隨機梯度下降法來提高計算效率。

該算法與上述梯度下降法的不同之處在于它對每個隨機訓練樣本都執(zhí)行系數(shù)更新過程,而不是在每批樣本運算完后才執(zhí)行系數(shù)更新過程。

隨機梯度下降法的第一個步驟要求訓練集的樣本是隨機排序的,這是為了打亂系數(shù)的更新過程。因為我們將在每次訓練實例結束后更新系數(shù)值,所以系數(shù)值和成本函數(shù)值將會出現(xiàn)隨機跳躍的情況。通過打亂系數(shù)更新過程的順序,我們可以利用這個隨機游走的性質(zhì)來避免模型不收斂的問題。

除了成本函數(shù)的計算方式不一致外,隨機梯度下降法的系數(shù)更新過程和上述的梯度下降法一模一樣。

對于大規(guī)模數(shù)據(jù)來說,隨機梯度下降法的收斂速度明顯高于其他算法,通常情況下你只需要一個小的迭代次數(shù)就能得到一個相對較優(yōu)的擬合參數(shù)。

梯度下降法的一些建議

本節(jié)列出了幾個可以幫助你更好地掌握機器學習中梯度下降算法的技巧:

繪制成本函數(shù)隨時間變化的曲線:收集并繪制每次迭代過程中所得到的成本函數(shù)值。對于梯度下降法來說,每次迭代計算都能降低成本函數(shù)值。如果無法降低成本函數(shù)值,那么可以嘗試減少學習效率值。

學習效率:梯度下降算法中的學習效率值通常為0.1,0.001或者0.0001。你可以嘗試不同的值然后選出最佳學習效率值。

標準化處理:如果成本函數(shù)不是偏態(tài)形式的話,那么梯度下降法很快就能收斂。隱蔽你可以事先對輸入變量進行標準化處理。

繪制成本均值趨勢圖:隨機梯度下降法的更新過程通常會帶來一些隨機噪聲,所以我們可以考慮觀察10次、100次或1000次更新過程誤差均值變化情況來度量算法的收斂趨勢。

總結

本文主要介紹了機器學習中的梯度下降法,通過閱讀本文,你了解到:

最優(yōu)化理論是機器學習中非常重要的一部分。

梯度下降法是一個簡單的最優(yōu)化算法,你可以將它運用到許多機器學習算法中。

批量梯度下降法先計算所有參數(shù)的導數(shù)值,然后再執(zhí)行參數(shù)更新過程。

隨機梯度下降法是指從每個訓練實例中計算出導數(shù)并執(zhí)行參數(shù)更新過程。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉