機(jī)器學(xué)習(xí)的最佳算法
掃描二維碼
隨時(shí)隨地手機(jī)看文章
在下述的內(nèi)容中,小編將會(huì)對(duì)機(jī)器學(xué)習(xí)的相關(guān)消息予以報(bào)道,如果機(jī)器學(xué)習(xí)是您想要了解的焦點(diǎn)之一,不妨和小編共同閱讀這篇文章哦。
機(jī)器學(xué)習(xí)中并沒有哪個(gè)算法是最佳的,所有的算法都有各自最適用的場(chǎng)景。因此,我們來(lái)了解一下常見機(jī)器學(xué)習(xí)算法。
1. 監(jiān)督學(xué)習(xí)
監(jiān)督學(xué)習(xí)是從標(biāo)記的訓(xùn)練數(shù)據(jù)來(lái)推斷一個(gè)功能的機(jī)器學(xué)習(xí)任務(wù)。訓(xùn)練數(shù)據(jù)包括一套訓(xùn)練示例。在監(jiān)督學(xué)習(xí)中,每個(gè)實(shí)例都是由一個(gè)輸入對(duì)象(通常為矢量)和一個(gè)期望的輸出值(也稱為監(jiān)督信號(hào))組成。監(jiān)督學(xué)習(xí)算法是分析該訓(xùn)練數(shù)據(jù),并產(chǎn)生一個(gè)推斷的功能,其可以用于映射出新的實(shí)例。一個(gè)最佳的方案將允許該算法來(lái)正確地決定那些看不見的實(shí)例的類標(biāo)簽。這就要求學(xué)習(xí)算法是在一種“合理”的方式從一種從訓(xùn)練數(shù)據(jù)到看不見的情況下形成。
監(jiān)督學(xué)習(xí)是指機(jī)器學(xué)習(xí)過(guò)程中,模型預(yù)測(cè)結(jié)果與真實(shí)目標(biāo)變量進(jìn)行比較的學(xué)習(xí)方式。常見的監(jiān)督學(xué)習(xí)算法有決策樹、KNN、SVM、邏輯回歸、隨機(jī)森林等。
2. 無(wú)監(jiān)督學(xué)習(xí)
無(wú)監(jiān)督學(xué)習(xí)里典型例子是聚類。聚類的目的在于把相似的東西聚在一起,而我們并不關(guān)心這一類是什么。因此,一個(gè)聚類算法通常只需要知道如何計(jì)算相似度就可以開始工作了。
聚類算法一般有五種方法,最主要的是劃分方法和層次方法兩種。劃分聚類算法通過(guò)優(yōu)化評(píng)價(jià)函數(shù)把數(shù)據(jù)集分割為K個(gè)部分,它需要K作為輸入?yún)?shù)。典型的分割聚類算法有K-means算法, K-medoids算法、CLARANS算法。層次聚類由不同層次的分割聚類組成,層次之間的分割具有嵌套的關(guān)系。它不需要輸入?yún)?shù),這是它優(yōu)于分割聚類 算法的一個(gè)明顯的優(yōu)點(diǎn),其缺點(diǎn)是終止條件必須具體指定。典型的分層聚類算法有BIRCH算法、DBSCAN算法和CURE算法等。
無(wú)監(jiān)督學(xué)習(xí)通常針對(duì)于沒有明確的答案或目標(biāo)變量的數(shù)據(jù)。此時(shí),需要算法從數(shù)據(jù)中發(fā)掘隱藏的信息。常見的無(wú)監(jiān)督學(xué)習(xí)算法有聚類、主成分分析等。
3. 半監(jiān)督學(xué)習(xí)
半監(jiān)督學(xué)習(xí)是指利用一部分有標(biāo)簽的數(shù)據(jù)和無(wú)標(biāo)簽的數(shù)據(jù)進(jìn)行學(xué)習(xí)。通常情況下,有標(biāo)簽的數(shù)據(jù)比無(wú)標(biāo)簽的數(shù)據(jù)少得多。常見的半監(jiān)督學(xué)習(xí)算法有深度置信網(wǎng)絡(luò)、困惑度等。
在半監(jiān)督學(xué)習(xí)成為一個(gè)熱門領(lǐng)域之后,出現(xiàn)了許多利用無(wú)類標(biāo)簽的樣例提高學(xué)習(xí)算法預(yù)測(cè)精度和加快速度的學(xué)習(xí)方法,因此出現(xiàn)了大量改進(jìn)的半監(jiān)督學(xué)習(xí)方法。Nigam等人將EM和樸素貝葉斯結(jié)合,通過(guò)引入加權(quán)系數(shù)動(dòng)態(tài)調(diào)整無(wú)類標(biāo)簽的樣例的影響提高了分類準(zhǔn)確度,建立每類中具有多個(gè)混合部分的模型,使貝葉斯偏差減小。Zhou和Goldman提出了協(xié)同訓(xùn)練改進(jìn)算法,不需要充分冗余的視圖,而利用兩個(gè)不同類型的分類器來(lái)完成學(xué)習(xí)。Shang等人提出一種新的半監(jiān)督學(xué)習(xí)方法,能同時(shí)解決有類標(biāo)簽樣本稀疏和具有附加無(wú)類標(biāo)簽樣例成對(duì)約束的問(wèn)題。
4. 強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)是一種通過(guò)學(xué)習(xí)的方式,使得機(jī)器能夠根據(jù)獎(jiǎng)勵(lì)信號(hào)做出更好的決策的方法。常見的強(qiáng)化學(xué)習(xí)算法有Q-learning、策略梯度等。
強(qiáng)化學(xué)習(xí)是智能體(Agent)以“試錯(cuò)”的方式進(jìn)行學(xué)習(xí),通過(guò)與環(huán)境進(jìn)行交互獲得的獎(jiǎng)賞指導(dǎo)行為,目標(biāo)是使智能體獲得最大的獎(jiǎng)賞,強(qiáng)化學(xué)習(xí)不同于連接主義學(xué)習(xí)中的監(jiān)督學(xué)習(xí),主要表現(xiàn)在強(qiáng)化信號(hào)上,強(qiáng)化學(xué)習(xí)中由環(huán)境提供的強(qiáng)化信號(hào)是對(duì)產(chǎn)生動(dòng)作的好壞作一種評(píng)價(jià)(通常為標(biāo)量信號(hào)),而不是告訴強(qiáng)化學(xué)習(xí)系統(tǒng)RLS(reinforcement learning system)如何去產(chǎn)生正確的動(dòng)作。由于外部環(huán)境提供的信息很少,RLS必須靠自身的經(jīng)歷進(jìn)行學(xué)習(xí)。通過(guò)這種方式,RLS在行動(dòng)-評(píng)價(jià)的環(huán)境中獲得知識(shí),改進(jìn)行動(dòng)方案以適應(yīng)環(huán)境。
以上就是小編這次想要和大家分享的有關(guān)機(jī)器學(xué)習(xí)的內(nèi)容,希望大家對(duì)本次分享的內(nèi)容已經(jīng)具有一定的了解。如果您想要看不同類別的文章,可以在網(wǎng)頁(yè)頂部選擇相應(yīng)的頻道哦。