談Kaggle機(jī)器學(xué)習(xí)之模型融合
本文以Kaggle的TItanic入門比賽來講解stacking的應(yīng)用(兩層?。?。
數(shù)據(jù)的行數(shù):train.csv有890行,也就是890個人,test.csv有418行(418個人)。
而數(shù)據(jù)的列數(shù)就看你保留了多少個feature了,因人而異。我自己的train保留了 7+1(1是預(yù)測列)。
在網(wǎng)上為數(shù)不多的stacking內(nèi)容里,相信你早看過了這張圖:
這張圖,如果你能一下子就能看懂,那就OK。
如果一下子看不懂,就麻煩了,在接下來的一段時間內(nèi),你就會臥槽臥槽地持續(xù)懵逼。。.。。.
因為這張圖極具‘誤導(dǎo)性’。(注意!我沒說這圖是錯的,盡管它就是錯的!?。〉窃诰W(wǎng)上為數(shù)不多教學(xué)里有張無碼圖就不錯啦,感恩吧,我這個小弱雞)。
我把圖改了一下:
對于每一輪的 5-fold,Model 1都要做滿5次的訓(xùn)練和預(yù)測。
TItanic :
Train Data有890行。(請對應(yīng)圖中的上層部分)
每1次的fold,都會生成 713行 小train, 178行 小test。我們用Model 1來訓(xùn)練 713行的小train,然后預(yù)測 178行 小test。預(yù)測的結(jié)果是長度為 178 的預(yù)測值。
這樣的動作走5次! 長度為178 的預(yù)測值 X 5 = 890 預(yù)測值,剛好和Train data長度吻合。這個890預(yù)測值是Model 1產(chǎn)生的,我們先存著,因為,一會讓它將是第二層模型的訓(xùn)練來源。
重點:這一步產(chǎn)生的預(yù)測值我們可以轉(zhuǎn)成 890 X 1 (890 行,1列),記作 P1 (大寫P)
接著說 Test Data 有 418 行。(請對應(yīng)圖中的下層部分,對對對,綠綠的那些框框)
每1次的fold,713行 小train訓(xùn)練出來的Model 1要去預(yù)測我們?nèi)康腡est Data(全部!因為Test Data沒有加入5-fold,所以每次都是全部?。4藭r,Model 1的預(yù)測結(jié)果是長度為418的預(yù)測值。
這樣的動作走5次!我們可以得到一個 5 X 418 的預(yù)測值矩陣。然后我們根據(jù)行來就平均值,最后得到一個 1 X 418 的平均預(yù)測值。
重點:這一步產(chǎn)生的預(yù)測值我們可以轉(zhuǎn)成 418 X 1 (418行,1列),記作 p1 (小寫p)
走到這里,你的第一層的Model 1完成了它的使命。
第一層還會有其他Model的,比如Model 2,同樣的走一遍, 我們有可以得到 890 X 1 (P2) 和 418 X 1 (p2) 列預(yù)測值。
這樣吧,假設(shè)你第一層有3個模型,這樣你就會得到:
來自5-fold的預(yù)測值矩陣 890 X 3,(P1,P2, P3) 和 來自Test Data預(yù)測值矩陣 418 X 3, (p1, p2, p3)。
到第二層
來自5-fold的預(yù)測值矩陣 890 X 3 作為你的Train Data,訓(xùn)練第二層的模型
來自Test Data預(yù)測值矩陣 418 X 3 就是你的Test Data,用訓(xùn)練好的模型來預(yù)測他們吧。
最后 ,放出一張Python的Code,在網(wǎng)上為數(shù)不多的stacking內(nèi)容里, 這個幾行的code你也早就看過了吧,我之前一直卡在這里,現(xiàn)在加上一點點注解,希望對你有幫助: