首先,我們來了解一下助推的思路。我們每次訓(xùn)練單個(gè)弱分類器,都會(huì)在學(xué)習(xí)當(dāng)前單個(gè)弱分類器之前,增加上次分類錯(cuò)誤的數(shù)據(jù)的權(quán)重,這樣訓(xùn)練出來的單個(gè)弱分類器會(huì)更加關(guān)注那些容易被錯(cuò)誤分類的點(diǎn),最后通過加權(quán)求和的方式組合成一個(gè)最終的學(xué)習(xí)器,gradentboosting是助推的一種,每次建立單個(gè)學(xué)習(xí)器,都是上一個(gè)模型的損失函數(shù)的梯度下降方向。GB和AdaBoost的區(qū)別在于Adaboost通過提高錯(cuò)誤得分?jǐn)?shù)據(jù)點(diǎn)的權(quán)重來定位模型的不足。1、GBDT算法的描述,不正確的是(GBDT算法的描述不正確。()a.決策樹Boost...
更新時(shí)間:2023-10-23標(biāo)簽: 單個(gè)boosting器時(shí)分錯(cuò)分類 全文閱讀