Boosting (梯度提升)
相較對於 bagging 是以多個強分類器 (Strong Classifier) 組合不同,boosting 方法是藉由多個弱分類器 (Weak Classifier) 組合成為一個強分類器。
其中弱分類器的 error rate 需要略低於 50%,透過 ensemble 來使分類準確度逐步趨近於1。
其中訓練 boosting clf. 的方法是
- 建構第一個分類器 $f_{1}(x)$
- 建構第二個分類器 $f_{2}(x)$ 以幫助 $f_{1}(x)$ 預測分類
- 若 $f_{2}(x)$ 相似於 $f_{1}(x)$ 會沒有效果
- 建構第 N 個分類器 …
- 因此 boosting clf. 是具時序性的。
其中, boosting 的模型特性能夠有效降低 bias。
AdaBoost
如何建構不同的 Classifier
如果在訓練新的的分類器時,使用與舊有分類器相同的 datasets ,錯誤分類的資料還是容易做出錯誤分類,因此 AdaBoost 的作法是透過隊訓練資料做 re-weighting ,使得新的分類器能針對學習錯誤分類的資料以得到更好的效果。