[ML] 배깅, 부스팅, 스태킹 (bagging, boosting, stacking)

모델을 모아서 예측을 수집하기 위한 앙상블 기법들에 대해 정리

배깅

페이스팅

부스팅

GBM

진행 방법

회기 모형에 대한 부스팅 기법 (Adaptive Boosting, AdaBoost)의 방법을 살펴보면

1) 분석표본에 모형을 적합시켜 예측치와 오차를 산출 2) 오차가 큰 개체에 대해서는 큰 가중치를, 오차가 작은 개체에는 작은 가중치를 부여 3) 변경된 가중치로 모형을 재적합하고 1) 단계부터 다시 실행 (일정 횟수 반복) 4) 최종적으로 이제까지 도출된 모형을 총합.

부스팅, 배깅 요약

스태킹

참고
[1] 핸즈온 머신러닝
[2] https://dacon.io/codeshare/1827
[3] https://ybeaning.tistory.com/17
[4] https://swalloow.github.io/bagging-boosting/
[5] XGBoost와 사이킷런을 활용한 그레이디언트 부스팅