LGBM?

A Highly Efficient Gradient Boosting Decision Tree

작동원리

GOSS 알고리즘

t=1,2,…,d에 대해서,

preds = model.predict(data) g = loss(data, preds) sorted = 기울기의 절대값이 큰 것들부터 순서대로 정렬한다. topSet = sorted에서 상위 N개를 뽑는다. randSet = sorted에서 나머지 개수 중 정해 놓은 개수를 뽑는다. usedSet = topSet + randSet newModel = weakLearner(sampledData, -g[usedSet]) models.append(newModel)

각종 파라미터

eval_set

참고
[1] 모두의 연구소
[2] https://dacon.io/codeshare/1827
[3] https://neptune.ai/blog/lightgbm-parameters-guide
[4] https://velog.io/@kkiyou/lgbm