xgboost的输出其实就是个lr

  • 2020 年 6 月 28 日
  • AI

假设xgboost有10个叶子节点,每个叶节点的权重结果为:

这里的wi和逻辑回归中的wi的概念很类似,以二分类问题为例,xgboost的最终输出为:

w1*I+w2*I+…..w10*I

这里的I不是1就是0,1表示这个样本落入这个叶子节点,0表示没有落入,则最终的输出就是

sigmoid(w1*I+w2*I+…..w10*I)

和lr一毛一样,因此我们使用min_child_weight实际上就是限制w不能太大,这和在逻辑回归中通过l1限制权重w的大小是基本类似的思路;