xgboost 学习

xgboost 学习记录

xgboost 学习

主要学习方法B站UP-老弓的学习日记

  • 问:为什么不用梯度下降算法而是用前向传导
    答:因为阶越函数有关,他是二分类,要么是1要么-1,所以没办法求导

  • 问:为什么会有泰勒展开这一步
    答:因为损失函数是不确定的,但是我们又想找到共同之处。(GBDT-一阶展开,XGBOOST-二阶展开)

  • 问:怎么分裂结点

  • 问:怎么样算结束呢
    答:

  • 问:有没有什么优化方法?
    答:

  • shrinkage 是啥呢?
    答:

  • 核外块运算
    答:

  • 缓存优化
    答:

作者

Lookup

发布于

2023-07-07

更新于

2023-09-14

许可协议