我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以

2652 次浏览
  • A、增加树的深度
  • B、增加学习率 (learning rate)
  • C、减少树的深度
  • D、减少树的数量
增加树的深度, 会导致所有节点不断分裂, 直到叶子节点是纯的为止. 所以, 增加深度, 会延长训练时间.决策树没有学习率参数可以调. (不像集成学习和其它有步长的学习方法)决策树只有一棵树, 不是随机森林。
挑战成功
1年前
挑战失败
1年前
挑战失败
1年前
挑战成功
2年前
挑战成功
2年前
liu
挑战成功
2年前
挑战失败
2年前
挑战成功
2年前
挑战成功
2年前
挑战失败
2年前

微信公众号

有课学公众号
  • 微信公众号: geekdaxue