我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以

2862 次浏览
  • A、增加树的深度
  • B、增加学习率 (learning rate)
  • C、减少树的深度
  • D、减少树的数量
增加树的深度, 会导致所有节点不断分裂, 直到叶子节点是纯的为止. 所以, 增加深度, 会延长训练时间.决策树没有学习率参数可以调. (不像集成学习和其它有步长的学习方法)决策树只有一棵树, 不是随机森林。
挑战成功
2年前
挑战失败
2年前
挑战失败
2年前
挑战成功
3年前
挑战成功
3年前
liu
挑战成功
3年前
挑战失败
3年前
挑战成功
3年前
挑战成功
3年前
挑战失败
3年前