在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?

2581 次浏览
  • A、增加训练集量
  • B、减少神经网络隐藏层节点数
  • C、删除稀疏的特征
  • D、SVM算法中使用高斯核/RBF核代替线性核
一般情况下,越复杂的系统,过拟合的可能性就越高,一般模型相对简单的话泛化能力会更好一点。B.一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向, svm高斯核函数比线性核函数模型更复杂,容易过拟合D.径向基(RBF)核函数/高斯核函数的说明,这个核函数可以将原始空间映射到无穷维空间。对于参数 ,如果选的很大,高次特征上的权重实际上衰减得非常快,实际上(数值上近似一下)相当于一个低维的子空间;反过来,如果选得很小,则可以将任意的数据映射为线性可分——当然,这并不一定是好事,因为随之而来的可能是非常严重的过拟合问题。不过,总的来说,通过调整参数 ,高斯核实际上具有相当高的灵活性,也是 使用最广泛的核函数 之一。本题题目及解析来源:@刘炫320链接:http://blog.csdn.net/column/details/16442.html
挑战成功
2年前
挑战失败
2年前
挑战失败
2年前
挑战失败
2年前
挑战成功
2年前
挑战失败
2年前
挑战失败
2年前
挑战成功
3年前
挑战成功
3年前
挑战失败
3年前