最佳答案
我发现在许多使用 TensorFlow 实现的可用神经网络代码中,正则化项通常是通过手动为损失值添加额外项来实现的。
我的问题是:
有没有比手动更优雅或推荐的正规化方法?
我还发现 get_variable
有一个参数 regularizer
。如何使用?根据我的观察,如果我们给它传递一个正则化子(例如 tf.contrib.layers.l2_regularizer
) ,一个表示正则项的张量将被计算并添加到一个名为 tf.GraphKeys.REGULARIZATOIN_LOSSES
的图集中。TensorFlow 会自动使用该集合吗(例如,在培训时由优化器使用) ?或者我应该自己使用这些收藏品?