最佳答案
分类问题,例如 Logit模型或多项式 Logit模型,优化 交叉熵损失。 正常情况下,交叉熵层遵循 Softmax层, 产生概率分布。
在张量流中,至少有一个 十几种不同的交叉熵损失函数:
tf.losses.softmax_cross_entropy
tf.losses.sparse_softmax_cross_entropy
tf.losses.sigmoid_cross_entropy
tf.contrib.losses.softmax_cross_entropy
tf.contrib.losses.sigmoid_cross_entropy
tf.nn.softmax_cross_entropy_with_logits
tf.nn.sigmoid_cross_entropy_with_logits
哪一个只适用于二进制分类,哪一个适用于多类问题?什么时候应该使用 sigmoid
而不是 softmax
?sparse
的功能和其他的有什么不同? 为什么只有 softmax
?
相关(更多数学导向的)讨论: Keras 和 TensorFlow 的这些交叉熵损失有什么不同?。