最佳答案
分类问题,例如 Logit模型或多项式 Logit模型,优化 交叉熵损失。 正常情况下,交叉熵层遵循 Softmax层, 产生概率分布。
在张量流中,至少有一个 十几种不同的交叉熵损失函数:
tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits哪一个只适用于二进制分类,哪一个适用于多类问题?什么时候应该使用 sigmoid而不是 softmax?sparse的功能和其他的有什么不同? 为什么只有 softmax?
相关(更多数学导向的)讨论: Keras 和 TensorFlow 的这些交叉熵损失有什么不同?。