最佳答案
我最近遇到了 稀疏 _ softmax _ cross _ 熵 _ with _ logits,我不能弄清楚与 Softmax _ cross _ 熵 _ with _ logits相比有什么不同。
当使用 sparse_softmax_cross_entropy_with_logits
时,训练向量 y
必须是 一级加密的唯一区别是什么?
在阅读 API 时,我无法找到与 softmax_cross_entropy_with_logits
相比的任何其他差异。但是为什么我们需要额外的函数呢?
如果提供一个热编码的训练数据/矢量,那么 softmax_cross_entropy_with_logits
不应该产生与 sparse_softmax_cross_entropy_with_logits
相同的结果吗?