最佳答案
我很难理解 PyTorch 的 LSTM 模块的文档(还有类似的 RNN 和 GRU)。关于产出,它表示:
输出: output,(h _ n,c _ n)
- 输出(seq _ len,批处理,隐藏的大小 * num _ 方向) : 包含来自 RNN 最后一层的输出特征(h _ t)的张量,对应于每个 t。如果一个 Torch.nn.utils.rnn。已经给出了 PackedSequence 作为输入,输出也将是一个打包序列。
- H _ n (num _ Layer * num _ 方向,批量,隐藏 _ size) : 包含 t = seq _ len 的隐藏狀態的张量
- C _ n (num _ Layer * num _ 方向,批量,隐藏 _ size) : 包含 t = seq _ len 的 cell state 的張
似乎变量 output
和 h_n
都给出了隐藏状态的值。h_n
只是冗余地提供了已经包含在 output
中的最后一个时间步骤,还是有更多的内容?