我做了一个图。尽管我将num_layers
重num_layers
为w
,但是名称遵循PyTorch文档 。
output
包括最后一层中的所有隐藏状态(“最后”深度方向,而不是时间方向)。 (h_n, c_n)
包含最后一个时间步t = n之后的隐藏状态,因此您可以将它们隐藏到另一个LSTM中。
不包括批次尺寸。
0
我做了一个图。尽管我将num_layers
重num_layers
为w
,但是名称遵循PyTorch文档 。
output
包括最后一层中的所有隐藏状态(“最后”深度方向,而不是时间方向)。 (h_n, c_n)
包含最后一个时间步t = n之后的隐藏状态,因此您可以将它们隐藏到另一个LSTM中。
不包括批次尺寸。
0
我在理解PyTorch的LSTM模块(以及类似的RNN和GRU)的文档时遇到了麻烦。关于输出,它说:
看来变量
output
和h_n
都给出了隐藏状态的值。h_n
只是多余地提供了output
已经包含的最后一个时间步长,还是还有其他东西呢?