最佳答案
optimizer
和 loss
之间的显式连接在哪里?
优化器如何知道在哪里得到的梯度的损失没有一个调用喜欢这个 optimizer.step(loss)
?
- 更多的背景-
当我将损失最小化时,我不需要将渐变传递给优化器。
loss.backward() # Back Propagation
optimizer.step() # Gardient Descent