最佳答案
在 PyTorch,有没有可能在训练中动态地改变优化器的学习速度(我不想事先定义一个学习速度表) ?
假设我有一个优化器:
optim = torch.optim.SGD(model.parameters(), lr=0.01)
现在由于一些测试,我执行在训练期间,我意识到我的学习率太高,所以我想改变它说 0.001
。似乎没有一个方法 optim.set_lr(0.001)
,但有什么方法可以做到这一点?