我认为对于 GPU 低的 PyTorch 用户来说,这是一个非常普遍的信息:
RuntimeError: CUDA out of memory. Tried to allocate 😊 MiB (GPU 😊; 😊 GiB total capacity; 😊 GiB already allocated; 😊 MiB free; 😊 cached)
我试图通过加载每个图层到 GPU,然后再加载回来来处理图像:
for m in self.children():
m.cuda()
x = m(x)
m.cpu()
torch.cuda.empty_cache()
但似乎没什么效果。我想知道是否有任何技巧和窍门来训练大型深度学习模型,同时使用小的 GPU 内存。