728x90
반응형
딥러닝으로 task를 진행할 때 여러 모델을 연속적으로 사용해야 하는 경우가 종종 있습니다. 이 때 pytorch에서 메모리를 좀 더 효율적으로 사용할 수 있는 방법에 대해 작성해보겠습니다.
1) 먼저 사용할 모델을 gpu로 옮겨줍니다.
model.to($device)
2) 모델의 사용이 끝나면 바로 cpu로 옮겨줍니다.
model.to('cpu')
3) garbage collect를 실행하고, 메모리를 비워줍니다.
gc.collect()
torch.cuda.empty_cache()
torch.cuda.ipc_collect()
728x90
반응형
'Pytorch' 카테고리의 다른 글
[Pytorch] Inference Time Check (0) | 2023.02.24 |
---|---|
[Pytorch] loss nan 해결하기 (0) | 2023.02.24 |
[Pytorch] Tensor Manipulation (0) | 2023.02.24 |
[Pytorch] TorchVision Fine Tuning (0) | 2023.02.05 |
[Pytorch] torch.nn 과 torch.nn.functional (0) | 2023.02.05 |