Pytorch docs 요약] Cuda semantics
CUDA SEMANTICS torch.cuda는 CUDA operations들을 설정하고 실행할 수 있게 해준다. 선택한 GPU를 추적하고 할당한 모든 CUDA tensor는 ‘torch.cuda.device’ 같이 명시하지 않는한 default GPU에 할당된다. 일단 할당되면 계속 그 GPU에서 처리 되기 때문에 copy_()나 to(), cuda()로 따로 복사해서 옮기지 않는 한 해당 GPU에서만 동작한다. 예시 cuda = torch.device('cuda') # 기본 CUDA 장치에 할당 cuda0 = torch.device('cuda:0') # 보통 0부터 시작 cuda2 = torch.device('cuda:2') # GPU 2에 할당 x = torch.tensor([1., 2.], dev..