Pytorch docs 요약] Autograd Mechanics
원본 AUTOGRAD MECHANICS Autograd가 어떻게 동작하는 지에 대한 이야기. 꼭 몰라도 되지만 알면 좋다. EXCLUDING SUBGRAPHS FROM BACKWARD 모든 텐서는 requires_grad를 가지고 있으며 이를 통해 gradient 계산을 포함할지를 결정할 수 있다. 만약 어떤 입력이 require_grad=True라면 당연히 그 이후 출력도 계산을 해야하기 때문에 True값이다. 반대로 입력이 필요없다면 마찬가지로 출력에서도 필요없다. 그렇다면 입력이 여러 개 일때, 제각각이라면? 하나라도 있다면 그 gradient를 위해 그 이후 출력은 필요하다. >>> x = torch.randn(5, 5) # requires_grad=False by default >>> y = t..