pytorch
[부스트캠프][WK03 / Day12] PyTorch 구조 학습하기
1. 강의 내용 AutoGrad & Optimizer (최성철 교수님) 1) torch.nn.Module 딥러닝을 구성하는 Layer의 base class Input, Output, Forward, Backward(weights를 AutoGrad) 정의 학습의 대상이 되는 parameter(tensor) 정의 2) nn.Parameter Tensor 객체의 상속 객체 nn.Module 내에 attribute가 될 떄는 required_grad=True로 지정되어 학습 대상이 되는 Tensor 대부분의 layer에는 weights 값들이 지정되어 있기 때문에 우리가 직접 지정할 일은 잘 없음 # y = xw+b, in_features * out_features 만큼의 parameter(weights) 값들..
[부스트캠프][WK03 / Day11] PyTorch 기본
1. 강의 내용 Introduction to PyTorch (최성철 교수님) 파이토치는 Dynamic Computation Graph로 자동미분 시 실행시점에서 그래프를 정의하고 텐서플로는 Define and run이라는 기법을 사용합니다. Dynamic Computation Graph는 연산의 과정을 그래프로 표현하며 다음과 같이 볼 수 있습니다. 실행하며 그래프를 생성하는 방식이라는 뜻으로 Define by run 이라고도 합니다. Define and run은 그래프를 정의하는 코드를 먼저 작성하고 실행시점에 데이터를 그래프에 넣어(feed)줍니다. Dynamic Computation Graph는 Define and run 방식에 비해 실행 중간중간 값을 확인하기 쉬워 디버깅에 용이합니다. TF는 p..