728x90
참고자료: https://wikidocs.net/book/2788
자동 미분 실습하기
👉🏻requires_grad=True, backward()는 자동 미분을 수행한다.
import torch
w = torch.tensor(2.0, requires_grad=True)
y = w**2
z = 2*y + 5
z.backward()
print('수식을 w로 미분한 값 : {}'.format(w.grad))
#수식을 w로 미분한 값 : 8.0
👉🏻임의의 \(2w^{2}+5\)라는 식을 w에 대해 미분해보자!
👉🏻값이 2인 임의의 스칼라 텐서 w를 선언하고 required_grad=True로 설정한다. 이는 이 텐서에 대한 기울기를 저장한다는 의미이다. 이렇게 하면 w.grad에 w에 대한 미분값이 저장된다.
👉🏻backward()를 호출하면 해당 수식의 w에 대한 기울기를 계산한다.
728x90
'그 땐 AI했지 > 그 땐 DeepLearning했지' 카테고리의 다른 글
[Study/pytorch] ch03 선형 회귀 | 04 nn.Module로 구현하는 선형 회귀 (0) | 2022.04.21 |
---|---|
[TAVE/Study] ch03 선형 회귀 | 03 다중 선형 회귀 (0) | 2022.04.07 |
[TAVE/study] ch03 선형 회귀 | 01 선형 회귀 (0) | 2022.04.07 |
[TAVE/study] ch02 파이토치 기초 | 04 파이썬 클래스 (0) | 2022.04.01 |
[TAVE/study] ch02 파이토치 기초 | 03 텐서 조작하기② (0) | 2022.04.01 |