a=torch.tensor([[1.0,2.0],[3.0,4.0]],requires_grad=True)
b=torch.tensor([[1.0,2.0],[3.0,4.0]],requires_grad=True)
c=a@b
print(a)
print(b)
print(c)
# 결과
tensor([[1., 2.],
[3., 4.]], requires_grad=True)
tensor([[1., 2.],
[3., 4.]], requires_grad=True)
tensor([[ 7., 10.],
[15., 22.]], grad_fn=<MmBackward0>)
k=c.mean()
k.backward()
print(a.grad)
print(b.grad)
#결과
tensor([[0.7500, 1.7500], [0.7500, 1.7500]])
tensor([[1.0000, 1.0000], [1.5000, 1.5000]])
왜 이렇게 나오는가
이래서 나오는구나
저번에 공부하다가 RNN backward 계산에서 이해 안되는 부분이 있었는데, 다음에는 RNN backward 계산을 파이토치를 이용해서 이해해봐야겠다..
'일상' 카테고리의 다른 글
무료로 고퀄리티 chatbot 쓰는 방법 (0) | 2024.05.23 |
---|---|
5개월 전 포기했던 RNN backpropagation 체인룰,, (0) | 2024.05.23 |
파이토치 함수 알아보기 (0) | 2024.05.21 |
인공지능 공부하기 (0) | 2024.05.21 |
pytorch vs tensorflow (0) | 2024.05.21 |