본문 바로가기

deep learning

(7)
[TAVE/밑딥] ch03 신경망 | 01 퍼셉트론에서 신경망으로 참고자료: 밑바닥부터 시작하는 딥러닝 1. 신경망의 예 입력층 은닉층: 은닉층의 뉴런은 사람 눈에는 보이지 않는다. 출력층 💡신경망은 총 3개의 층으로 구성되지만 가중치를 갖는 층은 2개뿐이므로 '2층 신경망'이라고 한다. 2. 퍼셉트론 복습 b: 편향, 뉴련이 얼마나 쉽게 활성화되느냐를 제어한다. w1, w2: 각 신호의 가중치, 각 신호의 영향력을 제어한다. 👉🏻x1, x2, 1이라는 2개의 신호를 입력 받아 각 신호에 가중치를 곱한 후, y를 출력하는 퍼셉트론이다. 그리고 신호를 받는 뉴런이 이 신호들의 값을 더하여 합이 0을 넘으면 1을, 그렇지 않으면 0을 출력한다. 👉🏻편향 입력 신호는 항상 1이다. 👉🏻식은 아래와 같다. h(x)라는 식을 통해 각 신호들의 값을 계산을 한다. 이 h(x)의 ..
[TAVE/study] ch03 선형 회귀 | 02 자동 미분 참고자료: https://wikidocs.net/book/2788 PyTorch로 시작하는 딥 러닝 입문 이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ... wikidocs.net 자동 미분 실습하기 👉🏻requires_grad=True, backward()는 자동 미분을 수행한다. import torch w = torch.tensor(2.0, requires_grad=True) y = w**2 z = 2*y + 5 z.backward() print('수식을 w로 미분한 값 : {}'.format(w.grad)) #수식을 w로 미분한 값 : 8.0 👉🏻임의의 \(2w^{2}+5\)라는 식..
[TAVE/study] ch03 선형 회귀 | 01 선형 회귀 참고자료: https://wikidocs.net/book/2788 PyTorch로 시작하는 딥 러닝 입문 이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ... wikidocs.net (모든 사진의 출처는 https://wikidocs.net/53560입니다.) 데이터에 대한 이해 1️⃣훈련 데이터셋과 테스트 데이터셋 더보기 💡 어떤 학생이 1시간을 공부했더니 2점, 다른 학생이 2시간을 공부했더니 4점, 또 다른 학생이 3시간을 공부했더니 6점을 맞았다. 그렇다면, 내가 4시간을 공부한다면 몇점을 맞을 수 있을까? Hours (x) Points (y) 1 2 2 4 3 6 4 ? 👉🏻이 질..
[TAVE/study] ch02 파이토치 기초 | 04 파이썬 클래스 참고자료: https://wikidocs.net/book/2788 함수와 클래스의 차이 1️⃣함수로 덧셈기 구현하기 result = 0 def add(num): global result result += num return result print(add(3)) #3 print(add(4)) #7 👉🏻result라는 전역변수를 만들어 여기에 숫자를 더하고 리턴한다. 2️⃣함수로 두 개의 덧셈기 구현하기 result1 = 0 result2 = 0 def add1(num): global result1 result1 += num return result1 def add2(num): global result2 result2 += num return result2 print(add1(3)) #3 print(add1..
[TAVE/study] ch02 파이토치 기초 | 03 텐서 조작하기② 참고자료: https://wikidocs.net/book/2788 자주 사용하는 기능 5️⃣뷰(View)⭐️ 👉🏻원소의 수를 유지하면서 텐서의 크기를 변경한다. 👉🏻넘파이의 리쉐이프 역할을 하는데 리쉐이프란 텐서의 크기(shape)를 변경해주는 것이다. t = np.array([[[0, 1, 2], [3, 4, 5]], [[6, 7, 8], [9, 10, 11]]]) ft = torch.FloatTensor(t) print(ft.shape) #torch.Size([2, 2, 3]) 👉🏻3차원 텐서인 ft를 만들었고 shape은 다음과 같다. ✅3차원 텐서에서 2차원 텐서로 변경 print(ft.view([-1, 3])) print(ft.view([-1, 3]).shape) #tensor([[ 0., 1...
[TAVE/study] ch02 파이토치 기초 | 02 텐서 조작하기① 참고자료: https://wikidocs.net/book/2788 벡터, 행렬 그리고 텐서 1️⃣백터, 행렬, 텐서 이해하기 스칼라: 차원이 없는 값 벡터: 1차원으로 구성된 값 행렬(Matrix): 2차원으로 구성된 값 텐서(Tensor): 3차원으로 구성된 값 👉🏻데이터 사이언스 분야 한정으로 3차원 이상의 텐서는 그냥 다차원 행렬 또는 배열로 간주할 수 있다. 또 벡터나 행렬을 그냥 1차원 텐서, 2차원 텐서라고 부르기도 한다. 2️⃣PyTorch Tensor Shape Convention 👉🏻다루고 있는 텐서의 크기를 고려하는게 중요한데 행렬과 텐서의 크기 표현 방식을 알아보자! ✅2D Tensor(2차원 텐서) ✅3D Tensor - 비전 분야에서의 3차원 텐서 👉🏻일반적인 자연어 처리보다 비전..
[TAVE/study] ch02 파이토치 기초 | 01 파이토치 패키지의 기본 구성 참고자료: https://wikidocs.net/book/2788 🐰세상 많은 부분들이 인공지능으로 대체되어가면서 해당 분야에 관심이 생겼다! 그런데 마침 TAVE 경영처에서 같이 딥러닝 스터디를 하자고 제안해서 너무 기쁘게 스터디에 참여하게 되었다! 혼자 공부하기 두려웠는데 너무 멋진 친구들과 같이 공부할 수 있어 좋당! 파이토치 패키지의 기본 구성 1️⃣torch 👉🏻메인 네임스페이스이다. 텐서 등의 다양한 수학 함수가 포함되어져 있으며 Numpy와 유사한 구조를 가진다. ✍🏻텐서(Tensor): 텐서는 배열 및 행렬과 비슷한 특수 데이터 구조다. PyTorch에서는 텐서를 사용하여 모델의 입출력값과 파라미터 값을 인코딩한다. 2️⃣torch.autograd 👉🏻자동 미분을 위한 함수들이 포함되어져 ..