그 땐 AI했지/그 땐 DeepLearning했지 (20) 썸네일형 리스트형 [TAVE/밑딥] ch02 퍼셉트론 | 02 단순한 논리 회로 참고자료: 밑바닥부터 시작하는 딥러닝 1. AND 게이트 👉🏻AND 게이트: 입력이 둘이고 출력은 하나이다. x1 x2 y 0 0 0 1 0 0 0 1 0 1 1 1 👉🏻위 표는 입력 신호화 출력 신호의 대응을 적은 진리표이다. AND 게이트를 퍼셉트론으로 표현해보자! 👉🏻표를 만족하는 매개변수 조합은 무수히 많다. (w1, w2, 임계값)가 (0.5, 0.5, 0.8)이나 (1.0, 1.0, 1.0)일 때 모두 AND 게이트의 조건을 만족한다. 2. NAND 게이트와 OR 게이트 📌NAND게이트: Not AND를 의미하며 그 동작은 AND 게이트의 출력을 뒤집은 것이다. x1 x2 y 0 0 1 1 0 1 0 1 1 1 1 0 👉🏻진리표를 보면 x1, x2가 모두 1일 때만 0을 출력하고 나머지는 1을.. [TAVE/밑딥] ch02 퍼셉트론 | 01 퍼셉트론이란? 참고자료: 밑바닥부터 시작하는 딥러닝 1. 퍼셉트론이란? 📌다수의 신호를 입력으로 받아 하나의 신호를 출력한다. 퍼셉트론의 신호는 '흐른다 / 안 흐른다'로 나뉜다. 1: 신호가 흐른다. 0: 신호가 흐르지 않는다. 👉🏻입력으로 2개의 신호를 받은 퍼셉트론이다. x1, x2는 입력 신호, y는 출력 신호, w1, w2는 가중치 원을 뉴런 혹은 노드라고 부른다. 👉🏻입력신호가 뉴런에 보내질 때 각각 고유한 가중치가 곱해진다. 그 총합이 정해진 한계를 넘어설 때만 1을 출력한다. 여기서 그 한계를 임계값이라고 한다. 가중치가 클수록 해당 신호가 그만큼 더 중요하다. [TAVE/PyTorch] ch03 선형 회귀 | 07 커스텀 데이터셋 참고자료: https://wikidocs.net/book/2788 1. 커스텀 데이터셋 torch.utils.data.Dataset을 상속받아 직접 커스텀 데이터셋을 만들어보자! class CustomDataset(torch.utils.data.Dataset): def __init__(self): def __len__(self): def __getitem__(self, idx): 👉🏻커스텀 데이터셋의 기본적인 뼈대는 위와 같다. __init__: 데이터셋의 전처리를 해주는 부분 __len__: 데이터셋의 길이. 즉, 총 샘플의 수를 적어주는 부분 __getitem__: 데이터셋에서 특정 1개의 샘플을 가져오는 함수 2. 커스텀 데이터셋(Custom Dataset)으로 선형 회귀 구현하기 import to.. [TAVE/PyTorch] ch03 선형 회귀 | 06 미니 배치와 데이터 로드 참고자료: https://wikidocs.net/book/2788 데이터를 로드하는 방법과 미니 배치 경사 하강법에 대해서 학습해보자! 1. 미니 배치와 배치 크기 지금까지 다뤘던 데이터는 현업에 비해 매우 적은 양이다. 만약 현업에서 수십만개 이상의 전체 데이터에 대해 경사 하강법을 수행하면 매우 느리며 계산량이 어마어마하다. 이 때 미니 배치를 사용해보자! 📌미니 배치: 전체 데이터를 더 작은 단위로 나누어 해당 단위로 학습한다. 📌배치 크기: 미니 배치의 크기, 크기를 얼만큼으로 설정하는지에 따라 미니 배치 개수가 결정된다. 배치 크기는 보통 2의 제곱수를 사용한다. 👉🏻미니 배치 학습을 하면 미니 배치만큼만 가져가서 미니 배치에 대한 비용을 계산하고 경사 하강법을 수행한다. 마지막 미니 배치까지 .. [Study/pytorch] ch03 선형 회귀 | 04 nn.Module로 구현하는 선형 회귀 참고자료: https://wikidocs.net/book/2788 파이토치에서 이미 구현되어 제공되고 있는 함수들을 불러오는 것으로 더 쉽게 선형 회귀 모델을 구현해보자! 👉🏻파이토치에서는 다음 함수들이 구현되어져 있다. nn.Linear(): 선형 회귀 모델 nn.functional.mse_loss(): 평균 제곱오차 1. 단순 선형 회귀 구현하기 파이토치 함수를 이용해 \(y = 2x\), 즉 w=2, b=0임을 제대로 찾아내보자! import torch import torch.nn as nn import torch.nn.functional as F torch.manual_seed(1) # 데이터 x_train = torch.FloatTensor([[1], [2], [3]]) y_train = tor.. [TAVE/Study] ch03 선형 회귀 | 03 다중 선형 회귀 참고자료: https://wikidocs.net/book/2788 PyTorch로 시작하는 딥 러닝 입문 이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ... wikidocs.net 데이터에 대한 이해 📌다중 선형 회귀: 다수의 x로부터 y를 예측한다. Quiz 1 (x1) Quiz 2 (x2) Quiz 3 (x3) Final (y) 73 80 75 152 93 88 93 185 89 91 80 180 96 98 100 196 73 66 70 142 👉🏻독립 변수 x의 개수가 3개이므로 식은 아래와 같다. $$H(x)=w_{1}x_{1}+w_{2}x_{2}+w_{3}x_{3}+b$$ 파이토.. [TAVE/study] ch03 선형 회귀 | 02 자동 미분 참고자료: https://wikidocs.net/book/2788 PyTorch로 시작하는 딥 러닝 입문 이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ... wikidocs.net 자동 미분 실습하기 👉🏻requires_grad=True, backward()는 자동 미분을 수행한다. import torch w = torch.tensor(2.0, requires_grad=True) y = w**2 z = 2*y + 5 z.backward() print('수식을 w로 미분한 값 : {}'.format(w.grad)) #수식을 w로 미분한 값 : 8.0 👉🏻임의의 \(2w^{2}+5\)라는 식.. [TAVE/study] ch03 선형 회귀 | 01 선형 회귀 참고자료: https://wikidocs.net/book/2788 PyTorch로 시작하는 딥 러닝 입문 이 책은 딥 러닝 프레임워크 PyTorch를 사용하여 딥 러닝에 입문하는 것을 목표로 합니다. 이 책은 2019년에 작성된 책으로 비영리적 목적으로 작성되어 출판 ... wikidocs.net (모든 사진의 출처는 https://wikidocs.net/53560입니다.) 데이터에 대한 이해 1️⃣훈련 데이터셋과 테스트 데이터셋 더보기 💡 어떤 학생이 1시간을 공부했더니 2점, 다른 학생이 2시간을 공부했더니 4점, 또 다른 학생이 3시간을 공부했더니 6점을 맞았다. 그렇다면, 내가 4시간을 공부한다면 몇점을 맞을 수 있을까? Hours (x) Points (y) 1 2 2 4 3 6 4 ? 👉🏻이 질.. 이전 1 2 3 다음