728x90
참고자료: 밑바닥부터 시작하는 딥러닝
1. 신경망의 예
- 입력층
- 은닉층: 은닉층의 뉴런은 사람 눈에는 보이지 않는다.
- 출력층
💡신경망은 총 3개의 층으로 구성되지만 가중치를 갖는 층은 2개뿐이므로 '2층 신경망'이라고 한다.
2. 퍼셉트론 복습
- b: 편향, 뉴련이 얼마나 쉽게 활성화되느냐를 제어한다.
- w1, w2: 각 신호의 가중치, 각 신호의 영향력을 제어한다.
👉🏻x1, x2, 1이라는 2개의 신호를 입력 받아 각 신호에 가중치를 곱한 후, y를 출력하는 퍼셉트론이다. 그리고 신호를 받는 뉴런이 이 신호들의 값을 더하여 합이 0을 넘으면 1을, 그렇지 않으면 0을 출력한다.
👉🏻편향 입력 신호는 항상 1이다.
👉🏻식은 아래와 같다. h(x)라는 식을 통해 각 신호들의 값을 계산을 한다. 이 h(x)의 값을 0과 비교한다.
3. 활성화 함수의 등장
📌활성화 함수: 입력 신호의 총합을 출력 신호로 변환하는 함수를 말한다.
👉🏻위의 식을 살펴보자
- 가중치가 달린 입력 신호와 편향의 총합을 구하고 이를 a라고 한다.
- a를 함수 h()에 넣어 y를 출력한다.
👉🏻y가 있던 뉴런에 활성화 함수의 처리 과정을 명시적으로 그렸다. 가중치 신호를 조합한 결과가 a라는 노드가 되고, 활성화 함수 h()를 통과해 y라는 노드로 변환된다.
728x90
'그 땐 AI했지 > 그 땐 DeepLearning했지' 카테고리의 다른 글
[TAVE/밑딥] ch03 신경망 | 03 다차원 배열의 계산 (0) | 2022.06.03 |
---|---|
[TAVE/밑딥] ch03 신경망 | 02 활성화 함수 (0) | 2022.06.02 |
[TAVE/밑딥] ch02 퍼셉트론 | 06 NAND에서 컴퓨터까지 (0) | 2022.05.27 |
[TAVE/밑딥] ch02 퍼셉트론 | 05 다층 퍼셉트론이 충돌한다면 (0) | 2022.05.27 |
[TAVE/밑딥] ch02 퍼셉트론 | 04 퍼셉트론의 한계 (0) | 2022.05.27 |