SlideShare a Scribd company logo
1 of 20
Download to read offline
멀티레이어 퍼셉트론
딥러닝을 위한 신경망 기초
nonezerok@gmail.com
퍼셉트론의 한계를 극복하는 방법입니다.
퍼셉트론은 나오자 마자 한계에 봉착했는데,
이를 해결하기 위해 구조적인 확장을 하게 됩니다.
그러나 정작 중요한 것은 이 확장된 구조에서의 학습 방법을 오랫 동안 찾지 못한 것입니다.
여기서 소개하는 신경망 학습방법은 신경망 학습방법의 거의 전부라고 할 수 있습니다.
2
 =
1
1
 = 1
 =
0
1
 = 0
 =
0
0
 = 0
 =
1
0
 = 0
퍼셉트론이 다루지 못하는 문제
직선으로는 이 패턴을 구분할 수 없다
3





좀 더 복잡한 문제를 다루기 위해
결과를 다시 퍼셉트론의 입력으로
그래서 구조를 복잡하게 만들어 보았다.
4





Input
Layer
Hidden
Layer
Output
Layer
Multi-Layer Perceptron
[그림] http://cs231n.github.io/neural-networks-1/
보통 신경망 그림
여러 개의 층으로 구성
5


  =  ×  +  +  ×  + 
=  +  +  + 
=  +  +  +  

1 = 






 =  + 
층을 늘리긴 했는데…
여전히 직선(초평면Hyper-plane)~선형식을 전개해 보니 여전히 직선
6




1 = 






선형일 수 밖에 없는 이유
 
 = () = 
선형함수는 가중합만 낳을 뿐
여기 출력에 항등함수
통과시켜도 그대로
가로축 입력, 세로축 출력
입력과 똑 같은 출력; 항등함수
있다고 생각해도 됨.
비선형 함수를 도입
7
그래서 항등함수 대신에
아름다운 S 라인 함수
아름다운 여인을 보면 더 알고 싶다. 이름 포함해서…
  =
1
1 + 
=

1 + 
8
식이 아름답다.
시그모이드 함수
9
1





  
1





  
활성함수; activation function
  = 
  =
1
1 + 


신경망의 노드에는
선형 합 z를 통과시키는 함수가 있다.
10
시그모이드 함수의 미분특성
  =
1
1 + 
=

1 + 


  = () 1 − ()
미분했는데 자기 자신이 다시 나오는 멋진; nice한 특징이 있다.
11


  =


1
1 + 
=

1 +  
=
1 − 1 + 
1 +  
=
1 + 
1 +  
−
1
1 +  
=
1
1 + 
−
1
1 + 

=
1
1 + 
1 −
1
1 + 
=   1 −  
분수 미분 공식 & chain rule



= 


 = 
출력층에 관한 기울기
  =
1
2
  − 

∈
12
출력 층의 노드 출력을 알고 있으니까 계산 가능하다.
여기서의 미분은 가능하다.
여기에 존재하는 가중치에 대한 미분


13
 =  + ∆
∆ = −


=    1 −   −  ,

출력층에 관한 가중치 갱신
결과를 미리 보면
∆ = −


=   1   −  ,

퍼셉트론 미분
14
 =  + ∆
∆ = −


=    1 −   −  ,

출력층에 관한 가중치 갱신
결과를 미리 보면
∆ = −


=   1   −  ,

활성함수 차이!퍼셉트론 미분
15


=


1
2
  − 


=
1
2



 − 


=
1
2
 2  − 


 − 

=   − 


−

= −   − 





= −   − 
 

  + , + ⋯ + ,


= −   −   1 −  ,

 =   =
1
1 + 


  =   1 −  
 =  
chain rule
히든층에 관한 기울기
16
여기서의 미분은 쉽지 않다.
여기에 존재하는 가중치에 대한 미분


17


=


1
2
 ? −


Hidden 노드에서는 Target 값을 모른다.
이 문제를 해결하기 위해 20년 걸림
18
오류가 전달되었다
오류에 대한 가중치 변화율


=


1
2
  − 


먼저 직관으로 이해해 보자
출력 층에서 발생하는 오류는
그 이전 히든 층의 노드에서
일정 부분 기여한 것이니,
(연결 가중치 만큼)
구하고자 하는
오류에 대한 가중치 변화율을
출력 층에서 받아오자!
19
∆, =  ,  =  when  is of the first layer
오류 역전파 알고리즘
∆ = −


=   1 −   −  ,
 ←  1 −   − 
 ←  1 −   ,


, ← , + ∆,

ℎ
,



20여년 만에 나온 알고리즘
다층 구조로 신경망 확장
시그모이드 활성함수 도입
오류 역전파 알고리즘
20
정리

More Related Content

What's hot

HI-ARC PS 102 Brute Force
HI-ARC PS 102 Brute ForceHI-ARC PS 102 Brute Force
HI-ARC PS 102 Brute ForceJae-yeol Lee
 
HI-ARC Number Theory
HI-ARC Number TheoryHI-ARC Number Theory
HI-ARC Number TheoryJae-yeol Lee
 
Backtracking [ICPC Sinchon]
Backtracking [ICPC Sinchon]Backtracking [ICPC Sinchon]
Backtracking [ICPC Sinchon]Jae-yeol Lee
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 WinterSuhyun Park
 
2021 2학기 정기 세미나 4주차
2021 2학기 정기 세미나 4주차2021 2학기 정기 세미나 4주차
2021 2학기 정기 세미나 4주차Moonki Choi
 
2021 2학기 정기 세미나 5주차
2021 2학기 정기 세미나 5주차2021 2학기 정기 세미나 5주차
2021 2학기 정기 세미나 5주차Moonki Choi
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersJinho Lee
 
정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter
정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter
정수론적 알고리즘 - Sogang ICPC Team, 2020 WinterSuhyun Park
 
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 WinterSuhyun Park
 
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019Suhyun Park
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
 
해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1Haesun Park
 
머신 러닝을 해보자 2장 (2022년 스터디)
머신 러닝을 해보자 2장 (2022년 스터디)머신 러닝을 해보자 2장 (2022년 스터디)
머신 러닝을 해보자 2장 (2022년 스터디)ssusercdf17c
 
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열sung ki choi
 
ML + 주식 phase 2
ML + 주식  phase 2ML + 주식  phase 2
ML + 주식 phase 2HoChul Shin
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기정주 김
 
120609 알고리즘 트레이닝 북 작은비숍
120609 알고리즘 트레이닝 북   작은비숍120609 알고리즘 트레이닝 북   작은비숍
120609 알고리즘 트레이닝 북 작은비숍tedypicker
 
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이NAVER D2
 

What's hot (20)

HI-ARC PS 102 Brute Force
HI-ARC PS 102 Brute ForceHI-ARC PS 102 Brute Force
HI-ARC PS 102 Brute Force
 
HI-ARC Number Theory
HI-ARC Number TheoryHI-ARC Number Theory
HI-ARC Number Theory
 
HI-ARC PS 101
HI-ARC PS 101HI-ARC PS 101
HI-ARC PS 101
 
Backtracking [ICPC Sinchon]
Backtracking [ICPC Sinchon]Backtracking [ICPC Sinchon]
Backtracking [ICPC Sinchon]
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
 
2021 2학기 정기 세미나 4주차
2021 2학기 정기 세미나 4주차2021 2학기 정기 세미나 4주차
2021 2학기 정기 세미나 4주차
 
2021 2학기 정기 세미나 5주차
2021 2학기 정기 세미나 5주차2021 2학기 정기 세미나 5주차
2021 2학기 정기 세미나 5주차
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-Encoders
 
정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter
정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter
정수론적 알고리즘 - Sogang ICPC Team, 2020 Winter
 
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter
퍼시스턴트 세그먼트 트리 - Sogang ICPC Team, 2020 Winter
 
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019
Lazy Propagation on Segment Trees - Sogang ICPC Team, 2019
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1해커에게 전해들은 머신러닝 #1
해커에게 전해들은 머신러닝 #1
 
머신 러닝을 해보자 2장 (2022년 스터디)
머신 러닝을 해보자 2장 (2022년 스터디)머신 러닝을 해보자 2장 (2022년 스터디)
머신 러닝을 해보자 2장 (2022년 스터디)
 
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열
110212 [아꿈사발표자료] taocp#1 1.2.8. 피보나치수열
 
ML + 주식 phase 2
ML + 주식  phase 2ML + 주식  phase 2
ML + 주식 phase 2
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기
 
120609 알고리즘 트레이닝 북 작은비숍
120609 알고리즘 트레이닝 북   작은비숍120609 알고리즘 트레이닝 북   작은비숍
120609 알고리즘 트레이닝 북 작은비숍
 
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이
[D2 CAMPUS] 2016 한양대학교 프로그래밍 경시대회 문제풀이
 

More from jaypi Ko

CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Model
CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic ModelCVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Model
CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Modeljaypi Ko
 
개념 이해가 쉬운 Variational Autoencoder (VAE)
개념 이해가 쉬운 Variational Autoencoder (VAE)개념 이해가 쉬운 Variational Autoencoder (VAE)
개념 이해가 쉬운 Variational Autoencoder (VAE)jaypi Ko
 
[신경망기초]오류역전파알고리즘구현
[신경망기초]오류역전파알고리즘구현[신경망기초]오류역전파알고리즘구현
[신경망기초]오류역전파알고리즘구현jaypi Ko
 
파이썬설치
파이썬설치파이썬설치
파이썬설치jaypi Ko
 
객체지향 단어가 의미하는 것
객체지향 단어가 의미하는 것객체지향 단어가 의미하는 것
객체지향 단어가 의미하는 것jaypi Ko
 
C언어 들어가기
C언어 들어가기C언어 들어가기
C언어 들어가기jaypi Ko
 
C언어 연산자에 대해 간과한 것
C언어 연산자에 대해 간과한 것C언어 연산자에 대해 간과한 것
C언어 연산자에 대해 간과한 것jaypi Ko
 
[확률통계]04모수추정
[확률통계]04모수추정[확률통계]04모수추정
[확률통계]04모수추정jaypi Ko
 
MFC 프로젝트 시작하기
MFC 프로젝트 시작하기MFC 프로젝트 시작하기
MFC 프로젝트 시작하기jaypi Ko
 
01 윈도우프로그램 들어가기
01 윈도우프로그램 들어가기01 윈도우프로그램 들어가기
01 윈도우프로그램 들어가기jaypi Ko
 
13 사용자 메세지 처리
13 사용자 메세지 처리13 사용자 메세지 처리
13 사용자 메세지 처리jaypi Ko
 
12 컨트롤에서의 메세지 처리
12 컨트롤에서의 메세지 처리12 컨트롤에서의 메세지 처리
12 컨트롤에서의 메세지 처리jaypi Ko
 
11 노티피케이션코드
11 노티피케이션코드11 노티피케이션코드
11 노티피케이션코드jaypi Ko
 
10 컨트롤윈도우
10 컨트롤윈도우10 컨트롤윈도우
10 컨트롤윈도우jaypi Ko
 
09 윈도우스타일
09 윈도우스타일09 윈도우스타일
09 윈도우스타일jaypi Ko
 
08 부모윈도우 자식윈도우
08 부모윈도우 자식윈도우08 부모윈도우 자식윈도우
08 부모윈도우 자식윈도우jaypi Ko
 
07 윈도우 핸들
07 윈도우 핸들07 윈도우 핸들
07 윈도우 핸들jaypi Ko
 
06 일반적 유형의 프로그램
06 일반적 유형의 프로그램06 일반적 유형의 프로그램
06 일반적 유형의 프로그램jaypi Ko
 
05 윈도우 프로그램 유형
05 윈도우 프로그램 유형05 윈도우 프로그램 유형
05 윈도우 프로그램 유형jaypi Ko
 
04 이벤트처리
04 이벤트처리04 이벤트처리
04 이벤트처리jaypi Ko
 

More from jaypi Ko (20)

CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Model
CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic ModelCVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Model
CVPR 2022 Tutorial에 대한 쉽고 상세한 Diffusion Probabilistic Model
 
개념 이해가 쉬운 Variational Autoencoder (VAE)
개념 이해가 쉬운 Variational Autoencoder (VAE)개념 이해가 쉬운 Variational Autoencoder (VAE)
개념 이해가 쉬운 Variational Autoencoder (VAE)
 
[신경망기초]오류역전파알고리즘구현
[신경망기초]오류역전파알고리즘구현[신경망기초]오류역전파알고리즘구현
[신경망기초]오류역전파알고리즘구현
 
파이썬설치
파이썬설치파이썬설치
파이썬설치
 
객체지향 단어가 의미하는 것
객체지향 단어가 의미하는 것객체지향 단어가 의미하는 것
객체지향 단어가 의미하는 것
 
C언어 들어가기
C언어 들어가기C언어 들어가기
C언어 들어가기
 
C언어 연산자에 대해 간과한 것
C언어 연산자에 대해 간과한 것C언어 연산자에 대해 간과한 것
C언어 연산자에 대해 간과한 것
 
[확률통계]04모수추정
[확률통계]04모수추정[확률통계]04모수추정
[확률통계]04모수추정
 
MFC 프로젝트 시작하기
MFC 프로젝트 시작하기MFC 프로젝트 시작하기
MFC 프로젝트 시작하기
 
01 윈도우프로그램 들어가기
01 윈도우프로그램 들어가기01 윈도우프로그램 들어가기
01 윈도우프로그램 들어가기
 
13 사용자 메세지 처리
13 사용자 메세지 처리13 사용자 메세지 처리
13 사용자 메세지 처리
 
12 컨트롤에서의 메세지 처리
12 컨트롤에서의 메세지 처리12 컨트롤에서의 메세지 처리
12 컨트롤에서의 메세지 처리
 
11 노티피케이션코드
11 노티피케이션코드11 노티피케이션코드
11 노티피케이션코드
 
10 컨트롤윈도우
10 컨트롤윈도우10 컨트롤윈도우
10 컨트롤윈도우
 
09 윈도우스타일
09 윈도우스타일09 윈도우스타일
09 윈도우스타일
 
08 부모윈도우 자식윈도우
08 부모윈도우 자식윈도우08 부모윈도우 자식윈도우
08 부모윈도우 자식윈도우
 
07 윈도우 핸들
07 윈도우 핸들07 윈도우 핸들
07 윈도우 핸들
 
06 일반적 유형의 프로그램
06 일반적 유형의 프로그램06 일반적 유형의 프로그램
06 일반적 유형의 프로그램
 
05 윈도우 프로그램 유형
05 윈도우 프로그램 유형05 윈도우 프로그램 유형
05 윈도우 프로그램 유형
 
04 이벤트처리
04 이벤트처리04 이벤트처리
04 이벤트처리
 

[신경망기초] 멀티레이어퍼셉트론

  • 1. 멀티레이어 퍼셉트론 딥러닝을 위한 신경망 기초 nonezerok@gmail.com 퍼셉트론의 한계를 극복하는 방법입니다. 퍼셉트론은 나오자 마자 한계에 봉착했는데, 이를 해결하기 위해 구조적인 확장을 하게 됩니다. 그러나 정작 중요한 것은 이 확장된 구조에서의 학습 방법을 오랫 동안 찾지 못한 것입니다. 여기서 소개하는 신경망 학습방법은 신경망 학습방법의 거의 전부라고 할 수 있습니다.
  • 2. 2  = 1 1  = 1  = 0 1  = 0  = 0 0  = 0  = 1 0  = 0 퍼셉트론이 다루지 못하는 문제 직선으로는 이 패턴을 구분할 수 없다
  • 3. 3      좀 더 복잡한 문제를 다루기 위해 결과를 다시 퍼셉트론의 입력으로 그래서 구조를 복잡하게 만들어 보았다.
  • 5. 5     =  ×  +  +  ×  +  =  +  +  +  =  +  +  +    1 =         =  +  층을 늘리긴 했는데… 여전히 직선(초평면Hyper-plane)~선형식을 전개해 보니 여전히 직선
  • 6. 6     1 =        선형일 수 밖에 없는 이유    = () =  선형함수는 가중합만 낳을 뿐 여기 출력에 항등함수 통과시켜도 그대로 가로축 입력, 세로축 출력 입력과 똑 같은 출력; 항등함수 있다고 생각해도 됨.
  • 7. 비선형 함수를 도입 7 그래서 항등함수 대신에 아름다운 S 라인 함수 아름다운 여인을 보면 더 알고 싶다. 이름 포함해서…
  • 8.   = 1 1 +  =  1 +  8 식이 아름답다. 시그모이드 함수
  • 9. 9 1         1         활성함수; activation function   =    = 1 1 +    신경망의 노드에는 선형 합 z를 통과시키는 함수가 있다.
  • 10. 10 시그모이드 함수의 미분특성   = 1 1 +  =  1 +      = () 1 − () 미분했는데 자기 자신이 다시 나오는 멋진; nice한 특징이 있다.
  • 11. 11     =   1 1 +  =  1 +   = 1 − 1 +  1 +   = 1 +  1 +   − 1 1 +   = 1 1 +  − 1 1 +   = 1 1 +  1 − 1 1 +  =   1 −   분수 미분 공식 & chain rule    =     = 
  • 12. 출력층에 관한 기울기   = 1 2   −   ∈ 12 출력 층의 노드 출력을 알고 있으니까 계산 가능하다. 여기서의 미분은 가능하다. 여기에 존재하는 가중치에 대한 미분  
  • 13. 13  =  + ∆ ∆ = −   =    1 −   −  ,  출력층에 관한 가중치 갱신 결과를 미리 보면 ∆ = −   =   1   −  ,  퍼셉트론 미분
  • 14. 14  =  + ∆ ∆ = −   =    1 −   −  ,  출력층에 관한 가중치 갱신 결과를 미리 보면 ∆ = −   =   1   −  ,  활성함수 차이!퍼셉트론 미분
  • 15. 15   =   1 2   −    = 1 2     −    = 1 2  2  −     −   =   −    −  = −   −       = −   −       + , + ⋯ + ,   = −   −   1 −  ,   =   = 1 1 +      =   1 −    =   chain rule
  • 16. 히든층에 관한 기울기 16 여기서의 미분은 쉽지 않다. 여기에 존재하는 가중치에 대한 미분  
  • 17. 17   =   1 2  ? −   Hidden 노드에서는 Target 값을 모른다. 이 문제를 해결하기 위해 20년 걸림
  • 18. 18 오류가 전달되었다 오류에 대한 가중치 변화율   =   1 2   −    먼저 직관으로 이해해 보자 출력 층에서 발생하는 오류는 그 이전 히든 층의 노드에서 일정 부분 기여한 것이니, (연결 가중치 만큼) 구하고자 하는 오류에 대한 가중치 변화율을 출력 층에서 받아오자!
  • 19. 19 ∆, =  ,  =  when  is of the first layer 오류 역전파 알고리즘 ∆ = −   =   1 −   −  ,  ←  1 −   −   ←  1 −   ,   , ← , + ∆,  ℎ ,    20여년 만에 나온 알고리즘
  • 20. 다층 구조로 신경망 확장 시그모이드 활성함수 도입 오류 역전파 알고리즘 20 정리