Neural Network
yBigTa 9기 김현우 a.k.a 순록킴
약간의 심리학
어렸을 적 추억이 마음 속에 남아있다
기억이 저장되는 장소?
Hippocampus 해마
기억은 연결 속에 있다
James L. McGaugh, 2000
James L. McGaugh, 2000
시간을 거슬러…
Warren McCulloch, 1943
with Walter Pitts
Donald Hebb, 1949
Hebbian Learning, 1949
Cells that fire together, wire together
두 개의 뉴런이 반복적이고 지속적으로
연달아 점화한다면,
두 뉴런 사이의 연결성은 강화된다
Threshold & Long-Term Potentiation, 20c
Connectionism 연결주의의 시작
Frank Rosenblatt, 1957
심리학자,
Perceptron의 아버지
The First Perceptron, 1957
Single Layer Perceptron, 1957
출처: untitledtblog
Mark 1 Perceptron
Mark 1, 신경망을 이용해 학습이 가능한 첫 컴퓨터
Perceptron의 개념
YCA1004-01-00
나는 오늘 채플에 결석하기로 했다
내가 밀린 과제가 있는가𝑥" :
𝑥# :
𝑥$ :
𝑡ℎ𝑟𝑒𝑠ℎ𝑜𝑙𝑑 : 나는 채플에 가는 성실한 학생이다
내 결석 횟수가 4번을 안 넘었겠지
나는 혹시 지금 늦잠을 잤는가
- 내가 밀린 과제가 있는가 : Yes
- 결석 횟수가 4번을 안 넘었겠지 : No
- 나는 혹시 지금 늦잠을 잤는가 : Yes
𝑥" = 1
𝑥# = 0
𝑥$ = 1
중요도 (=가중치, Weight)
핑계들 0 중요도 > 나는 성실한 학생이라는 양심
높은 중요도일수록 높은 가중치
내가 밀린 과제가 있는가
결석 횟수가 4번을 안 넘었겠지
나는 혹시 지금 늦잠을 잤는가
𝑥" :
𝑥# :
𝑥$ :
Weight : [	𝑤", 𝑤#, 𝑤$	]
Input vector:
Weight vector: [	𝑤", 𝑤#, 𝑤$	]
[	𝑥", 𝑥#, 𝑥$	]
Input 벡터와 가중치 벡터의 내적
The First Perceptron, 1957
출처: untitledtblog
Activation function
Sign function
- 밀린 과제가 있는가 : No
- 결석 횟수가 4번을 안 넘었겠지 : Yes
- 나는 혹시 지금 늦잠을 잤는가 : No
𝑥" = 0
𝑥# = 1
𝑥$ = 0
현우의 양심으로는 역부족이었다0.45 > 0
하지만 잘못된 결과값
제대로 된 현우의 채플 결석 perceptron이라면
내적값이 0 이하가 되어
결석을 하지 않는다(=-1)는 결론이 나와야 한다.
Weight vector를 조정해야 한다
Weight vector의 조정
: learning rate
: 정답 값
: 지금 나온 값
: learning rate
: -1
: +1
정답값과 결과값이 다른 경우
조정이 일어난다
정답값과 결과값이 같은 경우
0이 되어 조정되지 않는다
따지고 보면
새로운 weight vector는
기존 weight vector에 input vector를 더하는 꼴
Multi-class perceptron
Single Class Perceptron
출처: untitledtblog
Multi-class perceptron
MIRA & SVM
신경망 대박 조짐
Marvin Minsky , 인공지능의 아버지
초기 Artificial Intelligence
발전을 주도한 장본인
Symbolicism 기호주의
Artificial Intelligence 라는 말을
처음 만들어 낸 장본인
Alan
Turing
JohnVon
Neumann
Marvin Minsky & Symbolic A.I.
Artificial Intelligence 라는 말을
처음 만들어 낸 장본인
Frank Rosenblatt, 1957
심리학자,
Perceptron의 아버지
사실은 고등학교 동기
The Bronx High School of Science
두 명의 기둥
인공지능에 대한 학계와 사회의 기대
인공지능에 쏟아지는 어마어마한 투자와 관심
하지만 기대가 크면 실망도 큰 법
말라가는 물 웅덩이
Perceptrons
Marvin Minsky & Seymour Papert, 1969
“ XOR문제는
Perceptron으로 풀 수 없다
내가 수학적으로 증명했다
그러니깐 연구 이제 그만해라 ”
Single Layer Perceptron
& the XOR problem
A or B A and B A xor B
신경망 바로 암흑기
그리고 1971, Rosenblatt의 의문사
AI Winter
XOR problem 돌파, 부활의 신호탄
David Rumelhart & John Hopfield
Back propagation
& Multi Layer Perceptron, 1984
MLP의 치명적 한계:
3층 이상 쌓으면 오히려 효율이 떨어진다
신경망 또다시 침체기
하지만 언제나 구원자가 있다
집념의 제프리 힌튼, RBM
Geoffrey
Hinton
2006, Deep Learning의 가능성
2012 ILSVRC, Imagenet Large ScaleVisual Recognition Challenge
Deep Learning의 승리
2012, Deep Learning의 압도적 승리
2013, Google에 합류
2014, Google의 DeepMind 인수
그리고 대망의 2016년
그리고 대망의 2016년
Demis Hassabis
Yann Lecun
Andrew Ng: 응Andrew Ng
1992, One algorithm hypothesis
Visual Cortex & Auditory Cortex
with Ferrets 담비
Switching
Visual inputs to A1
볼 때 들을까?
들을 때 볼까?
청각피질이 보는 법을 배웠다
영역 별로 기능이 고정되어 있다기보다
각 영역에 주어지는 input 값에 의해
weight 값이 조정되며 학습하는 알고리즘
The Next AI
Seymour
Papert
Artificial
Natural
감사합니다

Neural Network Intro [인공신경망 설명]