2. 목표는 어떤 함수를 근사하는것
feedforward인 이유는 한 방향으로만 가면서 최종 출력 y에 도달하기 때문
feedback을 도입하여 확장한 모형을 recurrent neural network(순환 신경망 10장)
f(x) ≈ f*(x)
3. 네트워크는 그물처럼 엮인 형태로 표현
세 함수의 연쇄구조. 가 각각 1층 2층
사슬구조의 길이는 깊이(또는 심도)
마지막 층( )을 출력층이라고 부른다
신경망을 훈련한다는것은 이 f들을 목적함수에 적합시키는 것을 의미.
중간층의 출력을 보여주지 않기 때문에 hidden layer라고 한다.
f(1)
, f(2)
f(3)
(f(2)
(f(1)
(x))) ≈ f*(x)
f(3)
4. perceptron 선형모형의 한계를 어떻게 극복할 수 있을까
선형모형은 모형의 수용력이 선형함수로만 국한됨. 이 결함 때문에 선형모형은 임의의 두 입력변수 사이의 상호작용을 이해할 수 없음
선형모형을 x의 비선형 함수들로 확장하는 방법은 선형모형을 x자체가 아니라 변환된 에 적용하는 것이다.
kernel의 개념과 유사!
ϕ(x)
5.
6.
7. Example : XOR case
x1
x2
̂yS
̂y = σ(X * weight + bias)
8. perceptron 선형모형의 한계를 어떻게 극복할 수 있을까
선형모형은 모형의 수용력이 선형함수로만 국한됨. 이 결함 때문에 선형모형은 임의의 두 입력변수 사이의 상호작용을 이해할 수 없음
선형모형을 x의 비선형 함수들로 확장하는 방법은 선형모형을 x자체가 아니라 변환된 에 적용하는 것이다.
kernel의 개념과 유사!
ϕ(x)
25. Gradient-Based Learning
Output Units
Binary Multinomial
Algorithm Logistic Softmax
cost function Logistic cost function Cross Entropy
formula C : (H(x), y) = − y log(H(x)) − (1 − y)log(1 − H(x)) C : (H(X), Y) = −
∑
i
Yi log(H(Xi))