AdaBoost를 이용한 Face Recognition
랩 세미나용이라 디테일하게 모든 정보가 들어있지는 않음.
참고논문
P.Viola & M.Jones, Rapid Object Detection using a Boosted Cascade of Simple Features, 2011 외 다수
Face Feature Recognition System with Deep Belief Networks, for Korean/KIISE T...Mad Scientists
I submitted KIISE Thesis that <face>, 2014.
In this presentation, I present why I use deep learning to find facial features and what is limitation of before method.
AdaBoost를 이용한 Face Recognition
랩 세미나용이라 디테일하게 모든 정보가 들어있지는 않음.
참고논문
P.Viola & M.Jones, Rapid Object Detection using a Boosted Cascade of Simple Features, 2011 외 다수
Face Feature Recognition System with Deep Belief Networks, for Korean/KIISE T...Mad Scientists
I submitted KIISE Thesis that <face>, 2014.
In this presentation, I present why I use deep learning to find facial features and what is limitation of before method.
딥러닝을 이용한 얼굴인식 (Face Recogniton with Deep Learning)Daehee Han
Open Face를 이용한 얼굴인식,구분 서비스 개발. 한대희 멘토 (http://slowcampus.com)
소프트웨어 마에스트로 6기 1단계2차 (2015년 9~11월) 프로젝트.
FaceNet, Open face, Face Recognition, Deep learning
These slides accompanied a demo of Deeplearning4j, while the meetup explored distributed clustering and various deep learning explanations.
http://www.meetup.com/SF-Neural-Network-Afficianados-Discussion-Group/events/182645252/
Deep-learning is useful in detecting anomalies like fraud, spam and money laundering; identifying similarities to augment search and text analytics; predicting customer lifetime value and churn; recognizing faces and voices.
Deeplearning4j is an infinitely scalable deep-learning architecture suitable for Hadoop and other big-data structures. It includes a distributed deep-learning framework and a normal deep-learning framework; i.e. it runs on a single thread as well. Training takes place in the cluster, which means it can process massive amounts of data. Nets are trained in parallel via iterative reduce, and they are equally compatible with Java, Scala and Clojure. The distributed deep-learning framework is made for data input and neural net training at scale, and its output should be highly accurate predictive models.
The framework's neural nets include restricted Boltzmann machines, deep-belief networks, deep autoencoders, convolutional nets and recursive neural tensor networks.
알파고의 작동 원리를 설명한 슬라이드입니다.
English version: http://www.slideshare.net/ShaneSeungwhanMoon/how-alphago-works
- 비전공자 분들을 위한 티저: 바둑 인공지능은 과연 어떻게 만들까요? 딥러닝 딥러닝 하는데 그게 뭘까요? 바둑 인공지능은 또 어디에 쓰일 수 있을까요?
- 전공자 분들을 위한 티저: 알파고의 main components는 재밌게도 CNN (Convolutional Neural Network), 그리고 30년 전부터 유행하던 Reinforcement learning framework와 MCTS (Monte Carlo Tree Search) 정도입니다. 새로울 게 없는 재료들이지만 적절히 활용하는 방법이 신선하네요.
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
발표 영상 : https://goo.gl/jrKrvf
데모 영상 : https://youtu.be/exXD6wJLJ6s
Deep Q-Network, Double Q-learning, Dueling Network 등의 기술을 소개하며, hyperparameter, debugging, ensemble 등의 엔지니어링으로 성능을 끌어 올린 과정을 공유합니다.
딥러닝을 이용한 얼굴인식 (Face Recogniton with Deep Learning)Daehee Han
Open Face를 이용한 얼굴인식,구분 서비스 개발. 한대희 멘토 (http://slowcampus.com)
소프트웨어 마에스트로 6기 1단계2차 (2015년 9~11월) 프로젝트.
FaceNet, Open face, Face Recognition, Deep learning
These slides accompanied a demo of Deeplearning4j, while the meetup explored distributed clustering and various deep learning explanations.
http://www.meetup.com/SF-Neural-Network-Afficianados-Discussion-Group/events/182645252/
Deep-learning is useful in detecting anomalies like fraud, spam and money laundering; identifying similarities to augment search and text analytics; predicting customer lifetime value and churn; recognizing faces and voices.
Deeplearning4j is an infinitely scalable deep-learning architecture suitable for Hadoop and other big-data structures. It includes a distributed deep-learning framework and a normal deep-learning framework; i.e. it runs on a single thread as well. Training takes place in the cluster, which means it can process massive amounts of data. Nets are trained in parallel via iterative reduce, and they are equally compatible with Java, Scala and Clojure. The distributed deep-learning framework is made for data input and neural net training at scale, and its output should be highly accurate predictive models.
The framework's neural nets include restricted Boltzmann machines, deep-belief networks, deep autoencoders, convolutional nets and recursive neural tensor networks.
알파고의 작동 원리를 설명한 슬라이드입니다.
English version: http://www.slideshare.net/ShaneSeungwhanMoon/how-alphago-works
- 비전공자 분들을 위한 티저: 바둑 인공지능은 과연 어떻게 만들까요? 딥러닝 딥러닝 하는데 그게 뭘까요? 바둑 인공지능은 또 어디에 쓰일 수 있을까요?
- 전공자 분들을 위한 티저: 알파고의 main components는 재밌게도 CNN (Convolutional Neural Network), 그리고 30년 전부터 유행하던 Reinforcement learning framework와 MCTS (Monte Carlo Tree Search) 정도입니다. 새로울 게 없는 재료들이지만 적절히 활용하는 방법이 신선하네요.
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
발표 영상 : https://goo.gl/jrKrvf
데모 영상 : https://youtu.be/exXD6wJLJ6s
Deep Q-Network, Double Q-learning, Dueling Network 등의 기술을 소개하며, hyperparameter, debugging, ensemble 등의 엔지니어링으로 성능을 끌어 올린 과정을 공유합니다.
6. 열역학 제2법칙 : 엔트로피 Entropy
1862년 독일 물리학자 Clausius
S = Q/T
1865년 Clausius가 재정의
dS = dQ / T
7. 리처드 패랠만 : 푸앙카레 추측
세계 7대 수학 난제
필즈상, 100만 달러 상금
우주의 원리 탐구
열역학
8. 엔탈피 Enthalpy
H = E + PV
DH = DE + D(PV)
DH = DE + PDV + VDP
일정 부피, 외부 일이 없으면
DH = Q + VDP
9. Gibbs Free Energy
미국 물리학자 Gibbs가 제안
G = H – TS
G : Gibbs Free Energy
H : Enthalpy
T : Kelvin Temperature
S : Entropy
표준상태(25도C, 1기압, 일정한 온도와 압력,
SATP(Standard Ambient Temperature and Pressure))
에서 화학반응의 방향을 알 수 있다.
전체계의 엔트로피를 살필 필요가 없이
대상계만 살펴서도 반응의 자발성을 알 수 있다.
10. 볼쯔만 Boltzmann
오스트리아
분자 레벨의 통계 역학적 의미 부여
분자 레벨의 Entropy 정의
가장 중요한 과학적 업적은 기체의 분자 속도에 관한
맥스웰-볼츠만 분포를 포함한 기체분자운동론
볼쯔만 분배 법칙
슈테판-볼츠만 공식을 유도해냈다. 흑체의 단위표면적에서 방출되는
모든 파장의 빛에너지의 총합이 흑체의 절대온도에 4제곱에 비례한다는 법칙
S = k log W
볼츠만 상수 k는 기체 상수 R와 아보가드로 상수 N_a의 비이다.
k = R/N_a 1.380 6504(24)×10^(−23) J/ K
14. Bayesian Probability for Monty Hall Problem
A지목 (이전상태)
B 열었음 (변화행동)
C에 차가 있을 확률
P(C|B) = P(B|C) P(C) / P(B)
P(C) = 1/3 (문을 열기 전) [1/2 (문을 연 후라면?)]
P(B) = 1/2 (문을 여는 행동의 확률)
P(B|C) = 1 (A를 지목한 후)
P(C|B) = 2/3 (행동후)
28. Boltzmann Machine
1985년 Geoffrey Hinton and Terry Sejnowski
대규모 병렬처리 이용
홉필드 동작 규칙을 확률적인 동작 규칙으로 확장
홉필드는 에너지를 감소시키는 방향으로 변화시킴.
볼쯔만 머신은 에너지가 증가하는 상태의 전이에
대해서도 작은 확률로나마 허용하는 동작 규칙.
문제 해결을 위한 일반적인 방법 제시
하드웨어적 구현이 쉽다.
지역의 상태를 체크하는 방식은 병렬처리에 유리.
VLSI 배치문제, 순회판매원 문제,
최적화 문제의 근사해 구하기.
33. RBM Learning : Contrastive Divergence (대조적 분산)
Random 으로 작은 값 (0~0.1)을 weight로 준다.
Input neuron 값 넣고 sigmoid로 hidden 을 계산한다.
이제, Si*Sj 를 기억해 둔다. SiSj_0
hidden에서 weight로 input을 계산한다. (reconstruction)
Si * Sj 를 기억한다. SiSj_1
이러한 과정을 반복한다. 무한대로? 약50번?
SiSj_0, SiSj_50
CD = Average(SiSj_0) – Average(SiSj_50)
W = W + alpha * CD
Error = (INPUT - Reconstruction)^2