SlideShare a Scribd company logo
1 of 9
Download to read offline
CNN Introduction
강석우 pko89403@gmail.com
Convolution ( 합성 곱 )
하나의 함수와 또 다른 함수를 반전 이동한 값을 곱한 다음,
구간에 대해 적분하여 새로운 함수를 구하는 수학 연산자
가로 32, 세로 32의 이미지 데이터를 학습 하려면 ?
• Fully-Connected로 학습 하기 위해 32 * 32 * 3 = 3072개의 weight, bias 가 필요하다.
• ConvNet의 레이어는 가로, 세로, 깊이 3개의 차원을 가진다.
Convolutional NN은 3가지 Layer로 구성될 수 있다.
• 1. Convolutional Layer
• 2. Pooling Layer
• 3. Full—Connected Layer
Convolutional Layer
• parameter를 가지고 가로, 세로 그리고 깊이
의 차원을 가진다.
• forward pass 때에는
• 각 필터를 convolve 시키며 2차원의
activation map을 생성한다.
• 필터와 입력 요소 간 내적 (dot product) 으로
특정 위치의 패턴에 반응하는 active 필터를
학습한다.
• activation map을 깊이로 쌓은 것이 출력이
된다.
+ stride 로 겹치는 영역을 조절
+ padding 로 공간적 크기를 조절
Pooling Layer
• 일반적으로 Convolution Layer 사이에 넣
는다.
• 네트워크 연산량을 줄이기 위해 공간적인 크
기를 축소 한다.
• Backward 하기 위해서는 forward에 한 행
동을 기억해야한다.
• Average Pooling < Max Pooling
• Fractional Max Pooling
• Normalization Layer ? ( 실제 두뇌 )
• Overfitting ? Pooling 꼭?
그림으로…
1Dim Conv
Fully-Connected 2Dim Conv
1D, 2D, 3D Convolution Moving
1 Dimensional Conv 2, 3 Dimensional Convolution
3D Convolutional Networks
• 시공간 특성을 가진 데이터에 적용을 하기 위해
• 2D -> Spatial, 한 차원↑→ SpatioTemporal( 시공간 )
Volume 이 된다
수학적 비교 https://ai2-s2-pdfs.s3.amazonaws.com/3c86/dfdbdf37060d5adcff6c4d7d453ea5a8b08f.pdf
참고사이트 https://jay.tech.blog/2017/02/02/3d-convolutional-networks/
TEMPORAL

More Related Content

What's hot

Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...
Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...
Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...changedaeoh
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder홍배 김
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners홍배 김
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)홍배 김
 
Data Visualization and t-SNE
Data Visualization and t-SNEData Visualization and t-SNE
Data Visualization and t-SNEHyeongmin Lee
 

What's hot (8)

Convolutional rnn
Convolutional rnnConvolutional rnn
Convolutional rnn
 
Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...
Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...
Convolutional Neural Networks(CNN) / Stanford cs231n 2017 lecture 5 / MLAI@UO...
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
Keras
KerasKeras
Keras
 
Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)
 
Data Visualization and t-SNE
Data Visualization and t-SNEData Visualization and t-SNE
Data Visualization and t-SNE
 

Similar to CNN Introduction

[GEG1] 3.volumetric representation of virtual environments
[GEG1] 3.volumetric representation of virtual environments[GEG1] 3.volumetric representation of virtual environments
[GEG1] 3.volumetric representation of virtual environments종빈 오
 
Deep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetDeep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetHyojun Kim
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린dkuplusalpha
 
4.convolutional neural networks
4.convolutional neural networks4.convolutional neural networks
4.convolutional neural networksHaesun Park
 
여러 컨볼루션 레이어 테크닉과 경량화 기법들
여러 컨볼루션 레이어 테크닉과 경량화 기법들여러 컨볼루션 레이어 테크닉과 경량화 기법들
여러 컨볼루션 레이어 테크닉과 경량화 기법들Dongyi Kim
 

Similar to CNN Introduction (7)

[GEG1] 3.volumetric representation of virtual environments
[GEG1] 3.volumetric representation of virtual environments[GEG1] 3.volumetric representation of virtual environments
[GEG1] 3.volumetric representation of virtual environments
 
Deep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetDeep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNet
 
Review Dense net
Review Dense netReview Dense net
Review Dense net
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린
 
4.convolutional neural networks
4.convolutional neural networks4.convolutional neural networks
4.convolutional neural networks
 
여러 컨볼루션 레이어 테크닉과 경량화 기법들
여러 컨볼루션 레이어 테크닉과 경량화 기법들여러 컨볼루션 레이어 테크닉과 경량화 기법들
여러 컨볼루션 레이어 테크닉과 경량화 기법들
 

More from pko89403

Airflow tutorials hands_on
Airflow tutorials hands_onAirflow tutorials hands_on
Airflow tutorials hands_onpko89403
 
Wide&Deep Recommendation Model
Wide&Deep Recommendation ModelWide&Deep Recommendation Model
Wide&Deep Recommendation Modelpko89403
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks pko89403
 
Improving Language Understanding by Generative Pre-Training
Improving Language Understanding by Generative Pre-TrainingImproving Language Understanding by Generative Pre-Training
Improving Language Understanding by Generative Pre-Trainingpko89403
 
AutoEncoder&GAN Introduction
AutoEncoder&GAN IntroductionAutoEncoder&GAN Introduction
AutoEncoder&GAN Introductionpko89403
 
Accelerating the machine learning lifecycle with m lflow
Accelerating the machine learning lifecycle with m lflowAccelerating the machine learning lifecycle with m lflow
Accelerating the machine learning lifecycle with m lflowpko89403
 
Auto rec autoencoders meets collaborative filtering
Auto rec autoencoders meets collaborative filteringAuto rec autoencoders meets collaborative filtering
Auto rec autoencoders meets collaborative filteringpko89403
 
Graph convolutional matrix completion
Graph convolutional  matrix completionGraph convolutional  matrix completion
Graph convolutional matrix completionpko89403
 
Efficient thompson sampling for online matrix factorization recommendation
Efficient thompson sampling for online matrix factorization recommendationEfficient thompson sampling for online matrix factorization recommendation
Efficient thompson sampling for online matrix factorization recommendationpko89403
 
Session based rcommendations with recurrent neural networks
Session based rcommendations with recurrent neural networksSession based rcommendations with recurrent neural networks
Session based rcommendations with recurrent neural networkspko89403
 

More from pko89403 (11)

Airflow tutorials hands_on
Airflow tutorials hands_onAirflow tutorials hands_on
Airflow tutorials hands_on
 
Wide&Deep Recommendation Model
Wide&Deep Recommendation ModelWide&Deep Recommendation Model
Wide&Deep Recommendation Model
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
 
Item2Vec
Item2VecItem2Vec
Item2Vec
 
Improving Language Understanding by Generative Pre-Training
Improving Language Understanding by Generative Pre-TrainingImproving Language Understanding by Generative Pre-Training
Improving Language Understanding by Generative Pre-Training
 
AutoEncoder&GAN Introduction
AutoEncoder&GAN IntroductionAutoEncoder&GAN Introduction
AutoEncoder&GAN Introduction
 
Accelerating the machine learning lifecycle with m lflow
Accelerating the machine learning lifecycle with m lflowAccelerating the machine learning lifecycle with m lflow
Accelerating the machine learning lifecycle with m lflow
 
Auto rec autoencoders meets collaborative filtering
Auto rec autoencoders meets collaborative filteringAuto rec autoencoders meets collaborative filtering
Auto rec autoencoders meets collaborative filtering
 
Graph convolutional matrix completion
Graph convolutional  matrix completionGraph convolutional  matrix completion
Graph convolutional matrix completion
 
Efficient thompson sampling for online matrix factorization recommendation
Efficient thompson sampling for online matrix factorization recommendationEfficient thompson sampling for online matrix factorization recommendation
Efficient thompson sampling for online matrix factorization recommendation
 
Session based rcommendations with recurrent neural networks
Session based rcommendations with recurrent neural networksSession based rcommendations with recurrent neural networks
Session based rcommendations with recurrent neural networks
 

CNN Introduction

  • 2. Convolution ( 합성 곱 ) 하나의 함수와 또 다른 함수를 반전 이동한 값을 곱한 다음, 구간에 대해 적분하여 새로운 함수를 구하는 수학 연산자
  • 3. 가로 32, 세로 32의 이미지 데이터를 학습 하려면 ? • Fully-Connected로 학습 하기 위해 32 * 32 * 3 = 3072개의 weight, bias 가 필요하다. • ConvNet의 레이어는 가로, 세로, 깊이 3개의 차원을 가진다.
  • 4. Convolutional NN은 3가지 Layer로 구성될 수 있다. • 1. Convolutional Layer • 2. Pooling Layer • 3. Full—Connected Layer
  • 5. Convolutional Layer • parameter를 가지고 가로, 세로 그리고 깊이 의 차원을 가진다. • forward pass 때에는 • 각 필터를 convolve 시키며 2차원의 activation map을 생성한다. • 필터와 입력 요소 간 내적 (dot product) 으로 특정 위치의 패턴에 반응하는 active 필터를 학습한다. • activation map을 깊이로 쌓은 것이 출력이 된다. + stride 로 겹치는 영역을 조절 + padding 로 공간적 크기를 조절
  • 6. Pooling Layer • 일반적으로 Convolution Layer 사이에 넣 는다. • 네트워크 연산량을 줄이기 위해 공간적인 크 기를 축소 한다. • Backward 하기 위해서는 forward에 한 행 동을 기억해야한다. • Average Pooling < Max Pooling • Fractional Max Pooling • Normalization Layer ? ( 실제 두뇌 ) • Overfitting ? Pooling 꼭?
  • 8. 1D, 2D, 3D Convolution Moving 1 Dimensional Conv 2, 3 Dimensional Convolution
  • 9. 3D Convolutional Networks • 시공간 특성을 가진 데이터에 적용을 하기 위해 • 2D -> Spatial, 한 차원↑→ SpatioTemporal( 시공간 ) Volume 이 된다 수학적 비교 https://ai2-s2-pdfs.s3.amazonaws.com/3c86/dfdbdf37060d5adcff6c4d7d453ea5a8b08f.pdf 참고사이트 https://jay.tech.blog/2017/02/02/3d-convolutional-networks/ TEMPORAL