Submit Search
Upload
Keras
โข
Download as PPTX, PDF
โข
1 like
โข
133 views
๋์ค ํฉ
Follow
Keras
Read less
Read more
Software
Report
Share
Report
Share
1 of 24
Download now
Recommended
4.convolutional neural networks
4.convolutional neural networks
Haesun Park
ย
3.unsupervised learing
3.unsupervised learing
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
Haesun Park
ย
Convolutional neural networks
Convolutional neural networks
HyunjinBae3
ย
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
Haesun Park
ย
2.supervised learning
2.supervised learning
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
Haesun Park
ย
Recommended
4.convolutional neural networks
4.convolutional neural networks
Haesun Park
ย
3.unsupervised learing
3.unsupervised learing
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
Haesun Park
ย
Convolutional neural networks
Convolutional neural networks
HyunjinBae3
ย
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
Haesun Park
ย
2.supervised learning
2.supervised learning
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
Haesun Park
ย
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
Edward Yoon
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
Kwang Woo NAM
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
Haesun Park
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
Haesun Park
ย
Dl from scratch(7)
Dl from scratch(7)
Park Seong Hyeon
ย
From maching learning to deep learning
From maching learning to deep learning
Yongdae Kim
ย
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
beom kyun choi
ย
2.linear regression and logistic regression
2.linear regression and logistic regression
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
Haesun Park
ย
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
SANG WON PARK
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
SANG WON PARK
ย
5.model evaluation and improvement
5.model evaluation and improvement
Haesun Park
ย
Intriguing properties of contrastive losses
Intriguing properties of contrastive losses
taeseon ryu
ย
DL from scratch(1~3)
DL from scratch(1~3)
Park Seong Hyeon
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
Juhui Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
Haesun Park
ย
3.neural networks
3.neural networks
Haesun Park
ย
Siamese neural networks for one shot image recognition paper explained
Siamese neural networks for one shot image recognition paper explained
taeseon ryu
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
Kwang Woo NAM
ย
์๊ธฐ์ฌ์ด Variational autoencoder
์๊ธฐ์ฌ์ด Variational autoencoder
ํ๋ฐฐ ๊น
ย
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
Tae Young Lee
ย
1๊ฐ - pytorch์ tensor.pptx
1๊ฐ - pytorch์ tensor.pptx
Network Science Lab, The Catholic University of Korea
ย
More Related Content
What's hot
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
Edward Yoon
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
Kwang Woo NAM
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
Haesun Park
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
Haesun Park
ย
Dl from scratch(7)
Dl from scratch(7)
Park Seong Hyeon
ย
From maching learning to deep learning
From maching learning to deep learning
Yongdae Kim
ย
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
beom kyun choi
ย
2.linear regression and logistic regression
2.linear regression and logistic regression
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
Haesun Park
ย
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
SANG WON PARK
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
SANG WON PARK
ย
5.model evaluation and improvement
5.model evaluation and improvement
Haesun Park
ย
Intriguing properties of contrastive losses
Intriguing properties of contrastive losses
taeseon ryu
ย
DL from scratch(1~3)
DL from scratch(1~3)
Park Seong Hyeon
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
Juhui Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
Haesun Park
ย
3.neural networks
3.neural networks
Haesun Park
ย
Siamese neural networks for one shot image recognition paper explained
Siamese neural networks for one shot image recognition paper explained
taeseon ryu
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
Kwang Woo NAM
ย
์๊ธฐ์ฌ์ด Variational autoencoder
์๊ธฐ์ฌ์ด Variational autoencoder
ํ๋ฐฐ ๊น
ย
What's hot
(20)
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
K means ์๊ณ ๋ฆฌ์ฆ์ ์ด์ฉํ ์ํ๋ฐฐ์ฐ ํด๋ฌ์คํฐ๋ง
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
ย
Dl from scratch(7)
Dl from scratch(7)
ย
From maching learning to deep learning
From maching learning to deep learning
ย
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
keras ๋นจ๋ฆฌ ํ์ด๋ณด๊ธฐ(intro)
ย
2.linear regression and logistic regression
2.linear regression and logistic regression
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
ย
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
Coursera Machine Learning (by Andrew Ng)_๊ฐ์์ ๋ฆฌ
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
ย
5.model evaluation and improvement
5.model evaluation and improvement
ย
Intriguing properties of contrastive losses
Intriguing properties of contrastive losses
ย
DL from scratch(1~3)
DL from scratch(1~3)
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
ย
3.neural networks
3.neural networks
ย
Siamese neural networks for one shot image recognition paper explained
Siamese neural networks for one shot image recognition paper explained
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 06-์์ฌ๊ฒฐ์ ํธ๋ฆฌ-01
ย
์๊ธฐ์ฌ์ด Variational autoencoder
์๊ธฐ์ฌ์ด Variational autoencoder
ย
Similar to Keras
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
Tae Young Lee
ย
1๊ฐ - pytorch์ tensor.pptx
1๊ฐ - pytorch์ tensor.pptx
Network Science Lab, The Catholic University of Korea
ย
LSTM ๋คํธ์ํฌ ์ดํดํ๊ธฐ
LSTM ๋คํธ์ํฌ ์ดํดํ๊ธฐ
Mad Scientists
ย
2017 tensor flow dev summit
2017 tensor flow dev summit
Tae Young Lee
ย
Naive ML Overview
Naive ML Overview
Chul Ju Hong
ย
๋ฅ๋ฌ๋์ ์ด์ฉํ ์์ฐ์ด์ฒ๋ฆฌ์ ์ฐ๊ตฌ๋ํฅ
๋ฅ๋ฌ๋์ ์ด์ฉํ ์์ฐ์ด์ฒ๋ฆฌ์ ์ฐ๊ตฌ๋ํฅ
ํ๋ฐฐ ๊น
ย
CoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park Eonyong
Core.Today
ย
Mahout
Mahout
์ฃผ์ ์ก
ย
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)
Tae Young Lee
ย
Transliteration English to Korean
Transliteration English to Korean
Hyunwoo Kim
ย
Review MLP Mixer
Review MLP Mixer
Woojin Jeong
ย
Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2
KyeongUkJang
ย
์ปดํจํฐ ํ๋ก๊ทธ๋จ ๊ตฌ์กฐ์ ํด์ 3.5
์ปดํจํฐ ํ๋ก๊ทธ๋จ ๊ตฌ์กฐ์ ํด์ 3.5
HyeonSeok Choi
ย
Spark & Zeppelin์ ํ์ฉํ ๋จธ์ ๋ฌ๋ ์ค์ ์ ์ฉ๊ธฐ
Spark & Zeppelin์ ํ์ฉํ ๋จธ์ ๋ฌ๋ ์ค์ ์ ์ฉ๊ธฐ
Taejun Kim
ย
[PyCon KR 2018] ๋๋ด๋ฅผ ์ค์ด๋ Data์ Feature ๋ค๋ฃจ๊ธฐ
[PyCon KR 2018] ๋๋ด๋ฅผ ์ค์ด๋ Data์ Feature ๋ค๋ฃจ๊ธฐ
Joeun Park
ย
Deep Learning from scratch 4์ฅ : neural network learning
Deep Learning from scratch 4์ฅ : neural network learning
JinSooKim80
ย
Machine Learning with Apache Spark and Zeppelin
Machine Learning with Apache Spark and Zeppelin
Dataya Nolja
ย
Lecture 4: Neural Networks I
Lecture 4: Neural Networks I
Sang Jun Lee
ย
DL from scratch(4~5)
DL from scratch(4~5)
Park Seong Hyeon
ย
Titanic kaggle competition
Titanic kaggle competition
jdo
ย
Similar to Keras
(20)
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
๋ฅ๋ฌ๋์ ์ํ Tensor flow(skt academy)
ย
1๊ฐ - pytorch์ tensor.pptx
1๊ฐ - pytorch์ tensor.pptx
ย
LSTM ๋คํธ์ํฌ ์ดํดํ๊ธฐ
LSTM ๋คํธ์ํฌ ์ดํดํ๊ธฐ
ย
2017 tensor flow dev summit
2017 tensor flow dev summit
ย
Naive ML Overview
Naive ML Overview
ย
๋ฅ๋ฌ๋์ ์ด์ฉํ ์์ฐ์ด์ฒ๋ฆฌ์ ์ฐ๊ตฌ๋ํฅ
๋ฅ๋ฌ๋์ ์ด์ฉํ ์์ฐ์ด์ฒ๋ฆฌ์ ์ฐ๊ตฌ๋ํฅ
ย
CoreDot TechSeminar 2018 - Session4 Park Eonyong
CoreDot TechSeminar 2018 - Session4 Park Eonyong
ย
Mahout
Mahout
ย
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)
ย
Transliteration English to Korean
Transliteration English to Korean
ย
Review MLP Mixer
Review MLP Mixer
ย
Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2
ย
์ปดํจํฐ ํ๋ก๊ทธ๋จ ๊ตฌ์กฐ์ ํด์ 3.5
์ปดํจํฐ ํ๋ก๊ทธ๋จ ๊ตฌ์กฐ์ ํด์ 3.5
ย
Spark & Zeppelin์ ํ์ฉํ ๋จธ์ ๋ฌ๋ ์ค์ ์ ์ฉ๊ธฐ
Spark & Zeppelin์ ํ์ฉํ ๋จธ์ ๋ฌ๋ ์ค์ ์ ์ฉ๊ธฐ
ย
[PyCon KR 2018] ๋๋ด๋ฅผ ์ค์ด๋ Data์ Feature ๋ค๋ฃจ๊ธฐ
[PyCon KR 2018] ๋๋ด๋ฅผ ์ค์ด๋ Data์ Feature ๋ค๋ฃจ๊ธฐ
ย
Deep Learning from scratch 4์ฅ : neural network learning
Deep Learning from scratch 4์ฅ : neural network learning
ย
Machine Learning with Apache Spark and Zeppelin
Machine Learning with Apache Spark and Zeppelin
ย
Lecture 4: Neural Networks I
Lecture 4: Neural Networks I
ย
DL from scratch(4~5)
DL from scratch(4~5)
ย
Titanic kaggle competition
Titanic kaggle competition
ย
Keras
1.
KERAS 2019.3.10 nyh
2.
์ธ๊ณต์ง๋ฅ โข ๋ณดํต์ ์ฌ๋์ด
์ํํ๋ ์ง๋ฅ์ ์ธ ์์ ์ ์๋ํํ๊ธฐ ์ํ ์ฐ๊ตฌํ๋ โข Symbolic AI: ๋ช ์์ ์ธ ๊ท์น์ ์ถฉ๋ถํ ๋ง์ด ๋ง๋ค์ด ์ง์์ ๋ค๋ฃจ๋ ๊ฒ.
3.
MACHINE LEARNING Conventional Programming Machine Learning rule data Data rule โ
โ โ โ โ โ answer answer
4.
LEARN REPRESENTATION FROM
DATA (๋ฐ์ดํฐ์์ ํํ์ ํ์ตํ๊ธฐ) โข 3 Prerequisites(Speech Recognition) โข Input Data: recorded sound files ๋ น์๋ ๋ํ ํ์ผ โข Answer: Transcription of the input sound files ํด๋น ๋ํ ํ์ผ์ ์ ์ฌ(๋ฐ์ ์ด) ํ ์คํธ โข Measure of performance: difference from answer and output. Feedback for learning. โข ๊ฐ์ค ๊ณต๊ฐ์ ์ฌ์ ์ ์ ์ํ๊ณ ํผ๋๋ฐฑ ์ ํธ์ ๋์์ ๋ฐ์ ์ ๋ ฅ ๋ฐ์ดํฐ์ ๋ํ ์ ์ฉํ ๋ณํ์ ์ฐพ๋๊ฒ
5.
KERAS โข Keras in
Tensorflow
6.
DATASET
7.
NE โข ์ธต(layer): ์ ๊ฒฝ๋ง์
ํต์ฌ๊ตฌ์ฑ์์ / ๋ฐ์ดํฐ ์ฒ๋ฆฌ ํํฐ โข Sequential ๋ชจ๋ธ โข 2๊ฐ์ layer โข Activation function: relu โข Output Activation function: softmax
8.
NETWORK COMPILE โข Compile
๋จ๊ณ์ ํฌํจ๋ 3๊ฐ์ง โข Loss function: ์ ๊ฒฝ๋ง ์ฑ๋ฅ์ธก์ โข Optimizer: network update mechanism โข Training ๊ณผ Test ๊ณผ์ ์ Monitoring ํ Measure: ์ ํ๋(์ ํํ ๋ถ๋ฅ๋ ์ด๋ฏธ์ง ์ ๋น์จ) for this example!
9.
PREPROCESS โข Data preprocess โข
Shape: (60000, 28, 28) => (60000, 28*28) โข Value: [0,255] uint8 => [0,1] float32 One-hot encoding ( one-dimensional labels => (n, k) n: number of data, k: number of classes)
10.
โข Train ์์
Keras ์์๋ fit ์ฌ์ฉ โข Test ์์๋ evaluate ์ฌ์ฉ
11.
DATA โข Tensor: ์์์
์ฐจ์์ ๊ฐ์ง๋ ํ๋ ฌ์ ์ผ๋ฐํ๋ ๋ชจ์ต โข Scalar โข 0d tensor โข Just a value โข Vector โข 1d tensor โข Array โข Ex. [1,2,3,4,5] โข Ambigous!! 5D Vector / 5D Tensor
12.
โข Matrix โข 2
axises โข Row(ํ) / Column(์ด) โข A = np.array([[1,2,3,4,5], [6,7,8,9,10], [0,0,0,0,0]]) / A.shape => (3,5) โข 3D tensor โข Array of Matrix โข ์ง์ก๋ฉด์ฒด
13.
โข Key Attribute โข
Axis(์ถ, rank): ndim โข Shape: ํ ์์ ๊ฐ ์ถ์ ๋ฐ๋ผ ์ผ๋ง๋ ๋ง์ ์ฐจ์(dimension)์ด ์๋์ง ๋ํ๋ด๋ tuple. Length โข Ex. [1,2,3,4,5] => (5,) โข Data type: ํ ์์ ๋ด๊ธด ๋ฐ์ดํฐ์ ํ์ . Float32, uint8, float64 โข ์ฌ์ ์ ํ ๋น๋ ๋ฉ๋ชจ๋ฆฌ(๋์ ํ ๋น X)์ด๋ฏ๋ก ๊ฐ๋ณ๊ธธ์ด ์ง์ X
14.
SLICING โข slicing
15.
BATCH โข ๋ฅ๋ฌ๋ ๋ชจ๋ธ์
ํ๋ฒ์ ๋ชจ๋ ๋ฐ์ดํฐ์ ์ ์ฒ๋ฆฌํ์ง ์๊ณ ๋ฐ์ดํฐ๋ฅผ ์์ ๋ฐฐ ์น๋ก ๋๋์ด์ ํ์ตํ๋ค โข ๋ฅ๋ฌ๋์์ ์ฌ์ฉํ๋ ๋ชจ๋ ๋ฐ์ดํฐ ํ ์์ ์ฒซ๋ฒ์งธ ์ถ์ ์ํ(sample) ์ถ ์ด๋ผ๊ณ ํ๋ค => ๋ฐ์ดํฐ์ ๊ฐ์
16.
TENSOR WITH EXAMPLES โข
Vector Data: ๊ฐ์ฅ ํํ ๋ฐ์ดํฐ ํํ โข (samples, features) ํํ์ 2D Tensor โข Ex. ํ: ๋ฐ์ดํฐ ๊ฐ์ ์ด: ๋์ด, ์ฐํธ๋ฒํธ, ์๋๋ฑ โข Sequence Data or ์๊ณ์ด ๋ฐ์ดํฐ โข (samples, timesteps, features) ํํ์ 3D Tensor โข Timestep์ ์ง์ง ์๊ฐ! ๋๋ ์์๋ฅผ ์๋ฏธํ๋ค โข Ex. ์ฃผ์ ๊ฐ๊ฒฉ๋ฐ์ดํฐ์ (Time): 1๋ถ๋ง๋ค ํ์ฌ ์ฃผ์๊ฐ๊ฒฉ, ์ง๋ 1๋ถ๋์์ ์ต๊ณ /์ต์ ๊ฐ๊ฒฉ์ ๊ธฐ๋กํ๋ค๊ณ ํ ๋ ํ๋ฃจ์ ์ฃผ์ ๋ฐ์ดํฐ์ ์ (390, 3) 2D ํ ์๋ก ์ ์ฅ ๊ฐ๋ฅ. 250 ์ผ์น์ ์ฃผ ์ ๋ฐ์ดํฐ์ ์: (250, 390, 3) โข Ex. Tweet Dataset(Sequence): 128๊ฐ์ ์ํ๋ฒณ. 280๊ฐ์ ๋ฌธ์ ์ํ์ค์ผ๋ 100๋ง๊ฐ์ ํธ ์์ผ๋ก ์ด๋ฃจ์ด์ง ๋ฐ์ดํฐ์ ์ (1000000, 280, 128) cf. ์ํ๋ฒณ์ 128 D binary vector๋ก one-hot encoding
17.
TENSOR WITH EXAMPLES โข
Image : (samples, height, width, channels) ๋๋ (samples, channels, height, width) ํํ์ 4D ํ ์ โข MNIST ๋ฐ์ดํฐ ์ (๋ฐฐ์น, ๋์ด, ๋๋น, ์ฑ๋) โ (N, 28, 28, 1) โข Video : (samples, frames, height, width, channels) ๋๋ (samples, frames, channels, height, width) ํํ์ 5D ํ ์ โข 60์ด ์ง๋ฆฌ 144$times$256 ์ ํ๋ธ ๋น๋์ค ํด๋ฆฝ์ ์ด๋น 4ํ๋ ์์ผ๋ก ์ํ๋งํ๋ฉด 240 ํ๋ ์์ด๋ฉฐ, ์ด๋ฐ ๋น๋์ค ํด๋ฆฝ์ 4๊ฐ ๊ฐ์ง ๋ฐฐ์น๋ (4, 240, 144, 256, 3) ํ ์ ์ ์ ์ฅ๋๋ค
18.
TENSOR OPERATION โข keras
19.
ELEMENT-WISE OPERATION โข ์์๋ณ
์ฐ์ฐ(element-wise operation): ํ ์์ ์๋ ๊ฐ ์์์ ๋ ๋ฆฝ์ ์ผ๋ก ์ ์ฉ๋๋ ์ฐ์ฐ โข Numpy: BLAS ์ฌ์ฉ(C/fortran) So fast!!
20.
BROADCASTING โข ๋ ํ ์
A, B ์ค ํฌ๊ธฐ๊ฐ ์์ ํ ์๋ฅผ ํฌ๊ธฐ๊ฐ ํฐ ํ ์์ ํํ(shape)๊ฐ ๋ง๊ฒ ๋ ๋๋ ค์ฃผ๋ ๊ฒ โข ํฐ ํ ์์ ๋ญํฌ(์ฐจ์)์ ๋ง๋๋ก ์์ ํ ์์ ์ถ(axis)์ด ์ถ๊ฐ๋๋ค โข ์์ ํ ์๊ฐ ์ ์ถ์ ๋ฐ๋ผ์ ํฐ ํ ์์ ํํ์ ๋ง๋๋ก ๋ฐ๋ณต๋๋ค ์ฌ์ค ๊ฐ๋ ์ ์ผ๋ก ์ด๋ ๋ค๋๊ฑฐ์ง ์ค์ ๋ก๋ ์๋ก์ด 2D ํ ์๊ฐ ์์ฑ๋์ง๋ ์๋๋ค
21.
TENSOR DOT โข Tensorflow์์๋
matmul ๋ผ๊ณ ๋ถ๋ฅด์ง๋ง keras์์๋ dot์ด๋ผ๊ณ ๋ถ๋ฅธ๋ค (but also numpy) โข ๊ฐ์ฅ ์ ์ฉํ ํ ์ ์ฐ์ฐ (also called as โtensor productโ) โข ์์๋ณ ์ฐ์ฐ๊ณผ๋ ๋ค๋ฅด๊ฒ ์ ๋ ฅ ํ ์์ ์์๋ค์ ๊ฒฐํฉ์ํจ๋ค โข ๋ ๋ฒกํฐ์ dot์ scalar ๊ฐ์ด๋ค => ์์๊ฐ ๊ฐ์ ๋ฒกํฐ๋ผ๋ฆฌ ์ ๊ณฑ๊ฐ๋ฅ โข Matrix * vector => column ๊ฐ์์ vector์ ์์๊ฐ์๊ฐ ๊ฐ์์ผ ํจ โข ์ฆ, matrix.shape[1] == vector.shape[0] โข Return ๊ฐ์ matrix.shape[1] ํฌ๊ธฐ์ ๋ฒกํฐ
22.
TENSOR DOT โข Matrix
* Matrix => A์ column ๊ฐ์์ B ์ row ๊ฐ์๊ฐ ๊ฐ์์ผํจ โข ์ฆ, A.shape[1] == B.shape[0] โข Return ๊ฐ์ (A.shape[0], B.shape[1])์ Matrix โข (a, b) โ (b, c) โ (a, c) โข (a, b, c, d) โ (d,) โ (a, b, c) โข (a, b, c, d) โ (d, e) โ (a, b, c, e)
23.
RESHAPING โข ํน์ ํํ์
๋ง๊ฒ ํ๊ณผ ์ด์ ์ฌ๋ฐฐ์ด โข NumPy์ .reshape()์ ์ด์ฉํด ํํ๋ฅผ ๋ณํ โข ๊ฐ์ฅ ๋ง์ด ์ฌ์ฉ: ์ ์น(Transposition) : ํ๊ณผ ์ด ๋ฐ๊พธ๊ธฐ
24.
ํ ์ ์ฐ์ฐ์ ๊ธฐํํ์
ํด์ โข ์ํ๋ณํ(affine transformation) ํ์ , ์ค์ผ์ผ๋ง(scaling) ๋ฑ ๊ธฐ๋ณธ์ ์ธ ๊ธฐ ํํ์ ์ฐ์ฐ์ ํํ โข Affine transformation: ์ , ์ง์ , ํ๋ฉด์ ๋ณด์กดํ๋ ์ํ ๊ณต๊ฐ์ผ๋ก์ ๋ณํ โข ๊ฑฐ๋ฆฌ์ ๋น์จ๊ณผ ์ง์ ์ ํํ์ ์ ์งํ๋ ์ด๋, ์ค์ผ์ผ๋ง, ํ์ โข Affine Space : ์ํ๊ณต๊ฐ์ ๋ฒกํฐ๊ณต๊ฐ์ ํํ์ด๋ํ ๊ฒ โข ๋ฐ๋ผ์, Fully-Connected layer๋ฅผ Affine layer๋ผ๊ณ ๋ ํจ
Editor's Notes
Programming -> Learning(ํ๋ จ)
๋จธ์ ๋ฌ๋์์ ์นดํ ๊ณ ๋ฆฌ ๋ถ๋ฅ ๋ฌธ์ ๋ฅผ ๋ค๋ฅผ๋ ๋ถ๋ฅํด์ผํ ์นดํ ๊ณ ๋ฆฌ๋ฅผ โํด๋์คโ ๋ผ๊ณ ๋ถ๋ฅด๊ณ , ๊ฐ ๋ฐ์ดํฐ๋ sample์ด๋ผ๊ณ ๋ถ๋ฅธ๋ค. ๋ํ ๊ฐ sample์ ํด๋์ค๋ label์ด๋ผ๊ณ ๋ถ๋ฅธ๋ค.
์ด ๋ฒกํฐ์ ์ฐจ์: 1 / ndim: 1. ์์ ๊ฐ์: 5๊ฐ -> 5์ฐจ์ ๋ฒกํฐ๋ผ๊ณ ๋ถ๋ฅด์ง๋ง 5D ๋ฒกํฐ์ 5D ํ ์๋ฅผ ํผ๋ํ๋ฉด ์๋๋ค! ์ฐจ์์ ํน์ ์ถ(axis)๋ฅผ ๋ฐ๋ผ ๋์ธ ์์์ ๊ฐ์ ๋๋ ํ ์์ ์ถ ๊ฐ์(5 axis) ๋ฅผ ์๋ฏธํ๋ฏ๋ก ํผ๋ํ ์ ์๋ค. ํ์์ ๊ฒฝ์ฐ์๋ rank 5 tensor๋ผ๊ณ ๋ถ๋ฅด๊ธฐ๋ ํ๋ค
Download now