SlideShare a Scribd company logo
1 of 19
Super-Resolution
김용우
목차
• 1. Introduction
• 2. 모델 종류
2-1) Pre-Upsampling
2-2) Post-Upsampling
2-3) Progressive-Upsampling
2-4) Iterative Up and Down Sampling
• 3. Loss function
• 4. Metrics
1. Introduction
• 이미지란?
- 이미지는 m x n 개의 숫자로 이루어진 숫자덩어리
- 𝐼𝑚𝑎𝑔𝑒 𝑋 ∈ 𝑁 ∪ {0} 𝑚×𝑛
- 𝐼𝑚𝑎𝑔𝑒 𝑋 는 𝑚 × 𝑛 차원의 한 점
→ 이미지가 딥러닝을 이용했을 때 성능이 좋은 이유
1. Introduction
• 저해상도 (Low-Resolution) vs 고해상도 (High-Resolution)
144p
480p
- 고해상도와 저해상도의 차이는 표현하는 픽셀 수 의 차이가 가장 큼
1. Introduction
• Super-Resolution 이란?
- 저해상도 이미지를 고해상도 이미지로 복원하는 것
𝐿𝑅 = 𝐷𝑒𝑔𝑟𝑎𝑑𝑎𝑡𝑖𝑜𝑛 𝐻𝑅 → 𝐷𝑒𝑔𝑟𝑎𝑑𝑎𝑡𝑖𝑜𝑛−1
𝐿𝑅 = 𝐻𝑅
2-1. Pre-Upsampling
- Interpolation(Bilinear Interpolation , Bicubic Interpolation)
- SRCNN
- VDSR
Bilinear Interpolation
𝑓 𝑅1 =
𝑥 − 𝑥1
𝑥2 − 𝑥1
𝑓 𝑄21 +
𝑥2 − 𝑥
𝑥2 − 𝑥1
𝑓(𝑄11)
𝑓 𝑅2 =
𝑥 − 𝑥1
𝑥2 − 𝑥1
𝑓 𝑄22 +
𝑥2 − 𝑥
𝑥2 − 𝑥1
𝑓(𝑄12)
→ 𝑓 𝑃 =
𝑦−𝑦1
𝑦2−𝑦1
𝑓 𝑅2 +
𝑦2−𝑦
𝑦2−𝑦1
𝑓(𝑅1)
𝑃 𝑥, 𝑦 =
𝑖=0
1
𝑗=0
1
𝑎𝑖𝑗 𝑥 𝑖
𝑦 𝑗
= 𝑎11 𝑥𝑦 + 𝑎10 𝑥 + 𝑎01 𝑦 + 𝑎00
𝑃 0,0 = 𝑎00
𝑃 1,0 = 𝑎10 + 𝑎00
𝑃 0,1 = 𝑎01 + 𝑎00
𝑃 1,1 = 𝑎11 + 𝑎10 + 𝑎01 + 𝑎00
Bicubic Interpolation
𝑃 𝑥, 𝑦 =
𝑖=0
3
𝑗=0
3
𝑎𝑖𝑗 𝑥 𝑖
𝑦 𝑗
= 𝑎33 𝑥3
𝑦3
+ 𝑎32 𝑥3
𝑦2
+ ⋯ + 𝑎01 𝑦 + 𝑎00
→ 총 16개의 변수
𝑃 0,0
𝑃 1,0
𝑃 0,1
𝑃 1,1
𝑃𝑥 0,0
𝑃𝑥(1,0)
𝑃𝑥(0,1)
𝑃𝑥(1,1)
𝑃𝑦 0,0
𝑃𝑦(1,0)
𝑃𝑦(0,1)
𝑃𝑦(1,1)
𝑃𝑥𝑦 0,0
𝑃𝑥𝑦(1,0)
𝑃𝑥𝑦(0,1)
𝑃𝑥𝑦(1,1)
→ 총 16개의 방정식을 이용해 P(x,y)를 구함
SRCNN
Conv – Relu – Conv – Relu - Conv
VDSR
2-2. Post-Upsampling
- Transposed Convolution
- FSRCNN
- ESPCN
1. Transposed Convolution
1 2
2 1
1 2 1
1 1 2
2 1 1
8 8
8 8
1
2
1
1
1
2
2
1
1
1 2 0 2 1 0 0 0 0
0 1 2 0 2 1 0 0 0
0 0 0 1 2 0 2 1 0
0 0 0 0 1 2 0 2 1
8
8
8
8
x
x
=
=
2. FSRCNN
3. ESPCN
2-3. Progressive-Upsampling
- Laplacian Pyramid SR Net
1. Laplacian Pyramid SR Net
2-4. Iterative-Up-and-Down-sampling
- U-Net
1. U-Net
3. Loss function

More Related Content

Similar to Super resolution

Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석jaypi Ko
 
Multinomial classification and application of ML
Multinomial classification and application of MLMultinomial classification and application of ML
Multinomial classification and application of ML희수 박
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )Jeonghun Yoon
 
13.상관과 회귀
13.상관과 회귀13.상관과 회귀
13.상관과 회귀Yoonwhan Lee
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNNSANG WON PARK
 
03. linear regression
03. linear regression03. linear regression
03. linear regressionJeonghun Yoon
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
neural network 기초
neural network 기초neural network 기초
neural network 기초Dea-hwan Ki
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagationJinSooKim80
 
Linear regression
Linear regressionLinear regression
Linear regression전 희천
 
Random walk, brownian motion, black scholes equation
Random walk, brownian motion, black scholes equationRandom walk, brownian motion, black scholes equation
Random walk, brownian motion, black scholes equation창호 손
 
확률변수와 분포함수
확률변수와 분포함수확률변수와 분포함수
확률변수와 분포함수Yoonwhan Lee
 
Q Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object LocalizationQ Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object Localization홍배 김
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn searchWooSung Choi
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 

Similar to Super resolution (20)

Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석
 
Multinomial classification and application of ML
Multinomial classification and application of MLMultinomial classification and application of ML
Multinomial classification and application of ML
 
04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )04. logistic regression ( 로지스틱 회귀 )
04. logistic regression ( 로지스틱 회귀 )
 
13.상관과 회귀
13.상관과 회귀13.상관과 회귀
13.상관과 회귀
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNN
 
03. linear regression
03. linear regression03. linear regression
03. linear regression
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
SVM
SVMSVM
SVM
 
neural network 기초
neural network 기초neural network 기초
neural network 기초
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagation
 
06.확률분포
06.확률분포06.확률분포
06.확률분포
 
Linear regression
Linear regressionLinear regression
Linear regression
 
Random walk, brownian motion, black scholes equation
Random walk, brownian motion, black scholes equationRandom walk, brownian motion, black scholes equation
Random walk, brownian motion, black scholes equation
 
확률변수와 분포함수
확률변수와 분포함수확률변수와 분포함수
확률변수와 분포함수
 
Q Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object LocalizationQ Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object Localization
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn search
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
R_datamining
R_dataminingR_datamining
R_datamining
 

More from SEMINARGROOT

Metric based meta_learning
Metric based meta_learningMetric based meta_learning
Metric based meta_learningSEMINARGROOT
 
Sampling method : MCMC
Sampling method : MCMCSampling method : MCMC
Sampling method : MCMCSEMINARGROOT
 
Demystifying Neural Style Transfer
Demystifying Neural Style TransferDemystifying Neural Style Transfer
Demystifying Neural Style TransferSEMINARGROOT
 
Towards Deep Learning Models Resistant to Adversarial Attacks.
Towards Deep Learning Models Resistant to Adversarial Attacks.Towards Deep Learning Models Resistant to Adversarial Attacks.
Towards Deep Learning Models Resistant to Adversarial Attacks.SEMINARGROOT
 
The ways of node embedding
The ways of node embeddingThe ways of node embedding
The ways of node embeddingSEMINARGROOT
 
Graph Convolutional Network
Graph  Convolutional NetworkGraph  Convolutional Network
Graph Convolutional NetworkSEMINARGROOT
 
Denoising With Frequency Domain
Denoising With Frequency DomainDenoising With Frequency Domain
Denoising With Frequency DomainSEMINARGROOT
 
Bayesian Statistics
Bayesian StatisticsBayesian Statistics
Bayesian StatisticsSEMINARGROOT
 
Coding Test Review 3
Coding Test Review 3Coding Test Review 3
Coding Test Review 3SEMINARGROOT
 
Time Series Analysis - ARMA
Time Series Analysis - ARMATime Series Analysis - ARMA
Time Series Analysis - ARMASEMINARGROOT
 
Differential Geometry for Machine Learning
Differential Geometry for Machine LearningDifferential Geometry for Machine Learning
Differential Geometry for Machine LearningSEMINARGROOT
 
Generative models : VAE and GAN
Generative models : VAE and GANGenerative models : VAE and GAN
Generative models : VAE and GANSEMINARGROOT
 
Understanding Blackbox Prediction via Influence Functions
Understanding Blackbox Prediction via Influence FunctionsUnderstanding Blackbox Prediction via Influence Functions
Understanding Blackbox Prediction via Influence FunctionsSEMINARGROOT
 
Attention Is All You Need
Attention Is All You NeedAttention Is All You Need
Attention Is All You NeedSEMINARGROOT
 
WWW 2020 XAI Tutorial Review
WWW 2020 XAI Tutorial ReviewWWW 2020 XAI Tutorial Review
WWW 2020 XAI Tutorial ReviewSEMINARGROOT
 
Coding test review 2
Coding test review 2Coding test review 2
Coding test review 2SEMINARGROOT
 
Locality sensitive hashing
Locality sensitive hashingLocality sensitive hashing
Locality sensitive hashingSEMINARGROOT
 
Coding Test Review1
Coding Test Review1Coding Test Review1
Coding Test Review1SEMINARGROOT
 

More from SEMINARGROOT (20)

Metric based meta_learning
Metric based meta_learningMetric based meta_learning
Metric based meta_learning
 
Sampling method : MCMC
Sampling method : MCMCSampling method : MCMC
Sampling method : MCMC
 
Demystifying Neural Style Transfer
Demystifying Neural Style TransferDemystifying Neural Style Transfer
Demystifying Neural Style Transfer
 
Towards Deep Learning Models Resistant to Adversarial Attacks.
Towards Deep Learning Models Resistant to Adversarial Attacks.Towards Deep Learning Models Resistant to Adversarial Attacks.
Towards Deep Learning Models Resistant to Adversarial Attacks.
 
The ways of node embedding
The ways of node embeddingThe ways of node embedding
The ways of node embedding
 
Graph Convolutional Network
Graph  Convolutional NetworkGraph  Convolutional Network
Graph Convolutional Network
 
Denoising With Frequency Domain
Denoising With Frequency DomainDenoising With Frequency Domain
Denoising With Frequency Domain
 
Bayesian Statistics
Bayesian StatisticsBayesian Statistics
Bayesian Statistics
 
Coding Test Review 3
Coding Test Review 3Coding Test Review 3
Coding Test Review 3
 
Time Series Analysis - ARMA
Time Series Analysis - ARMATime Series Analysis - ARMA
Time Series Analysis - ARMA
 
Differential Geometry for Machine Learning
Differential Geometry for Machine LearningDifferential Geometry for Machine Learning
Differential Geometry for Machine Learning
 
Generative models : VAE and GAN
Generative models : VAE and GANGenerative models : VAE and GAN
Generative models : VAE and GAN
 
Effective Python
Effective PythonEffective Python
Effective Python
 
Understanding Blackbox Prediction via Influence Functions
Understanding Blackbox Prediction via Influence FunctionsUnderstanding Blackbox Prediction via Influence Functions
Understanding Blackbox Prediction via Influence Functions
 
Attention Is All You Need
Attention Is All You NeedAttention Is All You Need
Attention Is All You Need
 
Attention
AttentionAttention
Attention
 
WWW 2020 XAI Tutorial Review
WWW 2020 XAI Tutorial ReviewWWW 2020 XAI Tutorial Review
WWW 2020 XAI Tutorial Review
 
Coding test review 2
Coding test review 2Coding test review 2
Coding test review 2
 
Locality sensitive hashing
Locality sensitive hashingLocality sensitive hashing
Locality sensitive hashing
 
Coding Test Review1
Coding Test Review1Coding Test Review1
Coding Test Review1
 

Recently uploaded

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법JMP Korea
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화JMP Korea
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?Jay Park
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP Korea
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP Korea
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석JMP Korea
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP Korea
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP Korea
 

Recently uploaded (8)

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
 

Super resolution

  • 2. 목차 • 1. Introduction • 2. 모델 종류 2-1) Pre-Upsampling 2-2) Post-Upsampling 2-3) Progressive-Upsampling 2-4) Iterative Up and Down Sampling • 3. Loss function • 4. Metrics
  • 3. 1. Introduction • 이미지란? - 이미지는 m x n 개의 숫자로 이루어진 숫자덩어리 - 𝐼𝑚𝑎𝑔𝑒 𝑋 ∈ 𝑁 ∪ {0} 𝑚×𝑛 - 𝐼𝑚𝑎𝑔𝑒 𝑋 는 𝑚 × 𝑛 차원의 한 점 → 이미지가 딥러닝을 이용했을 때 성능이 좋은 이유
  • 4. 1. Introduction • 저해상도 (Low-Resolution) vs 고해상도 (High-Resolution) 144p 480p - 고해상도와 저해상도의 차이는 표현하는 픽셀 수 의 차이가 가장 큼
  • 5. 1. Introduction • Super-Resolution 이란? - 저해상도 이미지를 고해상도 이미지로 복원하는 것 𝐿𝑅 = 𝐷𝑒𝑔𝑟𝑎𝑑𝑎𝑡𝑖𝑜𝑛 𝐻𝑅 → 𝐷𝑒𝑔𝑟𝑎𝑑𝑎𝑡𝑖𝑜𝑛−1 𝐿𝑅 = 𝐻𝑅
  • 6. 2-1. Pre-Upsampling - Interpolation(Bilinear Interpolation , Bicubic Interpolation) - SRCNN - VDSR
  • 7. Bilinear Interpolation 𝑓 𝑅1 = 𝑥 − 𝑥1 𝑥2 − 𝑥1 𝑓 𝑄21 + 𝑥2 − 𝑥 𝑥2 − 𝑥1 𝑓(𝑄11) 𝑓 𝑅2 = 𝑥 − 𝑥1 𝑥2 − 𝑥1 𝑓 𝑄22 + 𝑥2 − 𝑥 𝑥2 − 𝑥1 𝑓(𝑄12) → 𝑓 𝑃 = 𝑦−𝑦1 𝑦2−𝑦1 𝑓 𝑅2 + 𝑦2−𝑦 𝑦2−𝑦1 𝑓(𝑅1) 𝑃 𝑥, 𝑦 = 𝑖=0 1 𝑗=0 1 𝑎𝑖𝑗 𝑥 𝑖 𝑦 𝑗 = 𝑎11 𝑥𝑦 + 𝑎10 𝑥 + 𝑎01 𝑦 + 𝑎00 𝑃 0,0 = 𝑎00 𝑃 1,0 = 𝑎10 + 𝑎00 𝑃 0,1 = 𝑎01 + 𝑎00 𝑃 1,1 = 𝑎11 + 𝑎10 + 𝑎01 + 𝑎00
  • 8. Bicubic Interpolation 𝑃 𝑥, 𝑦 = 𝑖=0 3 𝑗=0 3 𝑎𝑖𝑗 𝑥 𝑖 𝑦 𝑗 = 𝑎33 𝑥3 𝑦3 + 𝑎32 𝑥3 𝑦2 + ⋯ + 𝑎01 𝑦 + 𝑎00 → 총 16개의 변수 𝑃 0,0 𝑃 1,0 𝑃 0,1 𝑃 1,1 𝑃𝑥 0,0 𝑃𝑥(1,0) 𝑃𝑥(0,1) 𝑃𝑥(1,1) 𝑃𝑦 0,0 𝑃𝑦(1,0) 𝑃𝑦(0,1) 𝑃𝑦(1,1) 𝑃𝑥𝑦 0,0 𝑃𝑥𝑦(1,0) 𝑃𝑥𝑦(0,1) 𝑃𝑥𝑦(1,1) → 총 16개의 방정식을 이용해 P(x,y)를 구함
  • 9. SRCNN Conv – Relu – Conv – Relu - Conv
  • 10. VDSR
  • 11. 2-2. Post-Upsampling - Transposed Convolution - FSRCNN - ESPCN
  • 12. 1. Transposed Convolution 1 2 2 1 1 2 1 1 1 2 2 1 1 8 8 8 8 1 2 1 1 1 2 2 1 1 1 2 0 2 1 0 0 0 0 0 1 2 0 2 1 0 0 0 0 0 0 1 2 0 2 1 0 0 0 0 0 1 2 0 2 1 8 8 8 8 x x = =