SlideShare a Scribd company logo
1 of 26
Download to read offline
紹介論文:
S. Baker & T. Kanade (2002),
“Limits on Super-Resolution
and How to Break them”
CTO室 富田望
超解像とは
• 入力画像より高い解像度の画像を得る手法
• 複数枚の低解像画像の情報を合わせ、高解像
度の画像を復元する
(マルチフレーム超解像。特に deep learning (以下DL)
だと入力1枚のみ使用するシングルフレーム超解像という
のも多いですが、今回DLの手法は扱いません)
• 応用:衛星写真、監視カメラ、医療画像など
• 右のような最適化問題としての定式化が多い
– これを直接解いたり、DL なら学習したり
• 出力 Su を適当にダウンサンプルすると入力 Lo𝑖
に戻る、という拘束
• 出力画像がなめらか、などの正則化(Prior)
1
Su = argmin
Su
෍
𝑖=1
𝑁
𝜌(Lo𝑖, 𝐻𝑖 Su ) + 𝑈(Su)
[4] Fig.1 より引用
この論文の概要
• たくさん合成すればいくらでも高解像度にできそうに思えるが、そうではない
– 拡大率を上げていくと急速に問題が困難になる
• たとえノイズがなくとも、入力枚数を増やしても情報が増えなくなっていく
• → Priorの方が優勢になり、滑らかすぎる画像が生成されてしまう
• 前半:原因の解析
– 理想的な場合における解析
– 究極的には画像の(8bit)量子化が制約となっている
• 後半:対策
– 適切なPriorを用いること
– 顔画像の超拡大のデモ
2
Outline
• イントロ: 拡大率を上げると急速に困難になる
• 前半:原因の解析
– 定式化
– 定理1: 可逆性
– 定理2: 条件数
– 定理3: 解の体積
• 後半:対策
– Hallucination Algorithm: Feature Pyramidを使ったより適切なPrior
– 顔画像・文字画像での実験
3
イントロ: 拡大率を上げていくと…
• 拡大率𝑀倍のときは𝑀2
枚合成すれば、トータルのピクセル数は入出力
で同じなので、情報量としては同じでは?
• 実際に再構成をかけてみると、拡大率が上がるとだんだん悪くなる。16
倍拡大(256枚合成)まで行くとかなりダメ
– Gaussian blurをかけてランダムに平行移動、縮小したものを入力としている
4 [1] Fig.1 より引用
(理想化した)超解像の定式化
高解像度画像 Su(𝒑) (𝒑 = (𝑝, 𝑞) ∈ 𝒁2) を低解像度画像
Lo𝑖(𝒎) (𝑖 = 1, … , 𝑁, 𝒎 = (𝑚, 𝑛) ∈ 𝒁2
) から求める
– 外界の光: 𝐸(𝒛)
ここでは高解像度画像 Su 𝒑 そのものとする
𝐸 𝒛 = Su 𝒑 for all 𝒛 ∈ 𝑝 − 0.5, 𝑝 + 0.5 ×
𝑞 − 0.5, 𝑞 + 0.5 , 𝒑 = 𝑝, 𝑞 ∈ 𝒁2
– 位置合わせは既知とし、簡単のため平行移動に限定
• 𝒙 = 𝑟𝑖 𝒛 =
1
𝑀
𝒛 + 𝒄𝑖
– ぼけ・センサー応答: Point Spread Function (以下PSF)
• 外界の光がどのようにぼけるかを表す
• Lo𝑖 𝒎 = 𝐸𝑖 ∗ PSF𝑖 𝒎 = ‫׬‬Lo 𝑖
𝐸𝑖 𝒙 ⋅ PSF𝑖 𝒙 − 𝒎 𝑑𝒙
– 拡大率: 𝑀
• Su(𝒑) = Lo1(
1
𝑀
𝒎)
5
𝐸 𝒛 = Su 𝒑
Lo𝑖(𝒎)
PSF (光学系・
センサー)
𝒙 = 𝑟𝑖 𝒛
(理想化した)超解像の定式化: PSFのモデル
• PSFは2段階に分けられるとする
PSF𝑖 𝒙 = 𝑤𝑖 ∗ 𝑎𝑖 𝒙
– 光学系によるボケ 𝑤𝑖
– CCD受光部の形状 𝑎𝑖
• 𝑤𝑖 は特に仮定を置かない
– 非負、かつ積分して1になればよい
• 𝑎𝑖 は正方形を仮定
– CCDのチップ全面を受光部が覆っているわ
けではない(配線)
– センサー幅を 𝑆 とする (0 ≤ 𝑆 ≤ 1)
6
[1] Fig.2より引用
結局行列計算とみなせる
• 以下のような形にまとめられる
Lo𝑖 𝒎 = ෍
𝒑
𝑊𝑖 𝒎, 𝒑 ⋅ Su(𝒑)
𝑊𝑖 𝑚, 𝑝 =
1
𝑀2
න
𝒑
PSF𝑖
1
𝑀
𝒛 + 𝒄𝑖 − 𝒎 𝑑𝒛
• 1式目は 𝒑, 𝒎 についてベクトルの添え字とみなすと、行列計算 Lo𝑖 =
𝑊𝑖 Su とみることができる
– 可逆性、条件数を議論することができる(定理1, 2)
7
定理1: PSFが正方形の時の可逆性
• 光学系が理想的な場合を考える (𝑤 𝒙 = 𝛿 𝒙 , ∴ PSF 𝒙 = 𝑎(𝒙))
• 定理1: 𝑀・𝑆 が2以上の整数である場合、平行移動 𝒄𝑖 をどのようにとっ
てもこれらの式は不可逆になり、そのnull spaceの次元は少なくとも
𝑀 ⋅ 𝑆 − 1 2
となる。そうでなければ、可逆であるような 𝒄𝑖 の取り方が常
に存在する。
8
Lo𝑖 𝒎 = ෍
𝒑
𝑊𝑖 𝒎, 𝒑 ⋅ Su(𝒑)
𝑊𝑖 𝑚, 𝑝 =
1
𝑀2
න
𝒑
𝑎𝑖
1
𝑀
𝒛 + 𝒄𝑖 − 𝒎 𝑑𝒛
証明概略
• 受光部で高解像度画像 Su を積分した時、𝒄𝑖 にか
かわらず0になるのはもとの画像がどのような場合か?
• 右図のような状態で積分結果が0とする。ここから上
下方向に微小にずらしても0のままであるのはどういう
場合か?
– 𝑀・𝑆が整数の場合、上端と下端にかかっている場所が同じ
値を取っていればよい
→ Su が上下方向に 𝑀・𝑆 周期で同じ値を取り、
その合計が0であればよい
→ null space は (𝑀・𝑆 − 1) 次元
左右方向も同様なので結局 𝑀・𝑆 − 1 2 次元
– 𝑀・𝑆 が非整数の場合、上端も下端も0でなければ微小に
動かすと積分結果も0でなくなる
9
Su (幅 1/M になって
いる)
PSF (= 受光部、幅 S)
実験
• 1024枚の画像を1.5倍拡大と2枚拡大にかける
• 2倍拡大だと周期2pxのnull spaceがアーティファクトとして見える(図左)
• 1.5倍拡大なら可逆なのでPrior入れなくても問題ない(図中央)
• 滑らかさをPriorとして入れると2倍でもOK (図右)
10
• Priorがあれば気にしなくてもいい?しかしMが大きくなると状況が変わる(定理3)
[1] Fig.4より引用
前提知識:条件数
条件数とは:
• 行列の最大の特異値と最小の特異値の比
– 特異値: 正方行列の場合は固有値の絶対値と一致するが、正方行列以外でも求まる
Cond(𝐴) =
𝑤1
𝑤 𝑛
• 一次方程式 𝑏 = 𝐴𝑥 から 𝑥 を求めたいとき、 𝐴 の条件数が大きいことを “悪条
件” という
• 大きいほど数値計算として不安定: 𝑏 の小さな誤差が結果 𝑥 に大きな誤差として
表れてしまう
11
定理2: 任意のPSFについて条件数の解析
• 定理1は𝑤が理想的な場合だったが、その仮定をゆるめたもの
Lo𝑖 𝒎 = ෍
𝒑
𝑊𝑖 𝒎, 𝒑 ⋅ Su(𝒑)
𝑊𝑖 𝑚, 𝑝 =
1
𝑀2
න
𝒑
PSF𝑖
1
𝑀
𝒛 + 𝒄𝑖 − 𝒎 𝑑𝒛
• 定理2: 𝑤𝑖 𝒙 を非負・積分すると1となる任意の関数とする。このとき、
上の式の条件数は少なくとも 𝑀 ⋅ 𝑆 2
で増大する。
12
証明概略
13
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
• 行列Aの条件数 Cond(A) は、その最
大の特異値と最小の特異値の比
– 任意のベクトル 𝒙, 𝒚 について、
Cond 𝐴 ≥
𝒙 2 𝐴𝒚 2
𝒚 2 𝐴𝒙 2
• 右の2つの入力 Su(𝒑) はどちらもノルム
は同じ
• 出力 Lo(𝒎) の方は
– 上では全ピクセル +1
– 下では1/ 𝑀 ⋅ 𝑆 2
以下になることが示せる
• この2つの入力を𝒙, 𝒚として上式に代入す
ればよい
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 +1 +1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
+1 -1 +1 -1
-1 +1 -1 +1
Lo𝑖 𝒎 = ෍
𝒑
𝑊𝑖 𝒎, 𝒑 ⋅ Su(𝒑)
定理2の意味
• 定理1と違って任意のwでよいが、示していることは弱い。無限の精度で
計算できれば原理上無問題
– これだけではイントロで見た画質の劣化を説明できない
• 結局拡大率が大きくなるほど「ほとんどnull」になるような解がたくさん存
在してしまうのが効く(次の定理3)
14
定理3: 任意のPSFについての解の(超)体積
• ノイズがなく、無限の精度で計算できるのであれば、定理2は問題になら
ないはず
• 実際には画像は常に量子化されている(e.g. 8bit)
• int[・]を入力を一番近い整数に丸める演算子とすると、
Lo𝑖 𝒎 = int[න
𝒑
Su 𝒛
𝑀2
PSF𝑖
𝒛
𝑀
+ 𝒄𝑖 − 𝒎 𝑑𝒛]
• この式の解はもはや唯一ではなく、ある体積を持つ集合 {Su 𝒛 } となる
• 定理3: Lo𝑖 𝒎 が与えられた時、上の式を満たす Su 𝒛 の領域の体
積は、漸近的に少なくとも 𝑀 ⋅ 𝑆 2⋅𝑛
の速度で増大する(nは定数)。
15
証明概略
式
Lo𝑖 𝒎 = int[න
𝒑
Su 𝒛
𝑀2
PSF𝑖
𝒛
𝑀
+ 𝒄𝑖 − 𝒎 𝑑𝒛]
の解 {Su 𝒛 } は
Lo𝑖 𝒎 − 0.5 = න
𝒑
Su 𝒛
𝑀2
PSF𝑖
𝒛
𝑀
+ 𝒄𝑖 − 𝒎 𝑑𝒛
の解となる Su 𝒛 を含む。0 ≤ PSF𝑖 ≤ 1/𝑆2
なので、このSu(z)の任意のピクセルに
𝑀 ⋅ 𝑆 2 を足してもやはり (∗) の解。1つのピクセルだけでなくて分散して足してもOK。
Su(z)のピクセル数を固定してそれをnとすれば、一辺 𝑀 ⋅ 𝑆 2
のn次元単体がす
べて(∗) の解ということになり、この体積は 定数 × 𝑀 ⋅ 𝑆 2⋅𝑛 。
16
⋯ (∗)
再構成誤差の増加
• 以下の3通りについて、RMS誤差を比較
– 複数枚再構成結果
– 1枚だけで再構成
– 定理3からの予測(まったくPriorを使わない場
合)
• 1枚 → 複数枚: 入力枚数増加の寄与
• 定理3 →複数枚再構成: Priorの寄与
• 拡大率が小さいとPriorはむしろ害となる
(ノイズがなければ)
• 拡大率が上がると拘束だけでは解が全然
決まらなくなり、Priorの寄与の方が大きく
なってくる
→ のっぺりした画像になってしまう
17
[1] Fig.1 より引用
Su-Res.
Prior
ではどうするか
• 認識ベースの再構成アルゴリズムを提案
– 画像の特徴量を利用してPriorを決める
– “Hallucinating Face”
– あまり細かくは説明しません
– “Hallucinate”:
• 幻覚を感じる、起こさせる / そこにないものを知覚する
• 超解像の文脈での初出は 85 年、NNで指紋を超解像するものらしい
18
認識ベースの方法
• Laplaian PyramidとGaussian Pyramidの微分を特徴量とする
– 各ピクセルで(Laplacian、dG/dx, dG/dy, d2G/dx2, d2G/dy2)の5つの画像
pyramidを作る。あるピクセルの特徴量を、これら5つのpyramidの値を並べたベクトルとする
– 入力画像の各pixelについて、学習画像中で一番この特徴量が近い画像のpixelを取ってき
て、そのピクセル上でのGradientが一致するようにPriorを設定
– さらに顔の場合は同じ座標のpixelだけを使用
• 600枚程度の顔のデータセットFERETを使用(顔はあらかじめalignしてcrop)
19
結果(顔画像)
• 8倍拡大でもだいぶ顔らしい画像に復
元できる(20年前だと思うとなかなか)
• 一番下の列で、入力の口にあたる箇所
が白いことをもってちゃんと口が開いてい
ることを復元できている
• 拡大率はこのあたりが限界だった
– 入力サイズがこの半分だと、人が見ても顔
かどうかもわからない画像になってくる。
Detection もほぼ無理なので監視カメラ
用途ではこの倍率で十分という主張
20
[2] Fig.16より引用
結果(文字)
• 文字が表示されているウィンドウ
の一部を学習用、一部をテスト
用に使用して2倍拡大
– まったく同じfontが画像中に存在
するという意味で有利な入力だ
が、学習のときに特に位置合わ
せとかはしないでよい
• “was” とかうまくいっている
21
[2] Fig.19より引用
weakpoints
• 照明条件にあまりロバストでないので実際に監視カメラでやってみると(従
来手法より悪くはならないまでも)そこまで劇的に良くはないとか、
• 何もないところに顔を見てしまうとか
22
[2] Fig.7 より引用
[1] Fig.14 より引用
まとめ・所感
• マルチフレーム超解像の解の候補数は、拡大率を上げるにしたがって急
速に増大してしまい、Priorの寄与が大きくなっていく
– 画像が量子化されていることで(ノイズがなくとも)発生
• ドメインを絞ってPriorを学習データから得る Hallucination
Algorithm により、大拡大率でも顔を復元するデモ
– テストデータではなかなかうまくいくが、少し条件が変わると厳しい
• GANで超解像するときの作っている感はそんなに新しいものでもなかった
• ノイズがある場合結果が悪くなるのか、逆にディザ的な効果でむしろ良く
なったりするのか気になった
23
参考文献
• [1] S. Baker and T. Kanade, “Limits on Super-Resolution and How to Break
Them,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.
24, no. 9, pp. 1167–1183, Nov. 2002, doi: 10.1109/TPAMI.2002.1033210.
• [2] S. Baker and T. Kanade, “Hallucinating faces,” Feb. 2000, pp. 83–88,
doi: 10.1109/AFGR.2000.840616.
• [3] K. Nasrollahi and T. Moeslund, “Super-resolution: A comprehensive
survey,” Machine Vision and Applications, vol. 25, pp. 1423–1468, Aug.
2014, doi: 10.1007/s00138-014-0623-4.
• [4] L. Yue, H. Shen, J. Li, Q. Yuan, H. Zhang, and L. Zhang, “Image super-
resolution: The techniques, applications, and future,” Signal Processing, vol.
128, pp. 389–408, Nov. 2016, doi: 10.1016/j.sigpro.2016.05.002.
• [5] B. Wronski et al., “Handheld Multi-Frame Super-Resolution,” ACM Trans.
Graph., vol. 38, no. 4, pp. 1–18, Jul. 2019, doi: 10.1145/3306346.3323024.
24
おまけ:(古典的な)超解像の歴史
• ’74 最初の超解像
– 最初10年くらいはずっと周波数ドメイン
(理論的・計算量的に扱いやすかった)
• ’87 最初の空間ドメイン超解像
– 周波数ドメインでは一般的な動きを扱え
なかった
– 特にPrior付きの最適化アルゴリズムがメイ
ンストリームに
• ’08 Sparse coding法登場
– ブラックホールの撮影でも使われていた
• (’14 SRCNN、’17 SRGAN)
25
今回の手法
Sparse coding
[3] Fig.2 より引用
Pixel3の手法
[5]の源流

More Related Content

What's hot

ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)Akira Asano
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8Fujimoto Keisuke
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)yukihiro domae
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...yukihiro domae
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」Akira Asano
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysisyukihiro domae
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじsleepy_yoshi
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Wataru Kishimoto
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 

What's hot (20)

ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
Deeplearning4.4 takmin
Deeplearning4.4 takminDeeplearning4.4 takmin
Deeplearning4.4 takmin
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
 
Prml11 4
Prml11 4Prml11 4
Prml11 4
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 

Similar to Limits on Super-Resolution and How to Break them

PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)Shogo Nakamura
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...Deep Learning JP
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valuesatanic
 
Deep learning basics described
Deep learning basics describedDeep learning basics described
Deep learning basics describedNaoki Watanabe
 

Similar to Limits on Super-Resolution and How to Break them (7)

双対性
双対性双対性
双対性
 
PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)PRML Chapter 11 (11.0-11.2)
PRML Chapter 11 (11.0-11.2)
 
JOIss2014
JOIss2014JOIss2014
JOIss2014
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...
[DL輪読会]Clebsch–Gordan Nets: a Fully Fourier Space Spherical Convolutional Neu...
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
 
Deep learning basics described
Deep learning basics describedDeep learning basics described
Deep learning basics described
 

More from Morpho, Inc.

(文献紹介)デブラー手法の紹介
(文献紹介)デブラー手法の紹介(文献紹介)デブラー手法の紹介
(文献紹介)デブラー手法の紹介Morpho, Inc.
 
(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向Morpho, Inc.
 
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定(文献紹介)深層学習による動被写体ロバストなカメラの動き推定
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定Morpho, Inc.
 
Vieurekaを用いた混雑状況の配信
Vieurekaを用いた混雑状況の配信Vieurekaを用いた混雑状況の配信
Vieurekaを用いた混雑状況の配信Morpho, Inc.
 
前景と背景の画像合成技術
前景と背景の画像合成技術前景と背景の画像合成技術
前景と背景の画像合成技術Morpho, Inc.
 
(文献紹介)HDR+, Night Sight
(文献紹介)HDR+, Night Sight(文献紹介)HDR+, Night Sight
(文献紹介)HDR+, Night SightMorpho, Inc.
 
Demosaicing(デモザイキング)
Demosaicing(デモザイキング)Demosaicing(デモザイキング)
Demosaicing(デモザイキング)Morpho, Inc.
 
Company Profile (Japanese)
Company Profile (Japanese)Company Profile (Japanese)
Company Profile (Japanese)Morpho, Inc.
 

More from Morpho, Inc. (8)

(文献紹介)デブラー手法の紹介
(文献紹介)デブラー手法の紹介(文献紹介)デブラー手法の紹介
(文献紹介)デブラー手法の紹介
 
(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向(文献紹介)Depth Completionの最新動向
(文献紹介)Depth Completionの最新動向
 
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定(文献紹介)深層学習による動被写体ロバストなカメラの動き推定
(文献紹介)深層学習による動被写体ロバストなカメラの動き推定
 
Vieurekaを用いた混雑状況の配信
Vieurekaを用いた混雑状況の配信Vieurekaを用いた混雑状況の配信
Vieurekaを用いた混雑状況の配信
 
前景と背景の画像合成技術
前景と背景の画像合成技術前景と背景の画像合成技術
前景と背景の画像合成技術
 
(文献紹介)HDR+, Night Sight
(文献紹介)HDR+, Night Sight(文献紹介)HDR+, Night Sight
(文献紹介)HDR+, Night Sight
 
Demosaicing(デモザイキング)
Demosaicing(デモザイキング)Demosaicing(デモザイキング)
Demosaicing(デモザイキング)
 
Company Profile (Japanese)
Company Profile (Japanese)Company Profile (Japanese)
Company Profile (Japanese)
 

Recently uploaded

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 

Recently uploaded (10)

SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 

Limits on Super-Resolution and How to Break them