SlideShare a Scribd company logo
1 of 34
DEEP LEARNING JP
[DL Papers]
Details or Artifacts: A Locally Discriminative Learning
Approach to Realistic Image Super-Resolution
Presenter: Yuki Kondo https://yuki-11.github.io/
(Toyota Technological Institute, Intelligent Information Media Lab)
http://deeplearning.jp/
2022. 3. 25
1
Yuki Kondo @ TTI-J
Yuki Kondo @ TTI-J 2
1.論文情報・概要
2.導入・先行研究
3.提案手法
4.実験結果
5.結論・所感
Section
1.論文情報・概要
2.導入・先行研究
3.提案手法
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
3
論文情報
• 論文名
Details or Artifacts: A Locally Discriminative Learning Approach to Realistic
Image Super-Resolution (CVPR2022)
• 著者
Jie Liang1, Hui Zeng2 and Lei Zhang1
1. The HongKong Polytechnic University, 2. OPPO Research
4
※出典が明記されていない図表は当論文より引用 Yuki Kondo @ TTI-J
• URL
論文※:
https://liangjie.xyz/LjHomepageFiles/paper_files/LDL_CVPR2022_paper.pdf
Supplementary material:
https://liangjie.xyz/LjHomepageFiles/paper_files/LDL_CVPR2022_suppl.pdf
コード:
https://github.com/csjliang/LDL
論文概要
[ 単一画像超解像(SISR)の問題点 ]
• 従来の信号忠実度ベースの(L1, L2 loss等を利用する) SISR:
• 高いPSNRやSSIMを獲得
• 画像のディテールを再現できない(全体的にぼやけた画像)
• 従来のGANベースのSISR
• ディテールの再現を可能
• 視覚的に不快なアーティファクトが発生
⇒ ディテールとアーティファクトは共に高周波成分で構成されるため,
各成分の分離が難しく,これによりトレードオフの関係となる
5
Yuki Kondo @ TTI-J
論文概要
[ 代表的な3種類のSISR領域へのGAN-SRの結果への考察 ]
• Type A:
• 平滑な領域や大規模な構造を持つ領域
• LR画像にも構造情報が保存されるため,
再構成が容易
• Type B:
• LR画像のエイリアシングの影響で,忠実な
復元が困難なディティールを持つ領域
• 特にテクスチャライクな領域であり,
不規則なパターンのため,真のピクセル値と
差があっても,知覚的に良好
• Type C:
• LR画像のエイリアシングの影響で,忠実な
復元が困難なディティールを持つ領域
• 特に微細な構造性の高い領域であり,規則的な
パターンのため,オーバーシュートや構造の
歪みは,人間の知覚に敏感でアーティファクト
として認識される 6
Yuki Kondo @ TTI-J
ドメイン
ギャップ
論文概要
[ 提案手法 ]
• 3種類のGAN-SR領域の局所統計量解析に基づくアーティファクトとリ
アルなディティールの局所識別学習(Locally Discriminative Learning;
LDL)を提案.
• 既存のSISR手法に容易に組み込むことが可能
[ 結果 ]
• 最先端のGANベースのSISR手法を凌駕し,高いピクセルワイズな再構
成精度と,優れた知覚的品質を達成することを合成と実世界の両方の
データセットで実証した.
7
Yuki Kondo @ TTI-J
8
1.論文情報・概要
2.導入・先行研究
3.提案手法
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
信号忠実度指向のSISR手法
• 目的:
SISR出力とHR GT間の信号忠実度を最適化
• 手法:
L1, L2 lossなどのピクセルワイズな距離尺度や局所構造類似度(SSIM)を利用.
• メリット:
PSNRなどの再構成精度などで
優れた性能を達成
• デメリット:
不良設定問題上の考えうる解の
平均的な解を出力.
⇒ 全体的にぼやけた画像となる*.
9
Yuki Kondo @ TTI-J
* SSIM lossは画像の局所構造の担保に効果的だが,細かいディティールまでの再現は困難. [1]
[1] C. Ledig +. CVPR2017
知覚的品質指向のSISR手法
• 目的:
SISR出力の知覚的品質を最適化
• 手法:
① VGG特徴量空間におけるHRとSR結果間の距離を最適化する
Perceptual lossの採用.
② GANを用いたAdversarial lossの採用
• メリット:
知覚的品質にとって重要な細かいディティールを再現
• デメリット:
GANの敵対的学習の不安定性により,知覚的に不快なアーティファクトを多く
生成する傾向にある
10
Yuki Kondo @ TTI-J
SISRにおける2つのトレードオフの関係のまとめ
1. 信号忠実度と知覚的品質のトレードオフ
2. アーティファクト抑制とディティール復元の
トレードオフ
11
Yuki Kondo @ TTI-J
2の問題に注目した知覚的品質を高める方法
・ アーティファクトとディティールを明示的に識別
⇒ 敵対的な学習を正則化
⇒ ディティールを精密に復元し,アーティファクトを抑える
1.論文情報・概要
2.導入・先行研究
3.提案手法
3-1. アーティファクトの生成過程分析
3-2. 局所統計量解析に基づくアーティファクトマップ生成
3-3. Locally discriminative learning (LDL)
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
12
GAN-SRが誘発するアーティファクト
• 既存のほとんどGAN-SR法で用いられる損失関数
• GANによる解のシフト先は知覚的に良好な結果(右図黄枠)も存在すれば,
アーティファクトが発生する不快な結果(右図赤枠)も存在する
13
Yuki Kondo @ TTI-J
大域的な構造を再構成 ディティールを生成・付与 ⇐アーティファクトを多く生成
[1]
[1] C. Ledig +. CVPR2017
規則的なパターンを持つ
Type Cでの問題を指摘
トイ・プロブレムによるアーティファクト生成の理解
• Type A : 大規模な構造がLR画像にも保持 ⇒ HR画像でも容易に再現可能
• Type B : テクスチャlikeな構造は狭い範囲でランダムに分布
⇒ 忠実に再現されていないが,人間の知覚にとっては鈍感
• Type C : 規則的でシャープな構造はLR画像から失われる
⇒ ランダムな生成は不規則・不自然なパターン生成につながり,人間の知覚にとって
アーティファクトとして認識される
14
Yuki Kondo @ TTI-J
トイ・プロブレム
各Typeの具体例
従来のGANSRモデルの各Type画像に対する学習の安定性評価
• GANSRモデルRRDB[2]をベースラインに,
学習時の各Typeのパッチ画像に対する
平均絶対値誤差(MAD)を評価.
• 実線で示すベースラインの結果より
• Type A : 学習が安定的
• Type B : 変動が大きく,不安定
• Type C : 最も変動が大きく,
最も不安定
15
Yuki Kondo @ TTI-J
[2] X. Wang + ECCVW 2018
1.論文情報・概要
2.導入・先行研究
3.提案手法
3-1. アーティファクトの生成過程分析
3-2. 局所統計量解析に基づくアーティファクトマップ生成
3-3. Locally discriminative learning (LDL)
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
16
アーティファクトと現実的なディティールの分類
• 提案するアーティファクトマップ([0, 1]の確信度で表現)の生成過程(1) ~ (3)
17
Yuki Kondo @ TTI-J
現実的なディティールの
誤検出を抑制
アーティファクトが発生した
領域を適切に検出
(1) (2) (3)
(1) |𝑹|による高周波成分の抽出
• SRで再現が困難な高周波成分を𝐼𝐻𝑅と𝐼𝑆𝑅の残差
|𝑹|として求める.
• Type Aでは,ほとんどの画素の残差は
非常に小さい
• Type B, Cでは,ほとんどの画素の残差が大きい
• Type Bの残差はよりランダムに分布
18
Yuki Kondo @ TTI-J
(1)
|𝑹| = |𝐼𝐻𝑅 − 𝐼𝑆𝑅|
(2) 𝑴によるエッジ・テクスチャの誤検出抑制
• アーティファクトは外れ値のピクセルから
構成されていることを観測.
⇒ 7×7のローカルウィンドウ内で,
局所分散を計算し,𝑴として定量化
• Type A,Bのエッジ・テクスチャへの
誤検出を抑制
• Type Cのアーティファクト画素を検出
19
Yuki Kondo @ TTI-J
(1) (2)
(3) 𝜎によるエッジ・テクスチャのさらなる誤検出抑制
• 限られた受容野内でピクセルの関係性を
計算しているため,エッジ・テクスチャに
誤検出が残存
⇒ 全体からの分散𝜎として定量化を求め,
安定化を図る
• Type A,Bのエッジ・テクスチャへの
誤検出をさらに抑制
• Type Cのアーティファクト画素を検出
20
Yuki Kondo @ TTI-J
(3)
(2)
(𝑎 = 5)
アーティファクトとディティールの分離に成功
アーティファクトマップの安定化・精緻化
• アンサンブルを適用した𝑴𝑟𝑒𝑓𝑖𝑛𝑒によって,(3)をさらに安定化・精緻化.
21
Yuki Kondo @ TTI-J
(1) (2) (3) (4)
• 𝜎 ⋅ 𝑴は妥当なアーティファクト検出を行えるが,特に学習初期段階で
ディティール生成にペナルティを与える可能性がある
⇒ 指数移動平均法(EMA)を用いたモデルを時間的に
アンサンブルし,より安定的なモデルを定義
• ある時点のモデル𝚿が,より安定的なモデル𝚿𝐄𝐌𝐀より
残差の少ないピクセルへのペナルティを抑制
アンサンブルモデルの導入とマップの修正
22
Yuki Kondo @ TTI-J
(𝛼 = 0.999)
𝑹𝟏 = Ψ 𝑰𝑳𝑹 − 𝑰𝑯𝑹
𝑹𝟐 = Ψ𝐄𝐌𝐀 𝑰𝑳𝑹 − 𝑰𝑯𝑹
ディティールへの過剰なペナルティを抑制
1.論文情報・概要
2.導入・先行研究
3.提案手法
3-1. アーティファクトの生成過程分析
3-2. 局所統計量解析に基づくアーティファクトマップ生成
3-3. Locally discriminative learning (LDL)
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
23
新たに提案するLossと学習方法
• 生成した𝑴𝒓𝒆𝒇𝒊𝒏𝒆を用いたartifact discrimination loss 𝐿𝑎𝑟𝑡𝑖𝑓を提案.
• さらに𝐿𝑎𝑟𝑡𝑖𝑓を既存のGANSRモデルに導入したパイプラインを Locally
discriminative learning(LDL)として提案.
24
Yuki Kondo @ TTI-J
既存のGANSRモデルへの拡張が容易
[ 最終的な損失関数 ]
[ パイプライン ]
LDLの導入による学習の安定性の変化
• GANSRモデルRRDB[2]をベースライン,そのベースラインにLDLを導入したモデ
ルを比較
• 学習時の各Typeのパッチ画像に対する
平均絶対値誤差(MAD)を評価.
• 破線で示すLDL導入モデルの比較結果より
• Type A : 変動の縮小,安定化
• Type B :変動の縮小,安定化
• Type C : 平均値・変動値の大きな
低下,安定化
25
Yuki Kondo @ TTI-J
[2] X. Wang + ECCVW 2018
1.論文情報・概要
2.導入・先行研究
3.提案手法
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
26
SOTAとの定量比較
・3種のバックボーンモデルそれぞれにLDLを適用し,知覚的品質,信号忠実度共にSOTAを達成
27
Yuki Kondo @ TTI-J
SRResNet-like
Backbone RRDB SwinIR
SOTAとの定性比較
Type Cの画像のような
エイリアシングが生じやすい
規則的なパターンを持つ画像の
定性比較
・従来手法に比べ,提案手法(f)は
・不快なアーティファクトを抑制
・規則的なパターンを
忠実に再構築
28
Yuki Kondo @ TTI-J
実世界のためのSISRへの適用
合成LR画像では表現されない未知の複雑な劣化に対応した従来手法「BSRGAN」および
「RalESRGAN」をベースラインとして,提案手法を導入した「RalESRGAN+LDL」を比較
・BSRGAN : アーティファクトの発生を抑えているが,全体的にぼやけた滑らかな画像を生成
・RealESRGAN : ディティールはシャープだが,アーティファクトが発生
・RalESRGAN+LDL : ディティールをシャープにしつつ,アーティファクトを抑えることに成功
29
Yuki Kondo @ TTI-J
Ablation sutdy
LDLの主要コンポーネントの有効性をAblation studyによって検証
⇒ #5の実験結果が,信号忠実度の評価指標PSNRと知覚的品質の評価指標LPIPSの両者ともに,
最も良好な性能を示したことから,コンポーネントは期待通りに機能したことが確認された
30
Yuki Kondo @ TTI-J
1.論文情報・概要
2.導入・先行研究
3.提案手法
4.実験結果
5.結論・所感
Section
Yuki Kondo @ TTI-J
31
結論
[ 本論文の貢献 ]
(1) GANを用いたSISR法におけるアーティファクトの生成を分析
(2) アーティファクト生成の問題に対処するLDLを提案
[ LDLの特性 ]
・アーティファクトに明示的なペナルティを与えつつ,ディティールを犠牲にしない
・従来のGAN-SRモデルに容易に拡張可能
[ 実験結果 ]
・合成および現実のSISRタスクの両方において,LDLを導入することで,既存のGAN-SR手法を
定量的にも定性的にも上回ることが実証された.
[ 残存課題 ]
・密集した窓の周辺にアーティファクトが残っている.
⇒より効果的な設計を検討する必要あり
32
Yuki Kondo @ TTI-J
所感
・SR以外にもインペインティングやその他の画像生成タスクで応用可能
・高周波成分に注目した議論が中心となっていたため,局所フーリエ解析などを
応用し,フーリエ空間上でType BとType Cの傾向解析を行うと,新たな
アーティファクトマップ生成手法を提案できる可能性あり.
・SRが困難な画像を明確にカテゴライズしたうえで,トイプロブレムや局所統計量を
用いた解析によって,仮説から実装,検証までがクリアだった.
⇒ 近年SRの研究もデータセット全体の最適化から,Hard example caseを
取り上げて,そのケースを重視した提案が増加しているように感じる.
⇒ 出力画像の定性評価の考察を深め,このような問題設定へとつなげると良い.
33
Yuki Kondo @ TTI-J
輪読会での議論のまとめ・議論後の再考
・Type Cは主に規則的なパターンであり,人間はそのようなパターンを過去の経験に
基づいて,推定していると考えられる.このような事前知識を利用する方法は
考えられないか?
⇒ Reference baseのSRが近しいアプローチと考えられ,人間の経験に
基づく記憶が,参照されるデータ集合と置き換えられる.このアプローチは
本研究でも確認されたSRが難しいケースにおいて有効と考える.
その際,局所的に復元困難領域をセマンティックに分類・認識すること,
およびその領域に類似する画像の取得などが課題になると考えられる.
・Type Cのビルの窓や橋の鉄骨など,規則的なパターンに対するさらに
効果的なアプローチの検討
⇒ フーリエ畳み込みを用いた手法[G. Matthew+ WACV2022]が
インペインティングで規則的な構造の復元に成功している.
フーリエ畳み込みが,上記の問題にも有効である可能性が高い.
34
Yuki Kondo @ TTI-J [G. Matthew+ WACV2022]

More Related Content

What's hot

【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative ModelingDeep Learning JP
 
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP LatentsDeep Learning JP
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph GenerationDeep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)Deep Learning JP
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)cvpaper. challenge
 
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and BenchmarkingDeep Learning JP
 
Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向Ohnishi Katsunori
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"Deep Learning JP
 
物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発Tatsuya Suzuki
 
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 

What's hot (20)

【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
 
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
 
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
 
Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
 
物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発
 
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 

Similar to [DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)

【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene RepresentationsDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS 落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS Yoichi Ochiai
 
【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-Resolution【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-ResolutionDeep Learning JP
 
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?harmonylab
 
Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料Yasunori Ozaki
 
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"Deep Learning JP
 
画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱い画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱いSeiji Hotta
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 
文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析Future University Hakodate
 
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東Hokuto Kagaya
 
IUGONETプロジェクトについて
IUGONETプロジェクトについてIUGONETプロジェクトについて
IUGONETプロジェクトについてIugo Net
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Junichiro Katsuta
 
河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019義広 河野
 
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法研究の世界入門B 科学的方法
研究の世界入門B 科学的方法sympo2011
 
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深くKurata Takeshi
 

Similar to [DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022) (19)

【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS 落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS
 
【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-Resolution【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-Resolution
 
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
 
Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料
 
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
 
画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱い画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱い
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析
 
Wikipedia からの大規模な汎用オントロジー構築
Wikipedia からの大規模な汎用オントロジー構築Wikipedia からの大規模な汎用オントロジー構築
Wikipedia からの大規模な汎用オントロジー構築
 
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
 
IUGONETプロジェクトについて
IUGONETプロジェクトについてIUGONETプロジェクトについて
IUGONETプロジェクトについて
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
 
河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019
 
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法研究の世界入門B 科学的方法
研究の世界入門B 科学的方法
 
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
 
20150930
2015093020150930
20150930
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 

Recently uploaded

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 

Recently uploaded (14)

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 

[DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)