Submit Search
Upload
[DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)
•
Download as PPTX, PDF
•
0 likes
•
472 views
Deep Learning JP
Follow
2022/03/25 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 34
Download now
Recommended
JDLA主催「CVPR2023技術報告会」発表資料
JDLA主催「CVPR2023技術報告会」発表資料
Morpho, Inc.
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
Tomohiro Motoda
Recommended
JDLA主催「CVPR2023技術報告会」発表資料
JDLA主催「CVPR2023技術報告会」発表資料
Morpho, Inc.
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
Tomohiro Motoda
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
Deep Learning JP
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
cvpaper. challenge
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
Deep Learning JP
Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向
Ohnishi Katsunori
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
ぱんいち すみもと
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発
Tatsuya Suzuki
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
More Related Content
What's hot
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
Deep Learning JP
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
cvpaper. challenge
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
Deep Learning JP
Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向
Ohnishi Katsunori
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
ぱんいち すみもと
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発
Tatsuya Suzuki
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
What's hot
(20)
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
ドメイン適応の原理と応用
ドメイン適応の原理と応用
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
動画認識における代表的なモデル・データセット(メタサーベイ)
動画認識における代表的なモデル・データセット(メタサーベイ)
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
[DL輪読会]Autonomous Reinforcement Learning: Formalism and Benchmarking
Action Recognitionの歴史と最新動向
Action Recognitionの歴史と最新動向
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
物体検出フレームワークMMDetectionで快適な開発
物体検出フレームワークMMDetectionで快適な開発
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
Similar to [DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS
Yoichi Ochiai
【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-Resolution
Deep Learning JP
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
harmonylab
Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料
Yasunori Ozaki
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
Deep Learning JP
画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱い
Seiji Hotta
20150414seminar
20150414seminar
nlab_utokyo
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析
Future University Hakodate
Wikipedia からの大規模な汎用オントロジー構築
Wikipedia からの大規模な汎用オントロジー構築
長岡技術科学大学 自然言語処理研究室
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
IUGONETプロジェクトについて
IUGONETプロジェクトについて
Iugo Net
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
Junichiro Katsuta
河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019
義広 河野
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法
sympo2011
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
Kurata Takeshi
20150930
20150930
nlab_utokyo
Similar to [DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)
(19)
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】BlobGAN: Spatially Disentangled Scene Representations
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
落合陽一前陣速攻のスライド0131 #JILS
落合陽一前陣速攻のスライド0131 #JILS
【DL輪読会】Reflash Dropout in Image Super-Resolution
【DL輪読会】Reflash Dropout in Image Super-Resolution
Can increasing input dimensionality improve deep reinforcement learning?
Can increasing input dimensionality improve deep reinforcement learning?
Detecting attended visual targets in video の勉強会用資料
Detecting attended visual targets in video の勉強会用資料
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
[DL輪読会]"Omnimatte: Associating Objects and Their Effects in Video"
画像認識における幾何学的不変性の扱い
画像認識における幾何学的不変性の扱い
20150414seminar
20150414seminar
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
文章作成とレビュー効果の測定と分析
文章作成とレビュー効果の測定と分析
Wikipedia からの大規模な汎用オントロジー構築
Wikipedia からの大規模な汎用オントロジー構築
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
IUGONETプロジェクトについて
IUGONETプロジェクトについて
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
河野ゼミ研究紹介20221019
河野ゼミ研究紹介20221019
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
第15回machine learning 15minutes!: 現場のラボ化とラボの現場化:より広くより深く
20150930
20150930
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Recently uploaded
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
Recently uploaded
(14)
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
[DL輪読会]Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022)
1.
DEEP LEARNING JP [DL
Papers] Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution Presenter: Yuki Kondo https://yuki-11.github.io/ (Toyota Technological Institute, Intelligent Information Media Lab) http://deeplearning.jp/ 2022. 3. 25 1 Yuki Kondo @ TTI-J
2.
Yuki Kondo @
TTI-J 2 1.論文情報・概要 2.導入・先行研究 3.提案手法 4.実験結果 5.結論・所感 Section
3.
1.論文情報・概要 2.導入・先行研究 3.提案手法 4.実験結果 5.結論・所感 Section Yuki Kondo @
TTI-J 3
4.
論文情報 • 論文名 Details or
Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution (CVPR2022) • 著者 Jie Liang1, Hui Zeng2 and Lei Zhang1 1. The HongKong Polytechnic University, 2. OPPO Research 4 ※出典が明記されていない図表は当論文より引用 Yuki Kondo @ TTI-J • URL 論文※: https://liangjie.xyz/LjHomepageFiles/paper_files/LDL_CVPR2022_paper.pdf Supplementary material: https://liangjie.xyz/LjHomepageFiles/paper_files/LDL_CVPR2022_suppl.pdf コード: https://github.com/csjliang/LDL
5.
論文概要 [ 単一画像超解像(SISR)の問題点 ] •
従来の信号忠実度ベースの(L1, L2 loss等を利用する) SISR: • 高いPSNRやSSIMを獲得 • 画像のディテールを再現できない(全体的にぼやけた画像) • 従来のGANベースのSISR • ディテールの再現を可能 • 視覚的に不快なアーティファクトが発生 ⇒ ディテールとアーティファクトは共に高周波成分で構成されるため, 各成分の分離が難しく,これによりトレードオフの関係となる 5 Yuki Kondo @ TTI-J
6.
論文概要 [ 代表的な3種類のSISR領域へのGAN-SRの結果への考察 ] •
Type A: • 平滑な領域や大規模な構造を持つ領域 • LR画像にも構造情報が保存されるため, 再構成が容易 • Type B: • LR画像のエイリアシングの影響で,忠実な 復元が困難なディティールを持つ領域 • 特にテクスチャライクな領域であり, 不規則なパターンのため,真のピクセル値と 差があっても,知覚的に良好 • Type C: • LR画像のエイリアシングの影響で,忠実な 復元が困難なディティールを持つ領域 • 特に微細な構造性の高い領域であり,規則的な パターンのため,オーバーシュートや構造の 歪みは,人間の知覚に敏感でアーティファクト として認識される 6 Yuki Kondo @ TTI-J ドメイン ギャップ
7.
論文概要 [ 提案手法 ] •
3種類のGAN-SR領域の局所統計量解析に基づくアーティファクトとリ アルなディティールの局所識別学習(Locally Discriminative Learning; LDL)を提案. • 既存のSISR手法に容易に組み込むことが可能 [ 結果 ] • 最先端のGANベースのSISR手法を凌駕し,高いピクセルワイズな再構 成精度と,優れた知覚的品質を達成することを合成と実世界の両方の データセットで実証した. 7 Yuki Kondo @ TTI-J
8.
8 1.論文情報・概要 2.導入・先行研究 3.提案手法 4.実験結果 5.結論・所感 Section Yuki Kondo @
TTI-J
9.
信号忠実度指向のSISR手法 • 目的: SISR出力とHR GT間の信号忠実度を最適化 •
手法: L1, L2 lossなどのピクセルワイズな距離尺度や局所構造類似度(SSIM)を利用. • メリット: PSNRなどの再構成精度などで 優れた性能を達成 • デメリット: 不良設定問題上の考えうる解の 平均的な解を出力. ⇒ 全体的にぼやけた画像となる*. 9 Yuki Kondo @ TTI-J * SSIM lossは画像の局所構造の担保に効果的だが,細かいディティールまでの再現は困難. [1] [1] C. Ledig +. CVPR2017
10.
知覚的品質指向のSISR手法 • 目的: SISR出力の知覚的品質を最適化 • 手法: ①
VGG特徴量空間におけるHRとSR結果間の距離を最適化する Perceptual lossの採用. ② GANを用いたAdversarial lossの採用 • メリット: 知覚的品質にとって重要な細かいディティールを再現 • デメリット: GANの敵対的学習の不安定性により,知覚的に不快なアーティファクトを多く 生成する傾向にある 10 Yuki Kondo @ TTI-J
11.
SISRにおける2つのトレードオフの関係のまとめ 1. 信号忠実度と知覚的品質のトレードオフ 2. アーティファクト抑制とディティール復元の トレードオフ 11 Yuki
Kondo @ TTI-J 2の問題に注目した知覚的品質を高める方法 ・ アーティファクトとディティールを明示的に識別 ⇒ 敵対的な学習を正則化 ⇒ ディティールを精密に復元し,アーティファクトを抑える
12.
1.論文情報・概要 2.導入・先行研究 3.提案手法 3-1. アーティファクトの生成過程分析 3-2. 局所統計量解析に基づくアーティファクトマップ生成 3-3.
Locally discriminative learning (LDL) 4.実験結果 5.結論・所感 Section Yuki Kondo @ TTI-J 12
13.
GAN-SRが誘発するアーティファクト • 既存のほとんどGAN-SR法で用いられる損失関数 • GANによる解のシフト先は知覚的に良好な結果(右図黄枠)も存在すれば, アーティファクトが発生する不快な結果(右図赤枠)も存在する 13 Yuki
Kondo @ TTI-J 大域的な構造を再構成 ディティールを生成・付与 ⇐アーティファクトを多く生成 [1] [1] C. Ledig +. CVPR2017 規則的なパターンを持つ Type Cでの問題を指摘
14.
トイ・プロブレムによるアーティファクト生成の理解 • Type A
: 大規模な構造がLR画像にも保持 ⇒ HR画像でも容易に再現可能 • Type B : テクスチャlikeな構造は狭い範囲でランダムに分布 ⇒ 忠実に再現されていないが,人間の知覚にとっては鈍感 • Type C : 規則的でシャープな構造はLR画像から失われる ⇒ ランダムな生成は不規則・不自然なパターン生成につながり,人間の知覚にとって アーティファクトとして認識される 14 Yuki Kondo @ TTI-J トイ・プロブレム 各Typeの具体例
15.
従来のGANSRモデルの各Type画像に対する学習の安定性評価 • GANSRモデルRRDB[2]をベースラインに, 学習時の各Typeのパッチ画像に対する 平均絶対値誤差(MAD)を評価. • 実線で示すベースラインの結果より •
Type A : 学習が安定的 • Type B : 変動が大きく,不安定 • Type C : 最も変動が大きく, 最も不安定 15 Yuki Kondo @ TTI-J [2] X. Wang + ECCVW 2018
16.
1.論文情報・概要 2.導入・先行研究 3.提案手法 3-1. アーティファクトの生成過程分析 3-2. 局所統計量解析に基づくアーティファクトマップ生成 3-3.
Locally discriminative learning (LDL) 4.実験結果 5.結論・所感 Section Yuki Kondo @ TTI-J 16
17.
アーティファクトと現実的なディティールの分類 • 提案するアーティファクトマップ([0, 1]の確信度で表現)の生成過程(1)
~ (3) 17 Yuki Kondo @ TTI-J 現実的なディティールの 誤検出を抑制 アーティファクトが発生した 領域を適切に検出 (1) (2) (3)
18.
(1) |𝑹|による高周波成分の抽出 • SRで再現が困難な高周波成分を𝐼𝐻𝑅と𝐼𝑆𝑅の残差 |𝑹|として求める. •
Type Aでは,ほとんどの画素の残差は 非常に小さい • Type B, Cでは,ほとんどの画素の残差が大きい • Type Bの残差はよりランダムに分布 18 Yuki Kondo @ TTI-J (1) |𝑹| = |𝐼𝐻𝑅 − 𝐼𝑆𝑅|
19.
(2) 𝑴によるエッジ・テクスチャの誤検出抑制 • アーティファクトは外れ値のピクセルから 構成されていることを観測. ⇒
7×7のローカルウィンドウ内で, 局所分散を計算し,𝑴として定量化 • Type A,Bのエッジ・テクスチャへの 誤検出を抑制 • Type Cのアーティファクト画素を検出 19 Yuki Kondo @ TTI-J (1) (2)
20.
(3) 𝜎によるエッジ・テクスチャのさらなる誤検出抑制 • 限られた受容野内でピクセルの関係性を 計算しているため,エッジ・テクスチャに 誤検出が残存 ⇒
全体からの分散𝜎として定量化を求め, 安定化を図る • Type A,Bのエッジ・テクスチャへの 誤検出をさらに抑制 • Type Cのアーティファクト画素を検出 20 Yuki Kondo @ TTI-J (3) (2) (𝑎 = 5) アーティファクトとディティールの分離に成功
21.
アーティファクトマップの安定化・精緻化 • アンサンブルを適用した𝑴𝑟𝑒𝑓𝑖𝑛𝑒によって,(3)をさらに安定化・精緻化. 21 Yuki Kondo
@ TTI-J (1) (2) (3) (4)
22.
• 𝜎 ⋅
𝑴は妥当なアーティファクト検出を行えるが,特に学習初期段階で ディティール生成にペナルティを与える可能性がある ⇒ 指数移動平均法(EMA)を用いたモデルを時間的に アンサンブルし,より安定的なモデルを定義 • ある時点のモデル𝚿が,より安定的なモデル𝚿𝐄𝐌𝐀より 残差の少ないピクセルへのペナルティを抑制 アンサンブルモデルの導入とマップの修正 22 Yuki Kondo @ TTI-J (𝛼 = 0.999) 𝑹𝟏 = Ψ 𝑰𝑳𝑹 − 𝑰𝑯𝑹 𝑹𝟐 = Ψ𝐄𝐌𝐀 𝑰𝑳𝑹 − 𝑰𝑯𝑹 ディティールへの過剰なペナルティを抑制
23.
1.論文情報・概要 2.導入・先行研究 3.提案手法 3-1. アーティファクトの生成過程分析 3-2. 局所統計量解析に基づくアーティファクトマップ生成 3-3.
Locally discriminative learning (LDL) 4.実験結果 5.結論・所感 Section Yuki Kondo @ TTI-J 23
24.
新たに提案するLossと学習方法 • 生成した𝑴𝒓𝒆𝒇𝒊𝒏𝒆を用いたartifact discrimination
loss 𝐿𝑎𝑟𝑡𝑖𝑓を提案. • さらに𝐿𝑎𝑟𝑡𝑖𝑓を既存のGANSRモデルに導入したパイプラインを Locally discriminative learning(LDL)として提案. 24 Yuki Kondo @ TTI-J 既存のGANSRモデルへの拡張が容易 [ 最終的な損失関数 ] [ パイプライン ]
25.
LDLの導入による学習の安定性の変化 • GANSRモデルRRDB[2]をベースライン,そのベースラインにLDLを導入したモデ ルを比較 • 学習時の各Typeのパッチ画像に対する 平均絶対値誤差(MAD)を評価. •
破線で示すLDL導入モデルの比較結果より • Type A : 変動の縮小,安定化 • Type B :変動の縮小,安定化 • Type C : 平均値・変動値の大きな 低下,安定化 25 Yuki Kondo @ TTI-J [2] X. Wang + ECCVW 2018
26.
1.論文情報・概要 2.導入・先行研究 3.提案手法 4.実験結果 5.結論・所感 Section Yuki Kondo @
TTI-J 26
27.
SOTAとの定量比較 ・3種のバックボーンモデルそれぞれにLDLを適用し,知覚的品質,信号忠実度共にSOTAを達成 27 Yuki Kondo @
TTI-J SRResNet-like Backbone RRDB SwinIR
28.
SOTAとの定性比較 Type Cの画像のような エイリアシングが生じやすい 規則的なパターンを持つ画像の 定性比較 ・従来手法に比べ,提案手法(f)は ・不快なアーティファクトを抑制 ・規則的なパターンを 忠実に再構築 28 Yuki Kondo
@ TTI-J
29.
実世界のためのSISRへの適用 合成LR画像では表現されない未知の複雑な劣化に対応した従来手法「BSRGAN」および 「RalESRGAN」をベースラインとして,提案手法を導入した「RalESRGAN+LDL」を比較 ・BSRGAN : アーティファクトの発生を抑えているが,全体的にぼやけた滑らかな画像を生成 ・RealESRGAN
: ディティールはシャープだが,アーティファクトが発生 ・RalESRGAN+LDL : ディティールをシャープにしつつ,アーティファクトを抑えることに成功 29 Yuki Kondo @ TTI-J
30.
Ablation sutdy LDLの主要コンポーネントの有効性をAblation studyによって検証 ⇒
#5の実験結果が,信号忠実度の評価指標PSNRと知覚的品質の評価指標LPIPSの両者ともに, 最も良好な性能を示したことから,コンポーネントは期待通りに機能したことが確認された 30 Yuki Kondo @ TTI-J
31.
1.論文情報・概要 2.導入・先行研究 3.提案手法 4.実験結果 5.結論・所感 Section Yuki Kondo @
TTI-J 31
32.
結論 [ 本論文の貢献 ] (1)
GANを用いたSISR法におけるアーティファクトの生成を分析 (2) アーティファクト生成の問題に対処するLDLを提案 [ LDLの特性 ] ・アーティファクトに明示的なペナルティを与えつつ,ディティールを犠牲にしない ・従来のGAN-SRモデルに容易に拡張可能 [ 実験結果 ] ・合成および現実のSISRタスクの両方において,LDLを導入することで,既存のGAN-SR手法を 定量的にも定性的にも上回ることが実証された. [ 残存課題 ] ・密集した窓の周辺にアーティファクトが残っている. ⇒より効果的な設計を検討する必要あり 32 Yuki Kondo @ TTI-J
33.
所感 ・SR以外にもインペインティングやその他の画像生成タスクで応用可能 ・高周波成分に注目した議論が中心となっていたため,局所フーリエ解析などを 応用し,フーリエ空間上でType BとType Cの傾向解析を行うと,新たな アーティファクトマップ生成手法を提案できる可能性あり. ・SRが困難な画像を明確にカテゴライズしたうえで,トイプロブレムや局所統計量を 用いた解析によって,仮説から実装,検証までがクリアだった. ⇒
近年SRの研究もデータセット全体の最適化から,Hard example caseを 取り上げて,そのケースを重視した提案が増加しているように感じる. ⇒ 出力画像の定性評価の考察を深め,このような問題設定へとつなげると良い. 33 Yuki Kondo @ TTI-J
34.
輪読会での議論のまとめ・議論後の再考 ・Type Cは主に規則的なパターンであり,人間はそのようなパターンを過去の経験に 基づいて,推定していると考えられる.このような事前知識を利用する方法は 考えられないか? ⇒ Reference
baseのSRが近しいアプローチと考えられ,人間の経験に 基づく記憶が,参照されるデータ集合と置き換えられる.このアプローチは 本研究でも確認されたSRが難しいケースにおいて有効と考える. その際,局所的に復元困難領域をセマンティックに分類・認識すること, およびその領域に類似する画像の取得などが課題になると考えられる. ・Type Cのビルの窓や橋の鉄骨など,規則的なパターンに対するさらに 効果的なアプローチの検討 ⇒ フーリエ畳み込みを用いた手法[G. Matthew+ WACV2022]が インペインティングで規則的な構造の復元に成功している. フーリエ畳み込みが,上記の問題にも有効である可能性が高い. 34 Yuki Kondo @ TTI-J [G. Matthew+ WACV2022]
Download now