Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
tm_2648
PDF, PPTX
3,471 views
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワーク の逆変換による画像生成 畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
Science
◦
Read more
5
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 22
2
/ 22
3
/ 22
4
/ 22
5
/ 22
6
/ 22
7
/ 22
8
/ 22
9
/ 22
10
/ 22
11
/ 22
12
/ 22
13
/ 22
14
/ 22
15
/ 22
16
/ 22
17
/ 22
18
/ 22
19
/ 22
20
/ 22
21
/ 22
22
/ 22
More Related Content
PPTX
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
PPTX
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
by
西岡 賢一郎
PPTX
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
by
Deep Learning JP
PPTX
SfM Learner系単眼深度推定手法について
by
Ryutaro Yamauchi
PPTX
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
by
Deep Learning JP
PDF
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
PPTX
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
by
Yosuke Shinya
PDF
三次元表現まとめ(深層学習を中心に)
by
Tomohiro Motoda
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
by
西岡 賢一郎
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
by
Deep Learning JP
SfM Learner系単眼深度推定手法について
by
Ryutaro Yamauchi
[DL輪読会]Deep High-Resolution Representation Learning for Human Pose Estimation
by
Deep Learning JP
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
by
Yosuke Shinya
三次元表現まとめ(深層学習を中心に)
by
Tomohiro Motoda
What's hot
PDF
動作認識の最前線:手法,タスク,データセット
by
Toru Tamaki
PDF
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
PDF
最適輸送の解き方
by
joisino
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
by
SSII
PDF
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
PPTX
マルチモーダル深層学習の研究動向
by
Koichiro Mori
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
by
SSII
PDF
Cvpr 2021 manydepth
by
Kenta Tanaka
PDF
Vision and Language(メタサーベイ )
by
cvpaper. challenge
PDF
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
by
Deep Learning JP
PDF
Cosine Based Softmax による Metric Learning が上手くいく理由
by
tancoro
PDF
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
by
Kuninobu SaSaki
PDF
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
PPTX
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
by
Deep Learning JP
PDF
失敗から学ぶ機械学習応用
by
Hiroyuki Masuda
PPTX
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
by
Deep Learning JP
PPTX
5分でわかるベイズ確率
by
hoxo_m
PDF
最近のディープラーニングのトレンド紹介_20200925
by
小川 雄太郎
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
動作認識の最前線:手法,タスク,データセット
by
Toru Tamaki
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
最適輸送の解き方
by
joisino
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
by
SSII
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
マルチモーダル深層学習の研究動向
by
Koichiro Mori
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
by
SSII
Cvpr 2021 manydepth
by
Kenta Tanaka
Vision and Language(メタサーベイ )
by
cvpaper. challenge
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
by
Deep Learning JP
Cosine Based Softmax による Metric Learning が上手くいく理由
by
tancoro
A100 GPU 搭載! P4d インスタンス使いこなしのコツ
by
Kuninobu SaSaki
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
by
Deep Learning JP
失敗から学ぶ機械学習応用
by
Hiroyuki Masuda
[DL輪読会]VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild Envir...
by
Deep Learning JP
5分でわかるベイズ確率
by
hoxo_m
最近のディープラーニングのトレンド紹介_20200925
by
小川 雄太郎
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
Viewers also liked
PDF
「深層学習」第6章 畳込みニューラルネット
by
Ken'ichi Matsui
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
by
Daiki Shimada
PDF
画像認識のための深層学習
by
Saya Katafuchi
PDF
SSD: Single Shot MultiBox Detector (ECCV2016)
by
Takanori Ogata
PPTX
MIRU2014 tutorial deeplearning
by
Takayoshi Yamashita
PPTX
物理統計学分野(研究室)の案内
by
京都大学大学院情報学研究科数理工学専攻
PDF
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
PPTX
Step by Stepで学ぶ自然言語処理における深層学習の勘所
by
Ogushi Masaya
PPTX
ニコニコ動画のコメント解析
by
Keisuke Ogaki
PPTX
Wikipedia Entity VectorとWordNetで 対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
by
Ogushi Masaya
PDF
mxnetで頑張る深層学習
by
Takashi Kitano
PDF
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
by
Ogushi Masaya
PPTX
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
by
Ogushi Masaya
PDF
Deep learningの軽い紹介
by
Yoshihisa Maruya
PDF
Chainer with natural language processing hands on
by
Ogushi Masaya
PDF
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
by
Toshihiko Yamasaki
PDF
Deep Learning Class #1 - Go Deep or Go Home
by
Holberton School
PDF
PyData NYC by Akira Shibata
by
Akira Shibata
PDF
Decoupled Neural Interfaces using Synthetic Gradients
by
tm_2648
PDF
自分たちでつくった"UXガイドライン"を片手に、クラウドワークスを作り変える。
by
kazuma ueda
「深層学習」第6章 畳込みニューラルネット
by
Ken'ichi Matsui
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
by
Daiki Shimada
画像認識のための深層学習
by
Saya Katafuchi
SSD: Single Shot MultiBox Detector (ECCV2016)
by
Takanori Ogata
MIRU2014 tutorial deeplearning
by
Takayoshi Yamashita
物理統計学分野(研究室)の案内
by
京都大学大学院情報学研究科数理工学専攻
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
Step by Stepで学ぶ自然言語処理における深層学習の勘所
by
Ogushi Masaya
ニコニコ動画のコメント解析
by
Keisuke Ogaki
Wikipedia Entity VectorとWordNetで 対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
by
Ogushi Masaya
mxnetで頑張る深層学習
by
Takashi Kitano
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
by
Ogushi Masaya
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
by
Ogushi Masaya
Deep learningの軽い紹介
by
Yoshihisa Maruya
Chainer with natural language processing hands on
by
Ogushi Masaya
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
by
Toshihiko Yamasaki
Deep Learning Class #1 - Go Deep or Go Home
by
Holberton School
PyData NYC by Akira Shibata
by
Akira Shibata
Decoupled Neural Interfaces using Synthetic Gradients
by
tm_2648
自分たちでつくった"UXガイドライン"を片手に、クラウドワークスを作り変える。
by
kazuma ueda
Similar to 畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
PPTX
画像認識と深層学習
by
Yusuke Uchida
PDF
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
by
Takayoshi Yamashita
PPTX
CNNチュートリアル
by
Ikuro Sato
PDF
[論文紹介] Convolutional Neural Network(CNN)による超解像
by
Rei Takami
PPTX
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
by
KokiTakamiya
PDF
Deep Learningについて
by
Brains Consulting, Inc.
PPTX
【初学者向け】10分でつかむ!CNNの構造
by
marika_hotani
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
by
Takayoshi Yamashita
PDF
畳み込みニューラルネットワークの仕組み・特徴・応用
by
Sho Kamura
PPTX
畳み込みニューラルネットワーク入門 (An introduction to Convolutional Neural Network)
by
shi222wf
PDF
深層学習(講談社)のまとめ 第6章
by
okku apot
PDF
AIがAIを生み出す?
by
Daiki Tsuchiya
PDF
論文輪読: Deep neural networks are easily fooled: High confidence predictions for...
by
mmisono
PDF
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
by
Takahiro Kubo
PDF
Getting Started with Deep Learning using Scala
by
Taisuke Oe
PPTX
Cvim saisentan-6-4-tomoaki
by
tomoaki0705
PPTX
Deep learning入門
by
Keita Neriai
PDF
ハンズオン セッション 1: DIGITS によるディープラーニング入門
by
NVIDIA Japan
PPTX
What deeplearning
by
Retsuki Yoneichi
画像認識と深層学習
by
Yusuke Uchida
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
by
Takayoshi Yamashita
CNNチュートリアル
by
Ikuro Sato
[論文紹介] Convolutional Neural Network(CNN)による超解像
by
Rei Takami
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
by
KokiTakamiya
Deep Learningについて
by
Brains Consulting, Inc.
【初学者向け】10分でつかむ!CNNの構造
by
marika_hotani
Tutorial-DeepLearning-PCSJ-IMPS2016
by
Takayoshi Yamashita
畳み込みニューラルネットワークの仕組み・特徴・応用
by
Sho Kamura
畳み込みニューラルネットワーク入門 (An introduction to Convolutional Neural Network)
by
shi222wf
深層学習(講談社)のまとめ 第6章
by
okku apot
AIがAIを生み出す?
by
Daiki Tsuchiya
論文輪読: Deep neural networks are easily fooled: High confidence predictions for...
by
mmisono
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
by
Takahiro Kubo
Getting Started with Deep Learning using Scala
by
Taisuke Oe
Cvim saisentan-6-4-tomoaki
by
tomoaki0705
Deep learning入門
by
Keita Neriai
ハンズオン セッション 1: DIGITS によるディープラーニング入門
by
NVIDIA Japan
What deeplearning
by
Retsuki Yoneichi
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
1.
畳み込みニューラルネットワーク の逆変換による画像生成 畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり 古川 アドレス tomohiro.furukawa (アットマーク) nextremer.com 株式会社
2.
論文 Inverting Convolutional Networks with
Convolutional Networks Alexey Dosovitskiy Thomas Brox Department of Computer Science University of Freiburg, Germany Quote [1]
3.
留意事項 =引用に関して著作権上の問題がある場合 はご連絡ください ・内容の信憑性を 必ずしも保証していません ・If there is
any issue about copyright about quotation, e-mail me, please. e-mail tomohiro.furukawa (atmark) nextremer.com
4.
論文概要 畳み込みニューラルネット <課題> なぜうまくいくのか? 内部でどう学習している? 不明点がある 画像情報入力 出力 注)結合は一部省略 Quote from [1] 物体認識などのタスクで 従来手法に比べ 高い精度を実現 [2, 3,
1, ……2, 3, 4] [5, 6, 2, ……0, 1, 3] ……
5.
論文概要 入力 注)結合は一部省略 各層に特徴量 [0, 2, 1,
……0, 4, 2] [9, 3, 7, ……2, 1, 5] 目的:ネットワーク内部の状態を知りたい 出力 [4, 2, 6, ……3, 0, 8] 逆変換された画像から 各層の学習過程がわかる 解決法:画像に逆変換 (要するに各層の出力) Quote from [1] Quote from [1]
6.
画像に逆変換する手法 本手法:元画像と逆変換画像を 比較して逆変換を学習させる 入力逆変換 元画像 逆変換画像 元特徴量誤差を最小にする 学習した重み 従来:出力された特徴量が できるだけ近くなる 画像入力を探す Quote from
[1]
7.
ネットワーク構成 畳み込み5層 全結合層3層 maxプーリング 活性化関数:Relu 畳み込みニューラルネット (refer[1]のAlexNet) 逆変換ニューラルネット(最終層逆変換の場合) 全結合層3層 逆畳み込み5層 活性化関数:leaky Relu 入力 逆変換 ネット 生成 注)結合は一部省略
8.
逆変換ネットワーク 逆畳み込み層とは…1と2を行う 1.逆プーリング 2.畳み込み p 0 0 0p
q r s q 0 0 0 r 0 0 0 s 0 0 0 p 0 0 0 q 0 0 0 r 0 0 0 s 0 0 0 h11 h13h12 h21 h23h22 h31 h33h32 ✖チャネル数✖ フィルタ 残りを 0で 埋める
9.
ネットワーク構成 畳み込み5層 全結合層3層 maxプーリング 活性化関数:Relu 畳み込みニューラルネット (refer[1]のAlexNet) 逆変換ニューラルネット(最終層逆変換の場合) 全結合層3層 逆畳み込み5層 活性化関数:leaky Relu 入力 逆変換 ネット 生成 注)結合は一部省略 r(x)=x
(x 0のとき) r(x)=0.3・x (x<0のとき) 後は勾配降下法で学習
10.
結果:逆変換画像 元画像 本論文 AE [3] refer FC8Conv1 深い層 ・Conv5→FC6で不明瞭さが増している ・従来手法[3]に比べて色・位置情報が改善 Quote from [1]
11.
画像復元誤差 ・Conv5→FC6で誤差が増している ・Autoencoderが誤差が小さい [1]より引用 正規化復元誤差 本論文 Auto encoder refer [3]
12.
Autoencoder学習 ⒈ Alexnetで特徴量抽出 2.逆変換ネットワークで画像生成 本論文 +AE [3] refer Alexnetのパラメータを Autoencoderでさらに学習 <追加> Quote from [1]
13.
色と位置情報の保存 ・色を変えて分類 ・分類結果の top5以外を 0に変えて逆変換 ・top5以外の情報が 色・位置の 復元に重要 Quote from [1]
14.
色と位置情報の保存 ・位置に情報が大まかに保存されている ・特にFC8では対称に情報が保存 (反転に強い可能性) Quote from [1]
15.
特徴量ロバスト性の確認 1.バイナリ化 2.50%ドロップアウト 定数で置き換える[0, 2, 1,
0, 4, 2](例) [0, a, a, 0, a, a] 特徴量ベクトル ネットワークの特徴量を操作したとき 復元画像に変化があるのか? (例) ランダムに選んだ 半分の要素を0にする [0, 2, 1, 0, 4, 2] [0, 0, 1b, 0, 0, 2b] ベクトルのノルムは 変わらないように操作
16.
特徴量ロバスト性の確認 バイ ナリ ドロップ アウト 操作 なし Quote from [1]
17.
・バイナリ化するより ドロップアウトの方が誤差が大きい 正規化復元誤差 バイナリ ドロップ アウト 操作なし 特徴量ロバスト性の確認 Quote from [1]
18.
特徴量ベクトル合成 2つの特徴量ベクトルを合成すると FCレイヤから画像としても合成されている Quote from [1]
19.
ランダムベクトルからの復元 FCレイヤの画像は元画像らしくなっており ネットワークが学習できている根拠となる 各層の特徴量をヒストグラムにする →それを基本にランダム特徴量ベクトル生成 Quote from [1]
20.
まとめ ・最終層を含むネットワークの全てのレイヤの 特徴量は色・位置情報を保存していた ・出力された特徴量は個々の正確な数値より 0でない値のパターンが重要 ・最終層ではtop5の分類情報より top5以下の分類情報に 色・位置などの情報が保存されている
21.
会社紹介 社員数 20名 設立 2012年10月 開発技術 自然言語処理・画像認識 <PR用対話ロボット A.I Samurai> 事業内容 人工知能テクノロジーを 取り入れた対話システムの開発
22.
機械学習エンジニア募集 興味がある方は オフィスへ1度、遊びに来てください wantedly 「nextremer」 で検索 2015年12月現在
Download