Submit Search
Upload
One-sided unsupervised domain mapping
•
Download as PPTX, PDF
•
1 like
•
577 views
S
Shinagawa Seitaro
Follow
One-sided unsupervised domain mapping (NIPS2017)の解説の一部になります(メインのアイデアについてだけを載せた草稿版です)
Read less
Read more
Engineering
Report
Share
Report
Share
1 of 8
Download now
Recommended
2017年3月18日第三回関西NIPS読み会の発表資料です。 [paper]: https://papers.nips.cc/paper/6111-learning-what-and-where-to-draw [code] : https://github.com/reedscot/nips2016 [video]: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems-Conference/Neural-Information-Processing-Systems-Conference-NIPS-2016/Learning-What-and-Where-to-Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
Shinagawa Seitaro
NAIST ICML読み会の発表資料です。 https://ahclab.naist.jp/wiki/Jornal/Conference_paper_reading [論文]: http://jmlr.org/proceedings/papers/v48/lie16.html
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
Generating Informative and Diverse Conversational Responses via Adversarial Information Maximization (NIPS2018) 元論文:https://arxiv.org/abs/1809.05972
第7回 NIPS+読み会・関西 Generating Informative and Diverse Conversational Responses v...
第7回 NIPS+読み会・関西 Generating Informative and Diverse Conversational Responses v...
Shinagawa Seitaro
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
人工知能セミナー:確率プログラミングの世界:論理と確率をつなぐ人工知能「深層学習と確率プログラミングを融合したEdwardについて」講演資料 ディープラーニングと確率モデルを統合的に扱うことのできるPythonライブラリEdwardの紹介と解説
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
Tokyo.R #57 の発表資料です。
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
2017/8/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
Recommended
2017年3月18日第三回関西NIPS読み会の発表資料です。 [paper]: https://papers.nips.cc/paper/6111-learning-what-and-where-to-draw [code] : https://github.com/reedscot/nips2016 [video]: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems-Conference/Neural-Information-Processing-Systems-Conference-NIPS-2016/Learning-What-and-Where-to-Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
Shinagawa Seitaro
NAIST ICML読み会の発表資料です。 https://ahclab.naist.jp/wiki/Jornal/Conference_paper_reading [論文]: http://jmlr.org/proceedings/papers/v48/lie16.html
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
Generating Informative and Diverse Conversational Responses via Adversarial Information Maximization (NIPS2018) 元論文:https://arxiv.org/abs/1809.05972
第7回 NIPS+読み会・関西 Generating Informative and Diverse Conversational Responses v...
第7回 NIPS+読み会・関西 Generating Informative and Diverse Conversational Responses v...
Shinagawa Seitaro
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
人工知能セミナー:確率プログラミングの世界:論理と確率をつなぐ人工知能「深層学習と確率プログラミングを融合したEdwardについて」講演資料 ディープラーニングと確率モデルを統合的に扱うことのできるPythonライブラリEdwardの紹介と解説
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
Tokyo.R #57 の発表資料です。
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
2017/8/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
6th NIPS+ paper reading meeting in Kansai 第6回NIPS+読み会・関西 Generative Adversarial Image Synthesis with Decision Tree Latent Controller (CVPR2018)
DTLC-GAN
DTLC-GAN
Shinagawa Seitaro
NAIST知能コミュニケーション研究室で行われたM1勉強会(2018)の「論文の読み方・書き方」で発表したスライドです 訂正:p.16のCHI勉強会のリンクが間違ってました。正しくはこちらです(http://sigchi.jp/seminar/chi2018/)
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
paper reading: Learning Cooperative Visual Dialog Agents with Deep Reinforcement Learning (ICCV2017)
2018.01.12 AHClab SD-study paper reading
2018.01.12 AHClab SD-study paper reading
Shinagawa Seitaro
paper reading of [ http://www.cv-foundation.org/openaccess/content_cvpr_2015/html/Russakovsky_Best_of_Both_2015_CVPR_paper.html ]
Paper reading best of both world
Paper reading best of both world
Shinagawa Seitaro
情報幾何学の新展開第12章よりEMアルゴリズム
情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム
Shinagawa Seitaro
Introduction of Microsoft COCO Dataset for image captioning
MS COCO Dataset Introduction
MS COCO Dataset Introduction
Shinagawa Seitaro
How to calculate back propagation
How to calculate back propagation
How to calculate back propagation
Shinagawa Seitaro
kdd2015読み会発表資料 modeling truth existence in truth discovery
150829 kdd2015読み会
150829 kdd2015読み会
Shinagawa Seitaro
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
Toru Miyahara
下記の会の感想 https://kichijojipm.connpass.com/event/315276/presentation/
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
Masatsugu Matsushita
スタートアップCTO経験から キャリアについて再考する DIGGLE 株式会社 取締役CTO 水上駿 こちらのイベントでの登壇資料です。 https://rosca.connpass.com/event/319175/
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
mizukami4
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
Toru Miyahara
人的資本経営[1]を実現するには,生産性とQoW(Quality of Work,働き方の質)を同時に改善し続けていくことが有効である.そのための課題は多岐に渡るため,DX(Digital Transformation)的発想が求められる。一方、情報の約60~80%が位置情報に関連していることが報告されている.本稿では,地理空間情報と他の情報とを連携させて課題解決を支援する地理空間インテリジェンス(GSI)でDXを促進し,製造現場やサービス現場で人的資本経営を支援することに資する筆者らの一連の取り組みについて紹介する.
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
Kurata Takeshi
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Toru Miyahara
ビジュアルプログラミングIoTLT17資料です。
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
miyp
Solana Developer Hub Online #6 https://lu.ma/evx8jtpi
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
K Kinzal
More Related Content
More from Shinagawa Seitaro
6th NIPS+ paper reading meeting in Kansai 第6回NIPS+読み会・関西 Generative Adversarial Image Synthesis with Decision Tree Latent Controller (CVPR2018)
DTLC-GAN
DTLC-GAN
Shinagawa Seitaro
NAIST知能コミュニケーション研究室で行われたM1勉強会(2018)の「論文の読み方・書き方」で発表したスライドです 訂正:p.16のCHI勉強会のリンクが間違ってました。正しくはこちらです(http://sigchi.jp/seminar/chi2018/)
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
paper reading: Learning Cooperative Visual Dialog Agents with Deep Reinforcement Learning (ICCV2017)
2018.01.12 AHClab SD-study paper reading
2018.01.12 AHClab SD-study paper reading
Shinagawa Seitaro
paper reading of [ http://www.cv-foundation.org/openaccess/content_cvpr_2015/html/Russakovsky_Best_of_Both_2015_CVPR_paper.html ]
Paper reading best of both world
Paper reading best of both world
Shinagawa Seitaro
情報幾何学の新展開第12章よりEMアルゴリズム
情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム
Shinagawa Seitaro
Introduction of Microsoft COCO Dataset for image captioning
MS COCO Dataset Introduction
MS COCO Dataset Introduction
Shinagawa Seitaro
How to calculate back propagation
How to calculate back propagation
How to calculate back propagation
Shinagawa Seitaro
kdd2015読み会発表資料 modeling truth existence in truth discovery
150829 kdd2015読み会
150829 kdd2015読み会
Shinagawa Seitaro
More from Shinagawa Seitaro
(8)
DTLC-GAN
DTLC-GAN
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
2018.01.12 AHClab SD-study paper reading
2018.01.12 AHClab SD-study paper reading
Paper reading best of both world
Paper reading best of both world
情報幾何勉強会 EMアルゴリズム
情報幾何勉強会 EMアルゴリズム
MS COCO Dataset Introduction
MS COCO Dataset Introduction
How to calculate back propagation
How to calculate back propagation
150829 kdd2015読み会
150829 kdd2015読み会
Recently uploaded
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
Toru Miyahara
下記の会の感想 https://kichijojipm.connpass.com/event/315276/presentation/
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
Masatsugu Matsushita
スタートアップCTO経験から キャリアについて再考する DIGGLE 株式会社 取締役CTO 水上駿 こちらのイベントでの登壇資料です。 https://rosca.connpass.com/event/319175/
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
mizukami4
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
Toru Miyahara
人的資本経営[1]を実現するには,生産性とQoW(Quality of Work,働き方の質)を同時に改善し続けていくことが有効である.そのための課題は多岐に渡るため,DX(Digital Transformation)的発想が求められる。一方、情報の約60~80%が位置情報に関連していることが報告されている.本稿では,地理空間情報と他の情報とを連携させて課題解決を支援する地理空間インテリジェンス(GSI)でDXを促進し,製造現場やサービス現場で人的資本経営を支援することに資する筆者らの一連の取り組みについて紹介する.
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
Kurata Takeshi
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Toru Miyahara
ビジュアルプログラミングIoTLT17資料です。
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
miyp
Solana Developer Hub Online #6 https://lu.ma/evx8jtpi
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
K Kinzal
Recently uploaded
(8)
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
エンジニアのセルフブランディングと技術情報発信の重要性 テクニカルライターになろう 講演資料
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
本の感想共有会「データモデリングでドメインを駆動する」本が突きつける我々の課題について
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
【登壇資料】スタートアップCTO経験からキャリアについて再考する CTO・VPoEに聞く by DIGGLE CTO 水上
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
今さら聞けない人のためのDevOps超入門 OSC2024名古屋 セミナー資料
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
人的資本経営のための地理情報インテリジェンス 作業パターン分析と心身状態把握に関する実証事例
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
Linuxサーバー構築 学習のポイントと環境構築 OSC2024名古屋 セミナー資料
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
ビジュアルプログラミングIotLT17-オープンソース化されたビジュアルプログラミング環境Noodlの紹介
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
Compute Units/Budget最適化 - Solana Developer Hub Online 6 #SolDevHub
One-sided unsupervised domain mapping
1.
One-Sided Unsupervised Domain Mapping
(NIPS2017) のアイデアを解説(草稿版) 品川 政太朗 2017ⒸSeitaro Shinagawa AHC-lab NAIST2017/12/10 1/8 式や図は基本的に論文やポスターから の引用、自分で書いた数式は青の四角 で表示してます
2.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST 2/8
3.
CycleGAN:unpairなドメイン間のペアを教師なしで生成する手法 問題点:理想通りの対応関係になる保証がない この論文の要点: 生成後のドメインにおいて画像間の距離の比が保存されるように学 習させるとうまく対応させられる 2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST ドメインA ドメインB 1 3 2 1 3 2𝑑12 𝐴 𝑑23 𝐴 𝑑13 𝐴 𝑑12 𝐵 𝑑13 𝐵 𝑑23 𝐵 𝑥 𝐵 = 𝐺 𝐴𝐵(𝑥 𝐴) 𝑑𝑖𝑗 𝐴 = 𝛼𝑑𝑖𝑗 𝐵 3/8
4.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST 根拠 学習後のCycleGANで変換前のドメインと変換後のドメインでそ れぞれランダムに選んだ2画像間の距離の相関をとってみた 青 横軸: 𝑥𝑖 𝐴 − 𝑥𝑗 𝐴 縦軸: 𝐺 𝐴𝐵 𝑥𝑖 𝐴 − 𝐺 𝐴𝐵 𝑥𝑗 𝐴 緑 横軸: 𝑥𝑖 𝐵 − 𝑥𝑗 𝐵 縦軸: 𝐺 𝐵𝐴 𝑥𝑖 𝐵 − 𝐺 𝐵𝐴 𝑥𝑗 𝐵 なんかめっちゃ相関してる!! 4/8
5.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST つまりどういうこと? よく学習されたCycleGANにおいて、対応する2画像間の距離 の比が保存されている 青 横軸: 𝑥𝑖 𝐴 − 𝑥𝑗 𝐴 縦軸: 𝐺 𝐴𝐵 𝑥𝑖 𝐴 − 𝐺 𝐴𝐵 𝑥𝑗 𝐴 緑 横軸: 𝑥𝑖 𝐵 − 𝑥𝑗 𝐵 縦軸: 𝐺 𝐵𝐴 𝑥𝑖 𝐵 − 𝐺 𝐵𝐴 𝑥𝑗 𝐵 𝑥𝑖 𝐴 − 𝑥𝑗 𝐴 𝐺 𝐴𝐵 𝑥𝑖 𝐴 − 𝐺 𝐴𝐵 𝑥𝑗 𝐴 = 𝐺 𝐵𝐴 𝑥𝑖 𝐵 − 𝐺 𝐵𝐴 𝑥𝑗 𝐵 𝑥𝑖 𝐵 − 𝑥𝑗 𝐵 つまり、 左のような仮定ができる はず・・・ 5/8
6.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST Distance Constraints(新たな損失関数の提案) はそれぞれのドメインの訓練データの平均、標準偏差 (事前に計算しておく、これらはデータの正規化をしてるだけ) オリジナルのCycleGANはmini-batchsize=1であることを考慮して、画像を2つに 分割して使うケースも考える(self-distance) 正規化を行った、変換前画像(訓練データ)間の距離と正規化を行った変 換後画像間の距離をそれぞれ𝑑𝑖𝑗, 𝑑𝑖𝑗 ′ とおくと、以下のように書きなおせる ℒ 𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒 𝐺 𝐴𝐵, 𝑝 𝐴 = 1 𝑛 𝑘=1 𝑛 𝑑𝑖𝑗 − 𝑑𝑖𝑗 ′ i,jはkごとにラン ダムに選択 6/8
7.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST GANの損失関数(adversarial loss)(ドメインB) Cycleによるresonstructionの損失関数(ドメインA) Intensity loss https://arxiv.org/pdf/1611.02200.pdf fでは2ドメイン、gでは1ドメインを扱うことでドメイ ン適応させる(実験では使ってない、紹介のみ) 7/8 その他の損失関数
8.
2017/12/10 2017ⒸSeitaro Shinagawa
AHC-lab NAIST 以上の損失関数を使って学習を行う 論文中での実験は左記のような パラメータ設定で行われている 8/8
Download now