Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
TT
Uploaded by
Tomohiro Takahashi
PPTX, PDF
3,406 views
Deep sets
2018.1.13 NIPS 読み会. Deep Sets
Technology
◦
Related topics:
Deep Learning
•
Read more
3
Save
Share
Embed
Embed presentation
Download
Downloaded 30 times
1
/ 31
2
/ 31
3
/ 31
4
/ 31
5
/ 31
6
/ 31
7
/ 31
Most read
8
/ 31
9
/ 31
10
/ 31
11
/ 31
12
/ 31
13
/ 31
14
/ 31
15
/ 31
16
/ 31
17
/ 31
18
/ 31
19
/ 31
20
/ 31
21
/ 31
22
/ 31
23
/ 31
24
/ 31
25
/ 31
26
/ 31
27
/ 31
28
/ 31
29
/ 31
30
/ 31
31
/ 31
More Related Content
PDF
GAN(と強化学習との関係)
by
Masahiro Suzuki
PDF
【メタサーベイ】Neural Fields
by
cvpaper. challenge
PDF
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
PDF
スパースモデリングによる多次元信号・画像復元
by
Shogo Muramatsu
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
PPTX
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
PPTX
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
by
Deep Learning JP
PPTX
XAI (説明可能なAI) の必要性
by
西岡 賢一郎
GAN(と強化学習との関係)
by
Masahiro Suzuki
【メタサーベイ】Neural Fields
by
cvpaper. challenge
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
スパースモデリングによる多次元信号・画像復元
by
Shogo Muramatsu
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
by
Deep Learning JP
XAI (説明可能なAI) の必要性
by
西岡 賢一郎
What's hot
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
by
Deep Learning JP
PDF
Contrastive learning 20200607
by
ぱんいち すみもと
PDF
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
by
Deep Learning JP
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
PDF
Yolo v1
by
Takuya Mouri
PPTX
近年のHierarchical Vision Transformer
by
Yusuke Uchida
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PDF
IIBMP2016 深層生成モデルによる表現学習
by
Preferred Networks
PPTX
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
by
Yusuke Uchida
PPTX
【解説】 一般逆行列
by
Kenjiro Sugimoto
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
PPTX
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
by
Deep Learning JP
PDF
多様な強化学習の概念と課題認識
by
佑 甲野
PDF
20190706cvpr2019_3d_shape_representation
by
Takuya Minagawa
PPTX
強化学習アルゴリズムPPOの解説と実験
by
克海 納谷
PDF
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PDF
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
by
Kazuki Adachi
PPTX
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
PPTX
変分ベイズ法の説明
by
Haruka Ozaki
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
by
Deep Learning JP
Contrastive learning 20200607
by
ぱんいち すみもと
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
by
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
Yolo v1
by
Takuya Mouri
近年のHierarchical Vision Transformer
by
Yusuke Uchida
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
IIBMP2016 深層生成モデルによる表現学習
by
Preferred Networks
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
by
Yusuke Uchida
【解説】 一般逆行列
by
Kenjiro Sugimoto
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
【DL輪読会】"Instant Neural Graphics Primitives with a Multiresolution Hash Encoding"
by
Deep Learning JP
多様な強化学習の概念と課題認識
by
佑 甲野
20190706cvpr2019_3d_shape_representation
by
Takuya Minagawa
強化学習アルゴリズムPPOの解説と実験
by
克海 納谷
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
by
Kazuki Adachi
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
変分ベイズ法の説明
by
Haruka Ozaki
Similar to Deep sets
PPTX
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
PPTX
深層学習の数理
by
Taiji Suzuki
PDF
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
by
Deep Learning JP
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
PPTX
深層学習の数理:カーネル法, スパース推定との接点
by
Taiji Suzuki
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
PDF
点群深層学習 Meta-study
by
Naoya Chiba
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PDF
グラフニューラルネットワーク入門
by
ryosuke-kojima
PDF
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
by
SSII
PDF
Up to GLOW
by
Shunsuke NAKATSUKA
PDF
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PDF
CV勉強会@関東 3巻3章4節 画像表現
by
Yusuke Uchida
PPT
Deep Learningの技術と未来
by
Seiya Tokui
PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
by
KokiTakamiya
PDF
Deep residual learning for image recognition
by
禎晃 山崎
PPTX
Image net classification with Deep Convolutional Neural Networks
by
Shingo Horiuchi
PDF
ディープニューラルネット入門
by
TanUkkii
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PPTX
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
by
Shinagawa Seitaro
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
深層学習の数理
by
Taiji Suzuki
[DL輪読会]BANMo: Building Animatable 3D Neural Models from Many Casual Videos
by
Deep Learning JP
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
深層学習の数理:カーネル法, スパース推定との接点
by
Taiji Suzuki
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
点群深層学習 Meta-study
by
Naoya Chiba
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
グラフニューラルネットワーク入門
by
ryosuke-kojima
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜
by
SSII
Up to GLOW
by
Shunsuke NAKATSUKA
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
CV勉強会@関東 3巻3章4節 画像表現
by
Yusuke Uchida
Deep Learningの技術と未来
by
Seiya Tokui
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
by
KokiTakamiya
Deep residual learning for image recognition
by
禎晃 山崎
Image net classification with Deep Convolutional Neural Networks
by
Shingo Horiuchi
ディープニューラルネット入門
by
TanUkkii
Deep Learningの基礎と応用
by
Seiya Tokui
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
by
Shinagawa Seitaro
Deep sets
1.
Deep Sets 2018/1/13 NIPS 読み会 ABEJA,
Inc. 高橋智洋
2.
自己紹介 • 高橋智洋 • 所属:
ABEJA, Inc. • Github: takat0m0 • 好きな framework は tensorflow • 興味を持っていること • 学生時代 -> 一般相対論,特に black hole physics • 前のお仕事 -> 数理計画,特に混合整数計画問題 • 今のお仕事 -> 機械学習
3.
学生時代 • Einstein 方程式
を満たす4次元の擬リーマン多様 体を探すお話.通常対称性を課す. 二次元の球対称性を課すと Black hole 解が得られる. 空間的な一様等方性を課すと 宇宙の発展方程式を得られる. (https://en.wikipedia.org/wiki/Black_hole) (https://www.astrosociety.org/education/astronomy-resource-guides /cosmology-the-origin-evolution-ultimate-fate-of-the-universe/)
4.
前のお仕事 • 混合整数計画問題をやっていた. • 一般的な解法は
branch and bound • 興味を持っていたのは,対称性. • 例えば,変数 z_0 と z_1 を入れ替えても問題が変わらないことが分かっ た場合に,tree に調べる必要のない部分がある. • orbital branching という綺麗な手法が提案されていたりする. … … z_0 = 0 z_0 = 1 z_1 = 0 z_1 = 1 z_1 = 0 z_1 = 1
5.
今のお仕事 • 機械学習の research
に従事. • 機械学習においても,対称性でなんかできないかなぁ
6.
今日の論文 (以下,画像の引用はこの論文からしている.)
7.
概要 • Deep learning
において対称性がある系で対称性を保証するためには network などがどのような制限を受けるかを議論. • 2つのケースについて考えている. • Invariant model (今日は触れない.隠し slide 参照) • m個の input に対して scalar を返す関数が input の permutation に対して変わらない. • Equivariant model (今日の main の話) • 次の slide 以降で.
8.
Equivariant model • m
個の input に対して m 個の output がある • Input の permutation に伴って output も同じように permutation するようなケースを考える.
9.
例えば • Set anomaly
detection (仲間はずれ探し) Inputs Outputs ○ ○ ○ × この問題においては,equivariance が要求される.
10.
R^M,一層の場合 x_1 x_2 x_3 y_1 y_2 y_3 (x_i, y_i ∈
R) これを以下のように書くことにする. このとき,以下が成立する. f が permutation equivariance <=> (σは何らかの non-linear function)
11.
証明の前に • Permutation equivariance
は と書ける. • さらに,以下に注意すれば, x_1 x_2 x_3 y_1 y_2 y_3 (x_i, y_i ∈ R) これを以下のように書くことにする. (σは何らかの non-linear function)
12.
証明 前半 => • 任意の
permutation は 互換の積で書けるので,互換だけ見れば十分 • 互換が OK なのは例えば以下の例を見れば明らか.
13.
証明 後半1 => • まずは対角成分が一致することを確認. •
Permutation として (k, l) の互換を持ってくると,以下のように見れ ば, が言える. k l k l k l k l
14.
証明 後半2 => • 非対角成分の一致は二つの互換の積
を使えば良い . i i’ j j’ i i’ j j’ i i’ j j’ i i’ j j’
15.
拡張 -次元- x_1 x_2 x_3 y_1 y_2 y_3 (x_i, y_i
∈ R) x_1 x_2 x_3 y_1 y_2 y_3 (x_i ∈ R^D, y_i ∈ R^D’) D 次元 vector D’ 次元 vector • 同様に考えれば,次元も拡張できる.
16.
これを積み上げれば • この構造を積み上げれば,permutation equivariant
に M 個の D 次元 vector -> M 個の scalar 256次元 vector1 256次元 vector2 256次元 vector3 Scalar output1 Scalar output2 Scalar output3
17.
画像を入力としたければ • 「画像 ->
D 次元 vector」 という deep neural network を かませば良い.ただし,共有する必要あり. DNN DNN DNN 共有の DNN Scalar output1 Scalar output2 Scalar output3
18.
確率値としたければ • Softmax 層は
permutation equivariant probability1DNN DNN DNN 共有の DNN probability2 probability3 Softmax
19.
実験 • データ • CelebA
をベースに作成.このデータには各 figure に 40 種類の boolean 属性が付いてい る. • 16 枚 の1セットを 18,000 セット作成. • 各セットを作成する際に,属性を 2 つ random に選び,1つ目の属性を満たすものを 15 枚,もう一つの属性を満たすものを 1 枚選んでいる. • Train set に出てきている人は test set には出てこないようにしている. • Network • 先のやつと同じ. • Softmax は,仲間外れの入力番目が 1 となるように学習.
20.
実験結果 Test accuracy =
75% 程度
21.
比較実験結果 • 比較のために以下を行なった. • 同じデータ. •
permutation equivariant layer を対応する fully connected layer に 変更. • 結果は以下の通り. Test accuracy = 6.3% 程度 (random choice とほぼ同じ)
22.
まとめ • Permutation equivariance
という条件がある場合に network がどのよ うな制限を受けるかを見た. • 今後としては,別の条件の時にはどう制限を受けるのかが気になる. • 画像の回転に対して invariant な output を出力する network ? • Graph の node の permutation に対して invariant な output を出力 する network ? • Graph の対称性を detect できる Mackey’s algorithm まで絡んで くると面白そう.
24.
Invariant Model • m
個の input に対して,scalar 量を返す関数を考える. • このとき,input の permutation に対して不変になるよう にしたい.
25.
Invariant Model • Wierstrass
の近似定理と対称式の基本定理を用いると先 の f は以下のような形で近似的に書ける. • このことは以下の network で表すことができる.
26.
Wierstrass の近似定理 • 有界閉集合上の連続関数は,任意精度で多項式近似でき る. •
この定理を使えば,invariant な関数は対称多項式で近似 できると考えられる.
27.
対称式の基本定理 • 任意の対称多項式は基本対称式系 の積の和で表すこ とができる. •
ここに基本対称式とは以下. …
28.
基本対称式の別表現 • 基本対称式は でも表すことができる. •
以上まとめると
29.
書き換えると • さらに, を用意すると •
以上より,
31.
拡張1 -maxpooling- • Maxpooling
などは明らかに input の permutation に対して 同じ値を出力する.なので例えば以下の拡張は可能.
Download