SlideShare a Scribd company logo
1 of 49
Graph LSTM
GraphLSTMについて解説
1
2枚の論部について解説
• Semantic Segmentation
• Interpretable Structure-Evolving LSTM [55]
• Semantic object Parsing with Graph LSTM [56]
2
Semantic Object Parsing with Graph LSTM
• Graph LSTM
• 主な特徴
• 画像全体にわたるグローバルな推論を行う
• 強い特徴を持つノードから計算を行う
• 隣接ノードのごとに異なる忘却ゲート適用
• Adobe Research
• ECCV2016
3
広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 信頼度マップをもとにノードの情報を効果的に伝播する
➡ 広範囲な依存関係を学習
適応忘却ゲート
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
適応忘却ゲート
隣接ノードの記憶セル
Semantic Object Parsing with Graph LSTM
6
Superpixel + Graph LSTM
グローバルコンテキスト情報を活用
➡ より詳細に予測する
画像→CNN→特徴マップ→1*1Conv
すべてのラベルに対する信頼度マップを作成
LSTM層で信頼度が高いノードから見ていく
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
1*1Conv→confidence map
1*1Convで最終的なセグメンテーション結果を予測
Interpretable Structure-Evolving LSTM
• 構造進化型LSTM(structure-evolving LSTM)を提案
• 積み重ねられたLSTMによりノードを確率的に統合(マージ)する
➡ マルチレベルのグラフからセグメンテーションを予測
• 以下3つのデータセットでSOTA(当時)
• PASCAL-Person-Part dataset
• Horse-Cow object parsing dataset
• ATR dataset
• Semantic Object Parsing with Graph LSTMと同じ著者
• CVPR 2017
7
マルチレベルGraph
• マルチレベルのGraphからセグメンテーションを行う
• 低レベルのGraph(SuperPixel)
➡ 細かいオブジェクトの境界情報を持つ
• 高レベルのGraph
➡ 意味的な相互作用をとらえる
• Graph LSTMを使って学習
• マルチレベルのGraphをうまく抽象化・表現するため
8
Interpretable Structure-Evolving LSTM
• Architecture
9
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
LSTMによるノードのマージ
ノード情報更新
(それぞれの注目・隣接ノード情報を
集める)
マルチスケールによる予測の要素ごとの和1*1Conv
クラス予測
Interpretable Structure-Evolving LSTM
• 実験①:PASCAL-Person-Part dataset
• Structure-evolving LSTMがSOTA
10
Interpretable Structure-Evolving LSTM
• 実験②:Horse-Cow object parsing dataset
• Structure-evolving LSTMがSOTA
11
Interpretable Structure-Evolving LSTM
• 実験③:ATR dataset
• Structure-evolving LSTMがSOTA
12
Interpretable Structure-Evolving LSTM
13
Interpretable Structure-Evolving LSTM
14
• 上表:層数を変えたときの精度比較
➡ 5層にしたほうが一番良い
• 下表:それぞれの層ごとの精度
➡ それぞれの層からの予測から予測するほうが良い
Graph LSTMの詳細
Semantic Object Parsing with Graph LSTM
LSTMへの入力
16
1層目のLSTMの入力
• CNNの特徴マップ
➡ upsampling
➡ 領域ごとに平均
2層目のLSTMの入力
• 1層目の入力+隠れ状態
Graph LSTMの全体像
17
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
𝛿 = 𝑠𝑖𝑔𝑚𝑜𝑖𝑑
Confidence-driven Scheme
18
CNN
1×1Conv
Confidence Map
Confidence-driven Scheme
• 1つのLSTM層で計算するノードの順番を決定
19
CNN
1×1Conv
Confidence Map
領域ごとに値を平均(=信頼度)
信頼度が大きいノードから計算を行う
信頼度が高い
→領域の中の値が大きい
→ノードに強い意味的特徴を持つ
Confidence-driven Scheme
• 信頼度が大きいノードから順に計算を行う
• 計算するノードを確率的に決定
• 既に計算したノードを使用することで、
先に計算したノード(強い意味的特徴を持つ)特徴をより他のノードに伝播
• 畳み込みに近い
通常のLSTMと異なる点
21
memory cell of adj node
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
忘却ゲートについて
22
忘却ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
忘却ゲート
• 𝒉𝑖
𝑡
と 𝒇𝑖
𝑡
から前の層からの記憶セルを保持するかを決定
• 𝒉𝑖
𝑡
: 前の層の隠れ状態
• 𝒇𝑖
𝑡
: 入力(グラフのノード特徴)
23
入力・記憶ゲートについて
24
入力・記憶ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
入力・記憶ゲート
• 𝒉𝑖
𝑡
に注目
25
𝒉𝑖
𝑡
について
• 𝒉𝑖
𝑡
について
• 注目ノード 𝑖 に隣接しているノードの隠れ状態を平均
(隣接ノードの特徴を集めたのが 𝒉𝑖
𝑡
)
• 𝒉𝑖
𝑡
を計算しているのに𝒉𝑖
𝑡+1
がある
• 既に計算したノードは計算後の隠れ状態を使用するため
• フラグ 𝑞𝑖
• 既に計算したノード : 𝑞𝑖 = 1
• まだに計算していないノード: 𝑞𝑖 = 0
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合 26
入力・記憶ゲート
• 入力 : 𝒈𝑖
𝑐
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
を入力
• 入力ゲート :𝒈𝑖
𝑢
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
から入力情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
27
memory cell of adj node について
28
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係度合いのようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
29
について
• 注目ノードの特徴と隣接ノードの隠れ状態の関係から
隣接ノードの記憶セルが必要な情報かどうかを決定
• 𝒎𝑖
𝑡+1
は先に計算されたノードのメモリセルを表す
• 𝒈𝑖𝑗
𝑓
: 適応忘却ゲート
• 𝒎𝑖
𝑡
: 𝑡 層目のノード 𝑖 の記憶セル
• 𝑞𝑖 : フラグ(既に計算したノード : 𝑞𝑖 = 1)
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合
30
memory cell of adj node
記憶セルについて
31
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
記憶セルの計算
• 以下の3つの和を記憶セルとして記憶しておく
• 隣接ノードの記憶セル
• 前層の注目ノードの記憶セル
• 入力特徴(注目ノードの特徴、前層の注目ノードの隠れ状態、隣接ノードの隠れ状態)
32
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
出力ゲートについて
33
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
出力ゲート
• 出力ゲート : 𝒈𝒊
𝑜
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
次の隠れ層としての情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
34
具体的なLSTMの構造
Interpretable Structure-Evolving LSTM
Structure-Evolving LSTMの流れ
• CNN
• 画像の特徴抽出
• 信頼度マップ作成
• CNNの特徴マップ →upsampling→ 1×1Conv → スーパーピクセル領域で平均をとる
• 信頼度が大きいノードから先に計算する
36
Structure-Evolving LSTMの流れ
• Graphを構成
• ノード :スーパーピクセルの領域
• ノード情報 :CNNの特徴マップをupsampling → 領域内の特徴を平均
• エッジ :スーパーピクセルの隣接領域
37
Structure-Evolving LSTMの全体像
38
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node• 基本的にGraphLSTMと同じ
Graph LSTMと違う部分
39
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係のようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
40
マージ確率
• マージ確率
• 適応忘却ゲート 𝒈𝑖𝑗
𝑓
に重み 𝑾 𝒆 をかけたもの
• 適応忘却ゲートは注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
41
ノードのマージ
• ノードのマージ方法
• マージ確率が一定以上の場合マージを行う
• マージ後の記憶セル、隠れ状態、入力グラフのノードの特徴
• マージしたノード同士の平均をとる
42
マージ後のグラフの評価
• マージしたグラフは以下の2点を指標に評価
• i)状態遷移確率(マージ確率の積)
• ii)セグメンテーションの予測結果
43
マージしたグラフの評価
• i)状態遷移確率(マージ確率の積)
• 𝑞(𝐺 𝑡+1 → 𝐺 𝑡 )
• マージ後のグラフのすべてのマージ確率の積
• 𝑞(𝐺 𝑡 → 𝐺 𝑡+1 )
• マージ前のグラフのすべてのマージ確率の積
44
マージしたグラフの評価
• ii)セグメンテーションの予測結果
• 𝑃 𝐺 𝑡+1
𝐼; 𝑾𝑼
• 𝐺 𝑡+1
(マージ後)のグラフにおけるセグテーション結果のLoss
• 𝑃 𝐺 𝑡
𝐼; 𝑾𝑼
• 𝐺 𝑡 (マージ前)のグラフにおけるセグテーション結果のLoss
• この指標は学習のみ使用(テスト時は青枠のみ使用)
45
𝑃(𝐺 𝑡
|𝐼; 𝑾𝑼) = −
1
𝑍
exp(−ℒ 𝐹 𝐼, 𝐺(𝑡)
, 𝑾, 𝑼 , 𝑌 )
マージしたグラフの評価
• マージ後のグラフがセグメンテーション結果がよくければならない
➡ マージ後のLoss < マージ前のLoss
➡ マージ後の遷移確率 < マージ前の遷移確率
➡𝛼 𝐺 𝑡
→ 𝐺 𝑡+1
が小さくなるほうが良い
• どんなグラフがいいのか
• マージ後の遷移確率が小さい
➡ 似た特徴を持つノードが少ないGraph
• マージ後の𝐿𝑜𝑠𝑠が小さい
➡ セグメンテーション結果が良くなるGraph
➡𝜶 𝑮 𝒕 → 𝑮 𝒕+𝟏 が小さくなるほうが良い
46
𝛼(𝐺(𝑡)
→ 𝐺(𝑡+1)
) =
マージ後の遷移確率
マージ前の遷移確率
マージ後の𝐿𝑜𝑠𝑠
マージ前の𝐿𝑜𝑠𝑠
マージしたグラフの評価
• 上限を50回とする
• どのようにAcceptするのかは不明
• 評価が終了したら次のLSTM層へ
47
メモ
• 広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 連続的に並ぶLSTMは広範囲な依存関係を記憶する
• しかし各LSTM内での情報伝播経路は固定されたまま
• 信頼度マップをもとにノードの情報を効果的に伝播
➡広範囲な依存関係を学習
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
メモ
• オブジェクトの境界や外観の類似性などの画像内の視覚パターンと
より自然に一致し、より効率的な情報伝達ルートを提供
• Confidence-driven Scheme
• すべてのノードが更新されるまで
ノードの隠れ状態とメモリ状態を段階的かつ最適に更新
• 適応的忘却ゲート
• 隣接ノードとの異なる程度の意味的相関関係を記憶するように適応的に学習

More Related Content

What's hot

(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門irrrrr
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy GeneralizationDeep Learning JP
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)yukihiro domae
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...Deep Learning JP
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 

What's hot (20)

(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
【DL輪読会】Prompting Decision Transformer for Few-Shot Policy Generalization
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 

Similar to Graph LSTM解説

[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memoryYusuke Iwasawa
 
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装Hiroki Nakahara
 
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介Hiroki Nakahara
 
第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)RCCSRENKEI
 
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワークisaac-otao
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysisyukihiro domae
 
2012/11/14 softlab_study 発表資料「SSDの基礎」
2012/11/14 softlab_study 発表資料「SSDの基礎」2012/11/14 softlab_study 発表資料「SSDの基礎」
2012/11/14 softlab_study 発表資料「SSDの基礎」Ryo Okubo
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networksyukihiro domae
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)RinKuriyama
 
SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話LINE Corporation
 
キャッシュコヒーレントに囚われない並列カウンタ達
キャッシュコヒーレントに囚われない並列カウンタ達キャッシュコヒーレントに囚われない並列カウンタ達
キャッシュコヒーレントに囚われない並列カウンタ達Kumazaki Hiroki
 
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksOrdered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksKazuki Fujikawa
 
Elasticsearch as a Distributed System
Elasticsearch as a Distributed SystemElasticsearch as a Distributed System
Elasticsearch as a Distributed SystemSatoyuki Tsukano
 
Hybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memoryHybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memorypoppyuri
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
MemoryPlus Workshop
MemoryPlus WorkshopMemoryPlus Workshop
MemoryPlus WorkshopHitoshi Sato
 
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendationssuser3e398d
 

Similar to Graph LSTM解説 (20)

[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
 
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装
 
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
 
第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)
 
Wssit slide
Wssit slideWssit slide
Wssit slide
 
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
2012/11/14 softlab_study 発表資料「SSDの基礎」
2012/11/14 softlab_study 発表資料「SSDの基礎」2012/11/14 softlab_study 発表資料「SSDの基礎」
2012/11/14 softlab_study 発表資料「SSDの基礎」
 
Superpixel Sampling Networks
Superpixel Sampling NetworksSuperpixel Sampling Networks
Superpixel Sampling Networks
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)CUDA1日(?)体験会 (再アップロード)
CUDA1日(?)体験会 (再アップロード)
 
SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話
 
キャッシュコヒーレントに囚われない並列カウンタ達
キャッシュコヒーレントに囚われない並列カウンタ達キャッシュコヒーレントに囚われない並列カウンタ達
キャッシュコヒーレントに囚われない並列カウンタ達
 
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksOrdered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networks
 
Elasticsearch as a Distributed System
Elasticsearch as a Distributed SystemElasticsearch as a Distributed System
Elasticsearch as a Distributed System
 
Hybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memoryHybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memory
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
MemoryPlus Workshop
MemoryPlus WorkshopMemoryPlus Workshop
MemoryPlus Workshop
 
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
 
不揮発WALバッファ
不揮発WALバッファ不揮発WALバッファ
不揮発WALバッファ
 

More from yukihiro domae

Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...yukihiro domae
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...yukihiro domae
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifoldyukihiro domae
 
Texture-Aware Superpixel Segmentation
Texture-Aware Superpixel SegmentationTexture-Aware Superpixel Segmentation
Texture-Aware Superpixel Segmentationyukihiro domae
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsulesyukihiro domae
 

More from yukihiro domae (6)

Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
Graph U-Net
Graph U-NetGraph U-Net
Graph U-Net
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifold
 
Texture-Aware Superpixel Segmentation
Texture-Aware Superpixel SegmentationTexture-Aware Superpixel Segmentation
Texture-Aware Superpixel Segmentation
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 

Graph LSTM解説

Editor's Notes

  1. どちらも位置関係を考慮したようなことをやっていて近い感じがした
  2. GraphLSTMでは1つの層で すべてのノードを探索して隣接ノードとの関係を学習する そしてその時に更新後のノードの情報を使用する まずノードを見ていく順番が特徴マップの値が大きいノードから見ていく この論文では特徴マップの値が大きいものは重要な意味的部分の特徴と考えている よって先にその重要な特徴を計算していくことで 更新後のノードを使用することでその強い特徴との関係を少ない層で学習するということ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 注目ノート隣接ノードを使用して計算する すべてのノードを探索する その時に、隣接ノードがすでに計算さているものは更新されたノードを使用する よってどのノードをはじめに見るかというのが重要になってくる 信頼度マップというのを作成し、信頼度が高いノードが意味的に強い情報を持つ考えのもと先に計算を行う 計算された情報をすぐに使用することで少ない層で広範囲のノードの関係を学習することができる 信頼度マップはCNNから得た特徴➡アップサンプリング➡スーパーピクセルの領域内で平均したもの ------------------------------------------------ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 更新されたシーケンス内のより早いノードはおそらくより強い意味的証拠(例えばより高い信頼性を有する任意の重要な意味的部分に属する)を有し、それらの視覚的特徴はメッセージパッシングに対してより信頼性が高いから
  3. LSTMの入力はCNNから抽出した特徴マップをアップサンプリングしたものを使用 1層目はスーパーピクセルの領域で平均をとったものをノード情報としたグラフ 2層目は1層目の入力+隠れ状態
  4. 全体像はこのようになってます
  5. オレンジの部分をこの図で説明
  6. CNNから抽出した特徴マップをアップサンプリグ 1*1Convして 領域ごとに平均 そのノードごとの値が信頼度になる その値が大きいということは特徴があり 強い意味的特徴を持つとかんがえらる
  7. 通常のLSTMと違う部分は赤枠の部分
  8. まず忘却ゲートから
  9. 忘却ゲートは通常のLSTMと同じ 前の層の隠れ状態と入力としたGraphによって計算される
  10. 次は入力記憶ゲート
  11. 計算は上式のようになっている ここで 𝒉 𝑖 𝑡 をまず説明する
  12. 入力グラフの特徴 前の層の隠れ状態 ノードiの隣接ノードの隠れ状態の平均によって2つのゲートが計算される
  13. 次はこの部分を説明する
  14. その前に適応忘却ゲートについて説明する 入力グラフの特徴と隣接ノードの前の層の隠れ状態からノードの関係度合いのようなものを算出する
  15. ここでは注目のノードiの 隣接ノードjの記憶セルを忘却ノードによって取捨選択をしながら注目ノードのセルに加える 適応忘却ゲートが注目・隣接ノードの関係のようなものを計算したのはこのため
  16. 記憶セルの計算をまとめる
  17. 記憶セルは3つの要素の和を記憶 隣接ノードの記憶セル 注目ノードの記憶セル 入力特徴
  18. 隠れ状態について説明する
  19. 出力ゲートについて説明 入力グラフの特徴 前の層の隠れ状態 隣接ノードの隠れ状態の平均
  20. まず画像に対してCNNにより特徴抽出を行う 信頼度マップ作成する ここは前と同じ
  21. Graphを構成
  22. 前と違う部分はここ
  23. 適応忘却ゲートは 注目ノードの特徴と 隣接ノードの隠れ状態から 2つのノードの関係を計算した
  24. そのノードの関係に対して重みをかけてマージ確率というものを追加で計算する 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
  25. ノードをマージする方法を説明する
  26. マージ後のグラフは前より良いグラフである必要がある よって評価しなければならない 評価方法は以下2点
  27. [構造進化型LSTMを訓練するための最終的な損失] ・最終的なタスク関連の予測的な損失 ・すべての層についての予測されたマージ確率に関する損失