SlideShare a Scribd company logo
1 of 32
Download to read offline
DEEPLEARNINGJP
[DL Seminar]
Relational inductive biases,
deep learning, and graph networks
Hiromi Nakagawa, Matsuo Lab
http://deeplearning.jp/
• 2018/06/04にarXivに投稿
– https://arxiv.org/abs/1806.01261
– position paper
– 23pある
• 著者(27人)
書誌情報
• 近年のDeep Learningの発展=膨大なデータと計算力によるもの
– 大量のデータを突っ込んで学習
– hand-engineeringが不要、EEnndd--ttoo--EEnnddであることが正義
• しかし、それだけでは解決できない問題が現実世界には数多く存在
– 人間に近しいタスクを行っていくには、人間同様にssttrruuccttuurreedd kknnoowwlleeddggeeを使う必要がある
• より一般的な推論方法としてGGrraapphh NNeettwwoorrkkを提案
– FCNやCNN、RNNなどをより一般化したネットワーク
– ssttrruuccttuurreedd kknnoowwlleeddggeeとDeep Learningのfflleexxiibbiilliittyyを相互補完的に活用できる
Summary
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• 人間の知能:”Infinite use of finite means”
– 少数のentityを組み合わせてあらゆるものを作り出す
– ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonn (組み合わせ一般化?)
– 既知の要素(building blocks)から新たなinference, prediction, behaviorを生み出す
• 学習を行う時
– 新たな知識を既存のssttrruuccttuurreedd rreepprreesseennttaattiioonnssに当てはめる
– または、structure自体を調整する
1. Introduction
• Structured approachはAI研究における長きに渡るテーマ
• 従来の機械学習ではSSttrruuccttuurreedd aapppprrooaacchhが重視されていた
– 計算資源やデータが貴重
– 強力なiinndduuccttiivvee bbiiaass((帰帰納納ババイイアアスス))によってサンプル効率を向上させることの価値が大きかった
1. Introduction
帰納バイアス
• 学習の過程で、entity同士の関係などに対して制約を課すこと
• 学習データに現れないデータを予測するために必要
• モデルの柔軟性が失われる代わりに、サンプル効率が改善される
• 例
• 線形回帰における目的関数の二乗誤差
• ベイズ推定における事前分布
• 正則化
• 近年では最小限のa prioriの表現・仮定の元でEEnndd--ttoo--EEnnddにに学学習習すするるDDLLが好まれている
– explicit structureとhand-engineeringは避けられている
– 画像認識や自然言語処理などで大きな成果
• 一方で、ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonnをを要要すするるタタススククはは従従来来ののDDLLののアアププロローーチチでではは困困難難
– 複雑な言語・情景認識
– Structured dataに対する推論
– 訓練環境にない環境での転移学習
– 少数の経験からの学習
1. Introduction
• これからのAI研究ではcombinatorial generalizationが大事
– ssttrruuccttuurreeととfflleexxiibbiilliittyyをを両両立立させるような手法が求められている
• これまでもそのような研究は存在したが、近年ではググララフフの活用によってDLの枠組みを活かし
ながらexplicit structure dataについて推論できる研究が登場しつつある
– 離散のentityとそれらの関係性を扱うことが可能
– entityとrelationのrepresentation/structureを学習することが可能 = rreellaattiioonnaall iinndduuccttiivvee bbiiaass
• 本論文ではentity-/relation-basedな推論のための一般的なフレームワークとして、既存の手法
を統合/拡張したGraph Networkについて説明
– より効果的なアーキテクチャ設計のためのデザイン原則も検討
1. Introduction
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Relational reasoning
– eennttiittyyとrreellaattiioonnのstructured representationを、それらがどのように構成されるかというrruulleeを用
いて扱う
– entity:なんらかの属性(attributes)を有する要素
• 例:サイズと質量を有する物体
– relation:entityの間の性質(property)。属性を有する
• 例:”Same size as”, “Heavier than”
– rule:entityとrelationを別のentityとrelationに写像する関数
• 例:”Is entity X heavier than Y?”
2. Relational inductive biases
• Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている
– 複数層積み上げることによる階層的処理のバイアスや、特殊なブロックによるバイアス
2. Relational inductive biases
• Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている
– いずれも「デフォルト」にはなりえない
– 任任意意のの関関係係構構造造をを扱扱ええるるような、entityとrelationのruleを見つけ出すアルゴリズムが必要
• 現実世界のentityは根本的には順序を持たないものが多い
– entity同士の関係性によって順序付けられる(サイズ、年齢、価格...)
– 順順序序不不変変性性はrelational reasoningを行う上では満たされるべき性質
• entityの順序が定義されず不変なもの→集集合合(Sets)
– MLPで扱うの場合、出力の総和を取るようなsymmetric aggregationでないと順序不変でない
– 一方で、集合内の特定の要素間にrelationが存在する場合、aggregationはx
– どうする?
2. Relational inductive biases
• 現実世界のシステムは関係性のある部位/ない部位が入り混じっている→グラフを使おう
– 近接する成分とのみ関係し合う=グラフ構造
– 任意のrelational structureを表現でき、複数グラフ間の演算でinductive biasを反映できる
2. Relational inductive biases
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Graph neural networkは様々なタスクで有効性が検証されてきた
– visual scene understanding tasks (Raposo et al., 2017; Santoro et al., 2017)
– few-shot learning (Garcia and Bruna, 2018)
– learn the dynamics of physical systems (Battaglia et al., 2016; Chang et al., 2017; Watters et al., 2017; van Steenkiste et al., 2018;
Sanchez-Gonzalez et al., 2018)
– multi-agent systems (Sukhbaatar et al., 2016; Hoshen, 2017; Kipf et al., 2018)
– reason about knowledge graphs (Bordes et al., 2013; Onoro-Rubio et al., 2017; Hamaguchi et al., 2017)
– predict the chemical properties of molecules(Duvenaud et al., 2015; Gilmer et al., 2017)
– predict traffic on roads (Cui et al., 2018)
– classify and segment videos (Wang et al., 2018c) and 3D meshes and point clouds (Wang et al., 2018d)
– classify regions in images (Chen et al., 2018a)
– perform semi-supervised text classification (Kipf and Welling, 2017)
– machine translation (Vaswani et al., 2017; Shaw et al., 2018; Gulcehre et al., 2018)
– model-free (Wang et al., 2018b) and model-based (Hamrick et al., 2017; Pascanu et al., 2017; Sanchez-Gonzalez et al., 2018) continuous
control,
– model-free reinforcement learning (Hamrick et al., 2018; Zambaldi et al., 2018)
– more classical approaches to planning (Toyer et al., 2017).
3. Graph networks
• Graph network (GN) Block
– グラフを入力としてグラフを出力する「graph-to-graph」モジュール
– 1つのグラフは G = (u, V, E)で表される
• u:グラフ全体のproperty、global attribute(例:重力場)
• V:entityであるnode( vi )の集合(例:位置、速度などの属性を有する一つ一つのボール)
• E:relationであるedgeの集合(ek)(例:ボールの間のばねの有無と、ばね定数という属性)
3. Graph networks
• GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する
– φは各node/edge/global attributeごとに更新を行う関数
– ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要
3. Graph networks
各ボール間の張力を更新
各ボールに働く全張力を集計
各ボールの位置・速度などを更新
全体の張力の合計(=0)を集計
全体の運動エネルギーを集計
全体のエネルギーの総和を更新
• GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する
– φは各node/edge/global attributeごとに更新を行う関数
– ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要
3. Graph networks
各ボール間の張力を更新 各ボールに働く全張力を集計
各ボールの位置・速度などを更新
全体の張力の合計(=0)を集計
全体の運動エネルギーを集計
全体のエネルギーの総和を更新
• GNは強力なinductive biasesを学習に反映できる
– entity間の任意の関係性を表現できる
• GNへの入力が表現同士のinteraction/isolationを決定できる(cf. 固定のアーキテクチャ)
– entityとrelationを順序不変に表現できる
• 順序性を反映したければindexを入れ込めばいい(例:positional encoding)
– per-edge/per-nodeの関数をネットワーク全体で再利用(共有)できる
• nodeやedgeの数、edge間の接続形式などが違うグラフも共通して扱える
• combinatorial generalizationを自動的にサポートしている
3. Graph networks
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• 特にDeep Learningのアーキテクチャとして、学習可能なgraph-to-graphの関数近似器とし
ての特徴に注目し、以下を解説
– Flexible representations
– Configurable within
– Composable multi-block architectures-block structure
4. Design principles for graph network architectures
• Flexible representations
– global/node/edgeのattributeには任意の表現が使える
• 実数ベクトル、テンソル、系列、集合、グラフ
– 出力もテンソルなので、出力をMLP/CNN/RNNなどにつなぐことも可能
• edge-focused output:entity間のinteractionについて知りたい時
• node-focused output:物理システムについて推論したい時
• graph-focused output:物理システムのpotential energyを予測したい時
• これらを組み合わせることも可能
4. Design principles for graph network architectures
• Flexible representations
– 入力のrelational structureを明示的に指定することが可能
• knowledge graphs, social networks, parse trees, optimization problems, chemical graphs, road
networks, and physical systems with known interactions
4. Design principles for graph network architectures
• Flexible representations
– 指定せずにrelational structure自体を推論させることも可能
• visual scenes, text corpora, programming language source code, and multi-agent systems
– ただしrelationが全くわからない場合に全結合させると計算量が爆発するので、unstructured dataか
らスパースな構造を推定する手法が必要[Kipf et al. 2018]
4. Design principles for graph network architectures
• Configurable within-block structure
– GN Block内の関数は様々に設定できる
4. Design principles for graph network architectures
• Composable multi-block architectures
– GN blockを組み合わせることで複雑なアーキテクチャを実現可能
– 例:(c)Recurrent GN architecture → trajectory of a dynamical system over time
4. Design principles for graph network architectures
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Combinatorial generalization in graph networks
– GNの構造はcombinatorial generalizationをサポートしている
• システム全体だけでなく、entityやrelationに対しても処理を共有
– 未知のシステムにおいても、その構成要素についてわかっていれば推論可能
• Limitations of graph networks
– recursion, control flow, and conditional iterationなどはグラフで表現しにくい
5. Discussion
• Open questions
– センサ値をグラフなどの構造化表現に落とし込む最適な方法の考案
• 全結合してもいいが、そもそものentityの定義や、スパースな表現の獲得の必要がある
– 演算中にグラフ構造が変わるなどの状況への対処
• ノードが分裂する
– より解釈性の高い分析や可視化手法の開発
• 世界がobjectとrelationによって構成されている、という人間の認知と近いためそもそもの解釈性
は高い
5. Discussion
• 近年、特にDLによってAIが大きく進歩しているものの、人間の知能のようなefficient
generalizable learningとの間には大きな壁
• 著者らはこれをcombinatorial generalizationによって解決すべきと主張
• 人間の認知や従来のengineeringなどのstructured knowledgeとDLを組み合わせることで、
強力なrelational inductive biasesを反映し、かつ柔軟な学習ができるように、これまでの
Graph Networkの研究を統一的に扱えるフレームワークを提案
• Graph Networkはまだ発展途上であるものの今後に期待
まとめ
• 現在ある多くのDLモデルがinductive biasを反映していて、それを踏まえてGraph Networkと
してより一般化するという考え、entity, relation, ruleによる表現などは興味深い
• relationやrule自体が学習されるのは面白そう、可視化・解釈で知見を得られる&その知見をモ
デルに反映する、とか
• 提案しているフレームワークで具体的なデータとStructured knowledgeをどう定義するのか、
学習するとどういう結果になるのかとかはそこまでイメージがわかず
– 参考文献読めばある程度はわかるのかもしれないが
– 180件くらいある
感想

More Related Content

What's hot

[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...Deep Learning JP
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces UnderfittingDeep Learning JP
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編順也 山口
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some PreliminaryDeep Learning JP
 
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image TranslationDeep Learning JP
 

What's hot (20)

[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
 

Similar to [DL輪読会]Relational inductive biases, deep learning, and graph networks

【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...Deep Learning JP
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイNaoya Chiba
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation Takumi Ohkuma
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDeep Learning JP
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太Preferred Networks
 
優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)cvpaper. challenge
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)cvpaper. challenge
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networkstm1966
 
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a MapDeep Learning JP
 
仮想化とシステムソフトウェア研究
仮想化とシステムソフトウェア研究仮想化とシステムソフトウェア研究
仮想化とシステムソフトウェア研究Kazuhiko Kato
 
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Masayoshi Kondo
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short IntroIchigaku Takigawa
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズムTakuya Akiba
 
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保するDNA Data Bank of Japan center
 
【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016cvpaper. challenge
 
先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめ先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめDigital Nature Group
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...cvpaper. challenge
 

Similar to [DL輪読会]Relational inductive biases, deep learning, and graph networks (20)

【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
 
優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)優れた問いを見つける(中京大学講演)
優れた問いを見つける(中京大学講演)
 
効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)効率的学習 / Efficient Training(メタサーベイ)
効率的学習 / Efficient Training(メタサーベイ)
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networks
 
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map
 
仮想化とシステムソフトウェア研究
仮想化とシステムソフトウェア研究仮想化とシステムソフトウェア研究
仮想化とシステムソフトウェア研究
 
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム
 
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
 
【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016
 
先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめ先端技術とメディア表現 第1回レポートまとめ
先端技術とメディア表現 第1回レポートまとめ
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 

Recently uploaded (14)

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 

[DL輪読会]Relational inductive biases, deep learning, and graph networks

  • 1. DEEPLEARNINGJP [DL Seminar] Relational inductive biases, deep learning, and graph networks Hiromi Nakagawa, Matsuo Lab http://deeplearning.jp/
  • 2. • 2018/06/04にarXivに投稿 – https://arxiv.org/abs/1806.01261 – position paper – 23pある • 著者(27人) 書誌情報
  • 3. • 近年のDeep Learningの発展=膨大なデータと計算力によるもの – 大量のデータを突っ込んで学習 – hand-engineeringが不要、EEnndd--ttoo--EEnnddであることが正義 • しかし、それだけでは解決できない問題が現実世界には数多く存在 – 人間に近しいタスクを行っていくには、人間同様にssttrruuccttuurreedd kknnoowwlleeddggeeを使う必要がある • より一般的な推論方法としてGGrraapphh NNeettwwoorrkkを提案 – FCNやCNN、RNNなどをより一般化したネットワーク – ssttrruuccttuurreedd kknnoowwlleeddggeeとDeep Learningのfflleexxiibbiilliittyyを相互補完的に活用できる Summary
  • 4. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 5. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 6. • 人間の知能:”Infinite use of finite means” – 少数のentityを組み合わせてあらゆるものを作り出す – ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonn (組み合わせ一般化?) – 既知の要素(building blocks)から新たなinference, prediction, behaviorを生み出す • 学習を行う時 – 新たな知識を既存のssttrruuccttuurreedd rreepprreesseennttaattiioonnssに当てはめる – または、structure自体を調整する 1. Introduction
  • 7. • Structured approachはAI研究における長きに渡るテーマ • 従来の機械学習ではSSttrruuccttuurreedd aapppprrooaacchhが重視されていた – 計算資源やデータが貴重 – 強力なiinndduuccttiivvee bbiiaass((帰帰納納ババイイアアスス))によってサンプル効率を向上させることの価値が大きかった 1. Introduction 帰納バイアス • 学習の過程で、entity同士の関係などに対して制約を課すこと • 学習データに現れないデータを予測するために必要 • モデルの柔軟性が失われる代わりに、サンプル効率が改善される • 例 • 線形回帰における目的関数の二乗誤差 • ベイズ推定における事前分布 • 正則化
  • 8. • 近年では最小限のa prioriの表現・仮定の元でEEnndd--ttoo--EEnnddにに学学習習すするるDDLLが好まれている – explicit structureとhand-engineeringは避けられている – 画像認識や自然言語処理などで大きな成果 • 一方で、ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonnをを要要すするるタタススククはは従従来来ののDDLLののアアププロローーチチでではは困困難難 – 複雑な言語・情景認識 – Structured dataに対する推論 – 訓練環境にない環境での転移学習 – 少数の経験からの学習 1. Introduction
  • 9. • これからのAI研究ではcombinatorial generalizationが大事 – ssttrruuccttuurreeととfflleexxiibbiilliittyyをを両両立立させるような手法が求められている • これまでもそのような研究は存在したが、近年ではググララフフの活用によってDLの枠組みを活かし ながらexplicit structure dataについて推論できる研究が登場しつつある – 離散のentityとそれらの関係性を扱うことが可能 – entityとrelationのrepresentation/structureを学習することが可能 = rreellaattiioonnaall iinndduuccttiivvee bbiiaass • 本論文ではentity-/relation-basedな推論のための一般的なフレームワークとして、既存の手法 を統合/拡張したGraph Networkについて説明 – より効果的なアーキテクチャ設計のためのデザイン原則も検討 1. Introduction
  • 10. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 11. • Relational reasoning – eennttiittyyとrreellaattiioonnのstructured representationを、それらがどのように構成されるかというrruulleeを用 いて扱う – entity:なんらかの属性(attributes)を有する要素 • 例:サイズと質量を有する物体 – relation:entityの間の性質(property)。属性を有する • 例:”Same size as”, “Heavier than” – rule:entityとrelationを別のentityとrelationに写像する関数 • 例:”Is entity X heavier than Y?” 2. Relational inductive biases
  • 12. • Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている – 複数層積み上げることによる階層的処理のバイアスや、特殊なブロックによるバイアス 2. Relational inductive biases
  • 13. • Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている – いずれも「デフォルト」にはなりえない – 任任意意のの関関係係構構造造をを扱扱ええるるような、entityとrelationのruleを見つけ出すアルゴリズムが必要 • 現実世界のentityは根本的には順序を持たないものが多い – entity同士の関係性によって順序付けられる(サイズ、年齢、価格...) – 順順序序不不変変性性はrelational reasoningを行う上では満たされるべき性質 • entityの順序が定義されず不変なもの→集集合合(Sets) – MLPで扱うの場合、出力の総和を取るようなsymmetric aggregationでないと順序不変でない – 一方で、集合内の特定の要素間にrelationが存在する場合、aggregationはx – どうする? 2. Relational inductive biases
  • 14. • 現実世界のシステムは関係性のある部位/ない部位が入り混じっている→グラフを使おう – 近接する成分とのみ関係し合う=グラフ構造 – 任意のrelational structureを表現でき、複数グラフ間の演算でinductive biasを反映できる 2. Relational inductive biases
  • 15. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 16. • Graph neural networkは様々なタスクで有効性が検証されてきた – visual scene understanding tasks (Raposo et al., 2017; Santoro et al., 2017) – few-shot learning (Garcia and Bruna, 2018) – learn the dynamics of physical systems (Battaglia et al., 2016; Chang et al., 2017; Watters et al., 2017; van Steenkiste et al., 2018; Sanchez-Gonzalez et al., 2018) – multi-agent systems (Sukhbaatar et al., 2016; Hoshen, 2017; Kipf et al., 2018) – reason about knowledge graphs (Bordes et al., 2013; Onoro-Rubio et al., 2017; Hamaguchi et al., 2017) – predict the chemical properties of molecules(Duvenaud et al., 2015; Gilmer et al., 2017) – predict traffic on roads (Cui et al., 2018) – classify and segment videos (Wang et al., 2018c) and 3D meshes and point clouds (Wang et al., 2018d) – classify regions in images (Chen et al., 2018a) – perform semi-supervised text classification (Kipf and Welling, 2017) – machine translation (Vaswani et al., 2017; Shaw et al., 2018; Gulcehre et al., 2018) – model-free (Wang et al., 2018b) and model-based (Hamrick et al., 2017; Pascanu et al., 2017; Sanchez-Gonzalez et al., 2018) continuous control, – model-free reinforcement learning (Hamrick et al., 2018; Zambaldi et al., 2018) – more classical approaches to planning (Toyer et al., 2017). 3. Graph networks
  • 17. • Graph network (GN) Block – グラフを入力としてグラフを出力する「graph-to-graph」モジュール – 1つのグラフは G = (u, V, E)で表される • u:グラフ全体のproperty、global attribute(例:重力場) • V:entityであるnode( vi )の集合(例:位置、速度などの属性を有する一つ一つのボール) • E:relationであるedgeの集合(ek)(例:ボールの間のばねの有無と、ばね定数という属性) 3. Graph networks
  • 18. • GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する – φは各node/edge/global attributeごとに更新を行う関数 – ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要 3. Graph networks 各ボール間の張力を更新 各ボールに働く全張力を集計 各ボールの位置・速度などを更新 全体の張力の合計(=0)を集計 全体の運動エネルギーを集計 全体のエネルギーの総和を更新
  • 19. • GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する – φは各node/edge/global attributeごとに更新を行う関数 – ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要 3. Graph networks 各ボール間の張力を更新 各ボールに働く全張力を集計 各ボールの位置・速度などを更新 全体の張力の合計(=0)を集計 全体の運動エネルギーを集計 全体のエネルギーの総和を更新
  • 20. • GNは強力なinductive biasesを学習に反映できる – entity間の任意の関係性を表現できる • GNへの入力が表現同士のinteraction/isolationを決定できる(cf. 固定のアーキテクチャ) – entityとrelationを順序不変に表現できる • 順序性を反映したければindexを入れ込めばいい(例:positional encoding) – per-edge/per-nodeの関数をネットワーク全体で再利用(共有)できる • nodeやedgeの数、edge間の接続形式などが違うグラフも共通して扱える • combinatorial generalizationを自動的にサポートしている 3. Graph networks
  • 21. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 22. • 特にDeep Learningのアーキテクチャとして、学習可能なgraph-to-graphの関数近似器とし ての特徴に注目し、以下を解説 – Flexible representations – Configurable within – Composable multi-block architectures-block structure 4. Design principles for graph network architectures
  • 23. • Flexible representations – global/node/edgeのattributeには任意の表現が使える • 実数ベクトル、テンソル、系列、集合、グラフ – 出力もテンソルなので、出力をMLP/CNN/RNNなどにつなぐことも可能 • edge-focused output:entity間のinteractionについて知りたい時 • node-focused output:物理システムについて推論したい時 • graph-focused output:物理システムのpotential energyを予測したい時 • これらを組み合わせることも可能 4. Design principles for graph network architectures
  • 24. • Flexible representations – 入力のrelational structureを明示的に指定することが可能 • knowledge graphs, social networks, parse trees, optimization problems, chemical graphs, road networks, and physical systems with known interactions 4. Design principles for graph network architectures
  • 25. • Flexible representations – 指定せずにrelational structure自体を推論させることも可能 • visual scenes, text corpora, programming language source code, and multi-agent systems – ただしrelationが全くわからない場合に全結合させると計算量が爆発するので、unstructured dataか らスパースな構造を推定する手法が必要[Kipf et al. 2018] 4. Design principles for graph network architectures
  • 26. • Configurable within-block structure – GN Block内の関数は様々に設定できる 4. Design principles for graph network architectures
  • 27. • Composable multi-block architectures – GN blockを組み合わせることで複雑なアーキテクチャを実現可能 – 例:(c)Recurrent GN architecture → trajectory of a dynamical system over time 4. Design principles for graph network architectures
  • 28. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 29. • Combinatorial generalization in graph networks – GNの構造はcombinatorial generalizationをサポートしている • システム全体だけでなく、entityやrelationに対しても処理を共有 – 未知のシステムにおいても、その構成要素についてわかっていれば推論可能 • Limitations of graph networks – recursion, control flow, and conditional iterationなどはグラフで表現しにくい 5. Discussion
  • 30. • Open questions – センサ値をグラフなどの構造化表現に落とし込む最適な方法の考案 • 全結合してもいいが、そもそものentityの定義や、スパースな表現の獲得の必要がある – 演算中にグラフ構造が変わるなどの状況への対処 • ノードが分裂する – より解釈性の高い分析や可視化手法の開発 • 世界がobjectとrelationによって構成されている、という人間の認知と近いためそもそもの解釈性 は高い 5. Discussion
  • 31. • 近年、特にDLによってAIが大きく進歩しているものの、人間の知能のようなefficient generalizable learningとの間には大きな壁 • 著者らはこれをcombinatorial generalizationによって解決すべきと主張 • 人間の認知や従来のengineeringなどのstructured knowledgeとDLを組み合わせることで、 強力なrelational inductive biasesを反映し、かつ柔軟な学習ができるように、これまでの Graph Networkの研究を統一的に扱えるフレームワークを提案 • Graph Networkはまだ発展途上であるものの今後に期待 まとめ
  • 32. • 現在ある多くのDLモデルがinductive biasを反映していて、それを踏まえてGraph Networkと してより一般化するという考え、entity, relation, ruleによる表現などは興味深い • relationやrule自体が学習されるのは面白そう、可視化・解釈で知見を得られる&その知見をモ デルに反映する、とか • 提案しているフレームワークで具体的なデータとStructured knowledgeをどう定義するのか、 学習するとどういう結果になるのかとかはそこまでイメージがわかず – 参考文献読めばある程度はわかるのかもしれないが – 180件くらいある 感想