Submit Search
Upload
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
•
2 likes
•
1,337 views
Deep Learning JP
Follow
2020/05/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 23
Download now
Download to read offline
Recommended
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
最適輸送入門
最適輸送入門
joisino
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
Recommended
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
最適輸送入門
最適輸送入門
joisino
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
深層学習の数理
深層学習の数理
Taiji Suzuki
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
「世界モデル」と関連研究について
「世界モデル」と関連研究について
Masahiro Suzuki
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
More Related Content
What's hot
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
深層学習の数理
深層学習の数理
Taiji Suzuki
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
「世界モデル」と関連研究について
「世界モデル」と関連研究について
Masahiro Suzuki
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
What's hot
(20)
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Transformer メタサーベイ
Transformer メタサーベイ
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
深層学習の数理
深層学習の数理
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
「世界モデル」と関連研究について
「世界モデル」と関連研究について
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
Similar to [DL輪読会]Learning to Simulate Complex Physics with Graph Networks
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
Kenta Oono
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
Overview and Roadmap
Overview and Roadmap
JubatusOfficial
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
【CVPR 2019】Do Better ImageNet Models Transfer Better?
【CVPR 2019】Do Better ImageNet Models Transfer Better?
cvpaper. challenge
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
モジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェース
Hajime Yanagawa
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
Natsutani Minoru
BotとWikiを使った試験的な並列プログラミング
BotとWikiを使った試験的な並列プログラミング
Takashi Yamanoue
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
RCCSRENKEI
iOS_Consortium_20170120
iOS_Consortium_20170120
陽平 山口
#経済学のための実践的データ分析 11. データのビジュアライゼーション
#経済学のための実践的データ分析 11. データのビジュアライゼーション
Yasushi Hara
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
Preferred Networks
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map
Deep Learning JP
AI理論とビジネス 中井眞人氏 20171122
AI理論とビジネス 中井眞人氏 20171122
Team AI
Team ai 3
Team ai 3
Masato Nakai
Similar to [DL輪読会]Learning to Simulate Complex Physics with Graph Networks
(20)
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Overview and Roadmap
Overview and Roadmap
グラフデータ分析 入門編
グラフデータ分析 入門編
【CVPR 2019】Do Better ImageNet Models Transfer Better?
【CVPR 2019】Do Better ImageNet Models Transfer Better?
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
モジュールの凝集度・結合度・インタフェース
モジュールの凝集度・結合度・インタフェース
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
BotとWikiを使った試験的な並列プログラミング
BotとWikiを使った試験的な並列プログラミング
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
iOS_Consortium_20170120
iOS_Consortium_20170120
#経済学のための実践的データ分析 11. データのビジュアライゼーション
#経済学のための実践的データ分析 11. データのビジュアライゼーション
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map
AI理論とビジネス 中井眞人氏 20171122
AI理論とビジネス 中井眞人氏 20171122
Team ai 3
Team ai 3
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Recently uploaded
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
Recently uploaded
(7)
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
1.
Learning to Simulate
Complex Physics with Graph Networks 進したい
2.
書誌情報 • "Submitted to
ICML 2020" • 著者:Peter W. Battaglia達(Deepmind + Stanford大) – Graph Netの強い方(Graph Netの提案者) • Twitterでバズってた
3.
概要 • 「剛体/液体/可変形体 +
それらの相互作用」のシミュレーションの、汎用的 な学習フレームワーク • 学習ベースではSoTA • めちゃくちゃ汎化する, 幅広い物体に使える – 予測ステップ数, 物体の量, 形。固体/液体/粘性/可変形。 • モチベーション – 古典的なシミュレータは高コスト(計算資源, 速度) – どれだけ頑張ってもわからない物理法則/物理パラメータがある – (将来的に)観測データから直で学んでほしい • ひとこと – trainableなパラメタが多くて賢い。"高次元科学"してる感じ。
4.
結果が映えてる https://sites.google.com/view/learni ng-to-simulate/home#h.p_ne1gyU G1RebB 青:液体,赤:粘性,茶色:砂 シンプルな学習データだけでいろいろできるように⇨
5.
アジェンダ 問題設定 手法 既存手法 実験
6.
問題設定 - 学習用の粒子レベルのデータは与えられる - 1k~20kの粒子,
100~1k step - trainと同じデータ分布のtestで評価 + Out of distributionなタスクでも評価 - 様々な問題設定が ある(a~h) - +3Dタスク - 単一種類の粒子を 学習(a,b,c)、坂が ある(d)、3種類の 粒子を同時に学習 (e)、等
7.
Non-学習ベースの手法 - “smoothed particle
hydrodynamics” (SPH)(液体) - 自身と周りの粒子の密度で運動方程式を近似して、速度の変化を求める - (Monaghan, 1992) - “material point method” (MPM) (deformable) - (Sulsky et al., 1995) - 有限要素法に似てるらしい(?) - “position-based dynamics” (PBD) (deformable) - (Muller et al. ¨ , 2007) - 粒子同士が一定の距離を保つという拘束条件を 解くらしい(?)
8.
手法:Graph Network-based Simulators(GNS) -
思想:リッチな(物理的な)状態は、粒子のグラフ構造+メッセージパッシング で表現される - 簡単な物理的な裏付け:「エネルギーと運動量の交換」がメッセージパッシングに相 当 - 空間不変性という強い帰納バイアスが入れられる - 提案手法はSPHを表現できる(内包) - (GNの途中で密度カーネルを作って圧力を評価すればいい) - 勝手に粒子間の物理法則を見つけてくれる(はず)
9.
- Xt: 各粒子の座標(
)等 - s: シミュレーター - dθ: ダイナミクス - Y: Updateの入力となる何か - 今回は≒加速度 - Update: 更新関数 - 何でもいい - 今回はYに加速度 を期待して、以下で Xt+1( )を求める 全体像 sθ xt xt+1 - Update関数だけ(物理をもとに)定めて、(半陰的オイラー法) 後は基本学習してもらう
10.
- Xt: 各粒子の座標(
)等 - Encoder - ノードを少しつないでグ ラフを作る - ノード/エッジに Embeddingする(v,e) - Processor - グラフNNでv,eを M回更新 - Decoder - 更新後のvでy(加速度) を推論 全体像 sθ xt xt+1
11.
Encoder 入力: - 入力Xは、粒子の座標 +
5ステップ前までの 速度 (+ 重力、外力など) - v: ノードベクトル - e: エッジベクトル - ただしc: 相対距離、方向ベクトル - 変位とかバネ係数とかが相当 - embedding_dim: 128 - NN: 隠れ層2層, relu, layer_norm - Processor,Decoderでも同じ構造 4ステップ前の速度↑ 現在の速度↑ - 5ステップ分も入れるのが ”高次元科学”っぽい
12.
Processor - vの更新 - eの更新(eは有向) -
入力はすべてconcatしてMLP - Mステップの更新で、毎回別のパラメ タのGNを使う(unshared) [DL輪読会]Relational inductive biases, deep learning, and graph networks GN(Graph Net) 昔の中川さんの輪読で登場
13.
Decoder 1回NN使うだけ。
14.
目的関数 - 1stepの予測のみで学習 - 学習時に自らの予測で誤差がたまらなくていいよね -
その他工夫点: - 入力データに正規分布でノイズを加える - テスト時には自らの予測で誤差ができて、入力がOut of Distributionになりかねないので耐性を つける - ターゲット(加速度)を正規化する - 学習は早くなったけど精度は別に変わらなかった
15.
重要なハイパラ - ハイパラにもロバストだった - 論文の実験はすべて同じハイパラで行った -
(上がtrain, 下がtest) - c,d - processorでMステップ forwardする際のNNを変 えるか否か - e,f - ノードをつなげる半径 - g,h - 入力のノイズ - i, j - 入力が相対座標か絶対 座標か
16.
データセット - 主にTaich MPMで作成(Diff-Taichではない) -
https://github.com/yuanming-hu/taichi_mpm - SIGGRAPH 2018 - MITライセンス! - python APIがある - サンプルが充実してる - (この研究グループ何者)(MIT)
17.
比較手法:CConv - LAGRANGIAN FLUID SIMULATION
WITH CONTINUOUS CONVOLUTIONS - ICLR 2020 accept - Intel - Convベース - non-graph - めちゃくちゃ高速 - CConvはGSNの 特別な場合らしい
18.
比較手法:CConv - LAGRANGIAN FLUID SIMULATION
WITH CONTINUOUS CONVOLUTIONS - 3つに分けてembedding - 外壁 - 周囲の粒子 - 注目してる粒子 - 特殊なカーネルで2Dマップを作る - △1ステップ前の状態だけで決めてる - △流体/一種類の予測に特化
19.
比較手法:DPI - Learning Particle
Dynamics for Manipulating Rigid Bodies, Deformable Objects, and Fluids - ICLR 2019 accept - Tenenbaumさん、MIT - 実機応用もしてる(おにぎりをこねる) - 画像から点群を推論し、目的の形になるように適 切な把持方向を探索してrollout
20.
- Learning Particle
Dynamics for Manipulating Rigid Bodies, Deformable Objects, and Fluids 比較手法:DPI - ほぼGNSと同じ - △ 1ステップ前の情報しか使わない - △ M回のmessage passingで同じパラメータを使っ ている - 〇 ただM回message passingしてるだけではなかな か遠くまで伝わらないので、階層的なグラフを作る - 粒子をいくつかのクラスターに(機械的に)分けて、 それぞれで代表点(root)を作る - root2leaf, leaf2root, root2rootのエッジを追加
21.
定量比較 • CConv(SoTA)とのみ比較 – MSEでの比較(⇩) –
CConvがL1,L2誤差だけで評価してた • 「最終状態だけが欲しいときとかもあるし、ほか の評価も入れた方がいいよね」 – 他の評価指標(⇨) • MMD(maximum mean discrepancy) • OT(Optimal Transport(最適輸送)) • どちらも順序に依存しない評価指標 • (ヒルベルト空間が出てきた...)
22.
うまくいかなかったケース - 長期の予測で剛体の方が崩れる - オリジナルの形を記憶し続けるのが難しい -
剛体は変形しないという(特殊な)制約を入れてい ない - へばりついて滑り落ちないことがある - 悪いシード - へばりつくのはtrainデータでは珍しいの現象なの で、もっとデータを与える必要がある
23.
まとめ • 広く使える粒子ベースの学習フレームワークを提案した – 空間不変性という強い制約
+ trainableパラメータを広く配置 • 入力(5ステップ)、エッジ、グローバル、non-shared パラメタ(message-passing時) • 将来的に未来予測、因果推論に使える
Download now