Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
HK
Uploaded by
Hiroshi Kajino
2,896 views
化学構造式のためのハイパーグラフ文法(JSAI2018)
構造式を表現できるグラフ文法を構成する話です(JSAI2018で発表)。
Technology
◦
Read more
2
Save
Share
Embed
Embed presentation
1
/ 22
2
/ 22
3
/ 22
4
/ 22
Most read
5
/ 22
6
/ 22
7
/ 22
8
/ 22
9
/ 22
10
/ 22
11
/ 22
Most read
12
/ 22
13
/ 22
Most read
14
/ 22
15
/ 22
16
/ 22
17
/ 22
18
/ 22
19
/ 22
20
/ 22
21
/ 22
22
/ 22
More Related Content
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
PDF
強化学習その3
by
nishio
PDF
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
by
Deep Learning JP
PPTX
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
by
Deep Learning JP
PPTX
BERT分類ワークショップ.pptx
by
Kouta Nakayama
PPTX
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
by
Yoshitaka Ushiku
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
by
Deep Learning JP
PDF
グラフ構造データに対する深層学習〜創薬・材料科学への応用とその問題点〜 (第26回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
強化学習その3
by
nishio
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
by
Deep Learning JP
【DL輪読会】Contrastive Learning as Goal-Conditioned Reinforcement Learning
by
Deep Learning JP
BERT分類ワークショップ.pptx
by
Kouta Nakayama
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
by
Yoshitaka Ushiku
【DL輪読会】Scaling Laws for Neural Language Models
by
Deep Learning JP
グラフ構造データに対する深層学習〜創薬・材料科学への応用とその問題点〜 (第26回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
What's hot
PDF
ディープラーニングのフレームワークと特許戦争
by
Yosuke Shinya
PDF
数式を綺麗にプログラミングするコツ #spro2013
by
Shuyo Nakatani
PDF
最適化超入門
by
Takami Sato
PDF
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
PDF
深層学習 勉強会第5回 ボルツマンマシン
by
Yuta Sugii
PDF
強化学習その2
by
nishio
PPTX
Triplet Loss 徹底解説
by
tancoro
PDF
変分法
by
弘毅 露崎
PDF
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
by
Deep Learning JP
PDF
強化学習その1
by
nishio
PPTX
ノンパラメトリックベイズを用いた逆強化学習
by
Shota Ishikawa
PDF
PCAの最終形態GPLVMの解説
by
弘毅 露崎
PDF
機械学習のためのベイズ最適化入門
by
hoxo_m
PPTX
2014 3 13(テンソル分解の基礎)
by
Tatsuya Yokota
PDF
パターン認識 04 混合正規分布
by
sleipnir002
PDF
SchNet: A continuous-filter convolutional neural network for modeling quantum...
by
Kazuki Fujikawa
PPTX
TensorFlowをもう少し詳しく入門
by
tak9029
PDF
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
PDF
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
ディープラーニングのフレームワークと特許戦争
by
Yosuke Shinya
数式を綺麗にプログラミングするコツ #spro2013
by
Shuyo Nakatani
最適化超入門
by
Takami Sato
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
深層学習 勉強会第5回 ボルツマンマシン
by
Yuta Sugii
強化学習その2
by
nishio
Triplet Loss 徹底解説
by
tancoro
変分法
by
弘毅 露崎
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
by
Deep Learning JP
強化学習その1
by
nishio
ノンパラメトリックベイズを用いた逆強化学習
by
Shota Ishikawa
PCAの最終形態GPLVMの解説
by
弘毅 露崎
機械学習のためのベイズ最適化入門
by
hoxo_m
2014 3 13(テンソル分解の基礎)
by
Tatsuya Yokota
パターン認識 04 混合正規分布
by
sleipnir002
SchNet: A continuous-filter convolutional neural network for modeling quantum...
by
Kazuki Fujikawa
TensorFlowをもう少し詳しく入門
by
tak9029
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
More from Hiroshi Kajino
PDF
Graph generation using a graph grammar
by
Hiroshi Kajino
PDF
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
by
Hiroshi Kajino
PDF
能動学習による多関係データセットの構築
by
Hiroshi Kajino
PDF
20130605-JSAI2013
by
Hiroshi Kajino
PDF
20130304-DEIM2013
by
Hiroshi Kajino
PDF
プライバシ保護クラウドソーシング
by
Hiroshi Kajino
PDF
Instance-privacy Preserving Crowdsourcing (HCOMP2014)
by
Hiroshi Kajino
PDF
Active Learning for Multi-relational Data Construction
by
Hiroshi Kajino
PDF
Preserving Worker Privacy in Crowdsourcing
by
Hiroshi Kajino
PDF
20130716 aaai13-short
by
Hiroshi Kajino
Graph generation using a graph grammar
by
Hiroshi Kajino
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
by
Hiroshi Kajino
能動学習による多関係データセットの構築
by
Hiroshi Kajino
20130605-JSAI2013
by
Hiroshi Kajino
20130304-DEIM2013
by
Hiroshi Kajino
プライバシ保護クラウドソーシング
by
Hiroshi Kajino
Instance-privacy Preserving Crowdsourcing (HCOMP2014)
by
Hiroshi Kajino
Active Learning for Multi-relational Data Construction
by
Hiroshi Kajino
Preserving Worker Privacy in Crowdsourcing
by
Hiroshi Kajino
20130716 aaai13-short
by
Hiroshi Kajino
化学構造式のためのハイパーグラフ文法(JSAI2018)
1.
© 2018 IBM
Corporation 化学構造式のための ハイパーグラフ文法 JSAI 2018; [3E1] AI応用-バイオ・ケミカルインフォマティクス; 2018年6月7日(木) 13:50〜15:10 E会場 (4Fクィーン) 論文: https://confit.atlas.jp/guide/event-img/jsai2018/3E1-04/public/pdf?type=in IBM Research – Tokyo 梶野 洸
2.
© 2018 IBM
Corporation 原子価を守った構造式を表現できる文脈自由文法を データから構成する方法を提案します 目的: 分子の構造式の生成モデルが欲しい 課題: {グラフ, 構造式}の生成モデルは難しい –グラフのどこから生成していいのかわからない –特に、原子価を守った構造式の生成は非自明 解決法: グラフ文法に従ってグラフを生成する 本研究の貢献: 以下の性質のグラフ文法構成アルゴリズム –構造式のデータセットから自動的にグラフ文法を学習 –学習されたグラフ文法が生成する構造式は原子価を守る 2 概要
3.
© 2018 IBM
Corporation 所望の物性を持つ新物質の発見のために 構造式の生成モデルが必要である 構造式の生成モデル 𝑝 𝐺 𝒛) を作りたい –入力: 潜在ベクトル 𝒛 ∈ ℝ 𝐷 –出力: 構造式 𝐺(ノードラベル付きグラフ) –用途: 所望の物性 𝒙⋆ ∈ 𝒳 を持つ構造式の生成 3 背景 潜在的な 連続空間 𝑝 𝐺 𝒛) 構造式空間 物性値空間 𝒳 𝒙 = 𝑓(𝒛) 𝑝 𝐺 𝑓−1(𝒙⋆)) Fig from https://openi.nlm.nih.gov/detailedresult.php?img=PMC3403880_1758-2946-4-12-7&req=4 水への溶けやすさ 特定のタンパク質へ 結合するかどうか 𝒙⋆ 𝑓−1 (𝒙⋆ )
4.
© 2018 IBM
Corporation 構造式は原子価の制約があるため生成が難しい 構造式の生成は非自明 –グラフの生成モデル自体非自明 環の生成が非自明 • 隣接行列を生成するアプローチ [Simonovsky+, 18] • 逐次的な生成 [Li+, 18] –特に構造式は原子価の制約がある • ノードのラベルに応じて次数が決まる 4 課題
5.
© 2018 IBM
Corporation SMILES という構造式のテキスト形式を用いることが一般的 既存手法: テキスト表現(SMILES)で代用 [Gómez-Bombarelli+, 16] –利点: sequence の生成は既存の系列モデルで対応可能 5 既存手法 潜在的な 連続空間 𝑝 𝑆 𝒛) 構造式空間 SMILES空間 c1c(C=O)cccc1 𝐺 = 𝑔(𝑆) SMILESの 文法 系列モデル
6.
© 2018 IBM
Corporation SMILES という構造式のテキスト形式を用いることが一般的 既存手法: テキスト表現(SMILES)で代用 [Gómez-Bombarelli+, 16] –利点: sequence の生成は既存の系列モデルで対応可能 –欠点: SMILES の文法が複雑&原子価の制約を守るのが困難 6 既存手法 c1c(C=O)cccc1 環の始点と終点を同じ数字にする
7.
© 2018 IBM
Corporation SMILES という構造式のテキスト形式を用いることが一般的 既存手法: テキスト表現(SMILES)で代用 [Gómez-Bombarelli+, 16] –利点: sequence の生成は既存の系列モデルで対応可能 –欠点: SMILES の文法が複雑&原子価の制約を守るのが困難 7 既存手法 c1c(C=O)cccc1 枝分かれは括弧でくくる
8.
© 2018 IBM
Corporation SMILES という構造式のテキスト形式を用いることが一般的 既存手法: テキスト表現(SMILES)で代用 [Gómez-Bombarelli+, 16] –利点: sequence の生成は既存の系列モデルで対応可能 –欠点: SMILES の文法が複雑&原子価の制約を守るのが困難 8 既存手法 CC(C)(O)C#Cc1ccc(C[NH2+][C@H]2CCCN(c3nc4ccccc4s3)C2)s1 大変
9.
© 2018 IBM
Corporation SMILES という構造式のテキスト形式を用いることが一般的 既存手法: テキスト表現(SMILES)で代用 [Gómez-Bombarelli+, 16] –利点: sequence の生成は既存の系列モデルで対応可能 –欠点: SMILES の文法が複雑&原子価の制約を守るのが困難 9 既存手法 c1c(C=O)(C)cccc1 この原子の原子価が5 ※ SMILES は文脈依存文法
10.
© 2018 IBM
Corporation グラフの文脈自由文法で、原子価を守るものが構成できれば より容易に構造式を生成できる 本研究のアイデア SMILES の代わりにグラフ文法を用いる –グラフ生成を構文木生成に帰着可能 ⇒ グラフ文法で必ず原子価の制約を守るものを構成できればよい (=Molecular Hypergraph Grammar; MHG) 10 提案手法 𝑝 𝑇 𝒛) MHG 構文木空間 𝐺 = 𝑚(𝑇) MHG木モデル [Kusner+, 17]
11.
© 2018 IBM
Corporation 提案手法は、ハイパーエッジ置換文法を元に、 原子価の制約を守った構造式を必ず生成可能な文法を構成する 本研究の位置付け 11 提案手法 表現方法 文法の複雑さ 原子価の制約 構成アルゴリズム SMILES 文脈依存文法 必ずしも守られない ー ハイパーエッジ 置換文法(HRG) 文脈自由文法 必ずしも守られない [Aguiñaga+, 16] 提案手法(MHG) 文脈自由文法 必ず守られる 本研究 学習の難易度に寄与する 拡張
12.
© 2018 IBM
Corporation 既存のグラフ文法学習アルゴリズムをベースに 提案アルゴリズムを紹介する 既存研究の話 –ハイパーエッジ置換文法(HRG)の紹介 –HRGをデータから構成するアルゴリズムの紹介 グラフの木分解をもとにしたアルゴリズム 本研究の話 –構造式のハイパーグラフ表現の導入 –分子ハイパーグラフ文法をデータから構成するアルゴリズム グラフの非冗長木分解をもとにしたアルゴリズム 12 以降の話
13.
© 2018 IBM
Corporation ハイパーエッジ置換文法は、非終端記号のハイパーエッジを ハイパーグラフで置換してハイパーグラフを生成する ハイパーエッジ置換文法 (HRG) 𝒢 = (𝑁, 𝑇, 𝑆, 𝑃) –𝑁: 非終端記号の集合 –𝑇: 終端記号の集合 –𝑆: 開始記号 –𝑃: 生成規則の集合 – 非終端記号でラベル付されたハイパーエッジをハイパーグラフで置換する規則 13 準備 1C 2 H H1N 2 N N NS ハイパーエッジについたラベル ハイパーエッジ ノード
14.
© 2018 IBM
Corporation 木分解はグラフを木状に分解する方法である 木分解 –木分解には元のグラフのすべてのノード・エッジが含まれる –元のグラフの各ノードは、木分解では連結(木らしさの表現) ※ 木分解は何種類も考えられる 14 準備 1 3 2 1 3 4 3C 4 H H 3 C 2 H H 1C 4 H H 1 C 2 H H C C H HH H C C H HH H ※数字はノードの対応関係を意味する
15.
© 2018 IBM
Corporation 木分解の親・私・子が生成規則に対応している HRGをデータから構成するアルゴリズム [Aguiñaga+, 16] 15 準備 1 3 4 N N 1 4 N = ここに非終端記号がついている前提で 𝑣 𝑇をくっつけたい
16.
© 2018 IBM
Corporation 木分解の親・私・子が生成規則に対応している HRGをデータから構成するアルゴリズム [Aguiñaga+, 16] 16 準備 1 3 4 N N 1 4 N = 子のハイパーグラフをつけるための 非終端をつけておく
17.
© 2018 IBM
Corporation 木分解からHRGの生成規則を抽出することで 入力したハイパーグラフを表現可能なHRGを構成できる HRGをデータから構成するアルゴリズム [Aguiñaga+, 16] –入力: ハイパーグラフ集合 –出力: HRG • 入力ハイパーグラフ集合はすべて表現可能 • 原子価は保存されない 17 準備 1. 各ハイパーグラフを木分解する 2. 各木分解から生成規則を抽出する 3. 得られた生成規則の和集合を取りHRGを構成
18.
© 2018 IBM
Corporation 構造式の表現として分子ハイパーグラフを用いる 技術的貢献(1/2): 分子ハイパーグラフ –原子=ハイパーエッジ、結合=ノード 各ノードに接続するエッジ数が2ならば通常のグラフに変換可能 –HRGを構成するときに原子価を保存できる 18 提案手法 H HC H C H H HC H C H C C H H HH H H C C H HH H C C H HH H ハイパーエッジ ノード
19.
© 2018 IBM
Corporation 分子ハイパーグラフを用いると、 構造式に戻せないハイパーグラフが生成されることがある 技術的貢献(1/2): 分子ハイパーグラフ 19 提案手法 H C C H HH H C C H HH H H C C H HH H C C H HH H ひとつのノードに 3つのハイパーエッジがついてしまい、 グラフに戻せない
20.
© 2018 IBM
Corporation 非冗長木分解を用いることで、生成されるハイパーグラフが 構造式に変換可能であることを保証できる 技術的貢献(2/2): 非冗長木分解 –元のグラフの各ノードは、木分解でパスとなるような木分解 –任意の木分解は、多項式時間で非冗長木分解へ変換可能 20 提案手法 1 3 2 1 3 4 3C 4 H H 3 C 2 H H 1C 4 H H 1 C 2 H H 4 冗長非冗長
21.
© 2018 IBM
Corporation 分子ハイパーグラフを用いることで原子価を保存し、 非冗長木分解を用いることで通常のグラフ表現への変換を保証可能 MHGをデータから構成するアルゴリズム –入力: 構造式集合 –出力: MHG • 生成される分子ハイパーグラフは構造式へ常に変換可能 • 入力グラフ集合はすべて表現可能 • 原子価は保存されることが証明できる 21 提案手法 1. 各構造式を分子ハイパーグラフに変換する 2. 各グラフを木分解する 3. 各木分解を非冗長なものへ変換する 4. 各木分解から生成規則を抽出する 5. 得られた生成規則の和集合を取りHRGを構成
22.
© 2018 IBM
Corporation 構造式の生成モデルを作る上での要素技術となる 分子ハイパーグラフ文法を開発した 分子ハイパーグラフ文法(MHG)の構成方法を開発した –原子価の制約を満たす構造式を生成できる 技術的には以下の2つが重要 • 分子ハイパーグラフでの表現 → 原子価を保存 • 非冗長木分解 → 生成されたハイパーグラフをグラフに変換 –データから自動で学習できる • 文法を手動で書く必要がない • 入力データのすべてを再現可能 22 まとめ