SlideShare a Scribd company logo
機械学習による化学反応の予測と設計
• 理化学研究所 ⾰新知能統合研究センター@京阪奈

iPS細胞連携医学的リスク回避チーム
• 北海道⼤学 化学反応創成研究拠点 (WPI-ICReDD)
https://itakigawa.github.io/
このスライドはここにあります
https://itakigawa.github.io/data/jfssa2020.pdf
今⽇の話
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化計算)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合
今⽇の話
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化計算)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合
化学
化学
物質A → 物質B
このプロセス
(⽬にみえない)
ある物質を別の物質に あらゆるものは「化学反応」
• ⾝の回りのあらゆる製品の製造
• エネルギーをつくる
• 明るい都市⽣活
• 農業 (⼟壌改良)
• 環境汚染
• ⽣命現象
• ⾷べ物が美味しい (⾷・栄養)
• お肌の調⼦が良い (美容・健康)
• ねむい (睡眠・意識・⿇酔)
• 頭がいたい、お腹がいたい (医薬)
• 病む (疾患)
• ⽼いる (⽼化・⻑寿)
• 有限の⽣ (⽣死・発⽣・分化)
少なくとも分⼦⽣物学の
根幹にある思想
もし化学反応が⾃由⾃在に設計・制御できたなら...
その辺にたくさんある分⼦
メタン
⼆酸化炭素 炭素
酸素
⽔素
何らかの⽅法で
バラバラに...
何らかの⽅法で
組み⽴てて...
欲しい分⼦
欲しい機能
温暖化
天然ガス

シェールガス

メタンハイド
レート
エネルギー
医薬品

化学材料

電⼦材料

発光
農薬

⾷品

化粧品

:
• ⾝の回りのものやエネルギーを作るには化学反応が必要
• 物理法則の壁により上のように⾃由⾃在な組み替えはできない
• ❶に⾼いエネルギーか画期的触媒か何かが必要
• 無理やり❶を起こす状況では❷を精密に制御にするのが困難

(C-Hは不活性だし同じC-H結合の特定のものだけを反応させるのも難)
❶ ❷
0.1 equiv. CrCl3
0.1 equiv. Chiral Ligand
2 equiv. Mn(0)
0.1 equiv. Triethylamine
2 equiv. SiMe3Cl
Nozaki-Hiyama-Kishi (NHK) allylation reaction
THF, RT, 20h
R
カルボニル基にアリル基が付加される
...
0.1 equiv. CrCl3
0.1 equiv. Chiral Ligand
Nozaki-Hiyama-Kishi (NHK) allylation reaction
Substrates
(Reactants)
Product
THF, RT, 20h
Catalyst Ligand (binds to Cr)
Reagents
Solvent
Reaction Temperature (RT = Room Temperature)
Reaction Time
Starting material
基質 (反応物)
出発物質
触媒 配位⼦
⽣成物
試薬
反応時間
反応温度
溶媒
2 equiv. Mn(0)
0.1 equiv. Triethylamine
2 equiv. SiMe3Cl
Reaction partner
反応の相⼿
(R or S)
0.1 equiv. CrCl3
0.1 equiv. Chiral Ligand
Nozaki-Hiyama-Kishi (NHK) allylation reaction
THF, RT, 20h
Phenyl-group
or
SR
Enantiomer ratio: e.r.
Enantiomeric Excess: e.e.
AR : AS
R
2 equiv. Mn(0)
0.1 equiv. Triethylamine
2 equiv. SiMe3Cl
  に⼊れる
置換基の候補
"Ligands" (配位⼦)
iPr Bn
• Ph
• tBu
• CF3
• CH(CH3)2
• OiPr
• Cl
• CH3
• CHO
• CO2Me
• COMe
• COOH
• OEt
• NMe2
• OMe
• NH2
• NO2
• OH
• F
• H
= isopropyl group = benzyl group
tBu
= tertiary butyl 

group
Me
= methyl
group
Et
= ethyl
group
触媒にくっついて実際に仕事をする"配位⼦"を
適切に改変することで⾼い選択性を⽬指す
機械学習+化学の⾯⽩さとチャレンジ
😆 ⾯⽩さ
• CVとNLPの間の独特設定
• 第⼀原理がある
• 実検証できる
🤔 チャレンジ
• 表現学習
• ⼩サンプル
• 強いデータバイアス
機械学習+化学の⾯⽩さ
安定状態 1 安定状態 2遷移状態
θ1
θ2
Schrödinger equation
Potential Energy Surface (PES)
• ⼊⼝出⼝は"離散組合せ的"対象
化合物 = ⾼々100数種類の元素
(現在118種)がなす膨⼤な組合せ
• 化学反応は(⾃然法則が定める)

原⼦や結合の組み替え過程
エネルギーの⾕→峠→⾕の遷移だが

このエネルギー⾯ を求めるには

毎点で電⼦に関する⽅程式の求解が必要
エネルギー
• 探索空間が組合せ的に巨⼤: 理論的に可能な経路の探索も組合せ爆発を起こす
• 計算時間・リソースが⼤きく計算できる系が限られる: 現実の系では何か妥協が必要
• 現実の化学反応の複雑さと不確定さ: 理論計算に⼊らない多様な要因が影響
• 現状の理論モデルの単純な仮定や不完全さ: 実験での反応と理論との⼤きな隔たり
チャレンジ① 表現学習
Brc1cncc(Br)c1 C[O-] CN(C)C=O Na+ COc1cncc(Br)c1SMILES
Structural Formla
Steric Structures
Electronic States
Reactants Reagents Products
パターン⾔語として (化学の教科書・データベースにある知識表現)
物理的対象として (量⼦化学に基づく電⼦状態計算)
⽂字列
グラフ
3D点集合
分布 or

Volume
データからの表現学習
https://towardsdatascience.com/a-comprehensive-guide-to-convolutional-neural-networks-the-eli5-way-3bd2b1164a53
...
...
有効な(潜在的)特徴表現zへの変換を学習するbackbone Task-specific head
関数の合成に対し(勾配降下で)パラメタの統⼀的学習が可能
...
backbone head
https://en.wikipedia.org/wiki/Differentiable_programming
合成関数を計算グラフで保持して、勾配は⾃動微分(aka backprop)で計算
+ concat
×
softmax
"All numerical computations are ultimately compositions of a finite set of elementary
operations for which derivatives are known (Verma, 2000; Griewank and Walther, 2008)"
Automatic differentiation in machine learning: a survey, JMLR 18 (2018) 1-43
合成の仕⽅は⾃由!
データからの表現学習
https://lilianweng.github.io/lil-log/2018/10/13/flow-based-deep-generative-models.html#types-of-generative-models
例えば"有効"な表現への変換を学習する点は⽣成モデルでも同じ
チャレンジ② ⼩サンプル・強いバイアス
⼈間が「データセット」作るとどうしても偏ってしまう...
https://www.chemistryworld.com/news/dispute-over-reaction-prediction-puts-machine-learnings-pitfalls-in-spotlight/
3009912.article
データそのものや解析に落とし⽳がたくさん...
• Main paper https://doi.org/10.1126/science.aar5169
• Erratum https://doi.org/10.1126/science.aat7648
• Negative comment paper https://doi.org/10.1126/science.aat860
• Author's response https://doi.org/10.1126/science.aat8763
バイアスで⽚付けて良いのか: PULSEと"AI bias"炎上事件
https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-tool-pulse-
stylegan-obama-bias
Face Depixelizer "PULSE"についてのコメント炎上でLeCun Twitter停⽌...
PULSE⼊⼒ (低解像な私) PULSE出⼒ (誰やねん)
今⽇の話
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化計算)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合
予測から発⾒へ:学習の「利⽤」と「探索」のトレードオフ
実験計画・最適化・進化計算:

より良い結果を得るためには、新たに調べる対象をどのように選ぶべきだろうか?
Exploitation (利⽤)
Exploration (探索)
• 良い点:⼿元にあるデータの傾向に再現性があれば当たる論理的根拠がある
• 悪い点:⽊を⾒て森を⾒ず的に重要な鉱脈を⾒逃し凡庸な微改良にハマるかも
既に得られていること(今あるデータ)から考えて、良くなりそうな対象を調べる
• 良い点:知識・情報の拡充になり、今まで知られていない新たな発⾒があるかも!
• 悪い点:当たる論理的根拠に乏しく、全く何も得られない可能性も⾼いかも
今のところ情報がなく不確実だが、もしかしたら良い可能性がある対象を調べる
"学習"
"発⾒"
= ⼿堅くオッズの低い⾺券を買うか、ハイリスクを承知で万⾺券に賭けてみるか?
今までのデータから当てられそうなものを試す
今までのデータにはない新しいものを試す
「利⽤」与えられた事例以外へ転移可能な汎⽤表現の獲得
https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
線形分離可能な表現への変換を学習
このタスクは実践的には依然むずかしく
間違えると元より酷くなりうる..
「利⽤」与えられた事例以外へ転移可能な汎⽤表現の獲得
https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
線形分離可能な表現への変換を学習
このタスクは実践的には依然むずかしく
間違えると元より酷くなりうる..
「利⽤」与えられた事例以外へ転移可能な汎⽤表現の獲得
https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
線形分離可能な表現への変換を学習
このタスクは実践的には依然むずかしく
間違えると元より酷くなりうる..
「利⽤」与えられた事例以外へ転移可能な汎⽤表現の獲得
https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
線形分離可能な表現への変換を学習
このタスクは実践的には依然むずかしく
間違えると元より酷くなりうる..
データからの表現学習
...
...
有効な(潜在的)特徴表現zへの変換を学習するbackbone Task-specific head
• 潜在変数空間での"内挿"は⼊⼒空間での直感と異なり得る (特に⾮常に⾼次元な場合)
• ⽬前の1タスクだけに特化しないための潜在空間の"良さ"をドメイン知識で正則化?
いくらでも複雑な作り込みが⾃由に可能 過適合のリスク・学習時間の増⼤
過適合と内挿 vs 外挿問題
Highly Inaccurate Model Predictions from
Extrapolation (Lohninger 1999)
パラメタ数(モデルの⾃由度・モデルの複雑度)をやみくもに⼤きくしても過適合の
リスクが増⼤するだけ! (考えられる変数全部⼊り回帰の揶揄 = "Kitchen sink"回帰)
https://en.wikipedia.org/wiki/Kitchen_sink_regression
⾼次元内挿にまつわる謎 overparametrization
Random Fourier Features (RFF) on MNIST FC-NN on MNIST
Also see

AISTATS 2019
"double-descent risk curve"は再現可能で議論は続く...
良性の過適合?とにかく訓練データを内挿すれば良い!?
PNAS (2020) Ann. Statist. (2020)
NeurIPS (2018) arXiv (2019)
「探索」"Edisonian empiricism"を乗り越える
現在までに得られ
たデータと知⾒
私たちの時間とお⾦は有限なので
この⽅式であらゆる可能性を

しらみつぶしに調べることが
できない
Thomas
Edison
• Genius is 1% inspiration and 99% perspiration.
• There is no substitute for hard work.
• I have not failed. I've just found 10,000 ways
that won't work.

:
よくよく考えるとすごくブラックなことしか⾔ってない
•
•
😱
結果の検証と考察
次の実験計画にフィードバック
有機合成におけるインフォマティクス(実験計画法)の活⽤
Matthew S Sigman
Dept. Chemistry

The University of Utah
MS Sigman, KC Harper, EN Bess, A Milo

The development of multidimensional analysis tools
for asymmetric catalysis and beyond.

Accounts of Chemical Research 2016 49 (6), 1292-1301.
1. Harper & Sigman, PNAS 2011
2. Harper & Sigman, Science 2011
• Werner, Mei, Burckle & Sigman, Science 2012
3. Milo, Bess & Sigman, Nature 2014
• Harper, Vilardi & Sigman, JACS 2013
• Bess, Bischoff, Sigman, PNAS 2014
4. Niemeyer, Milo, Hickey & Sigman, Nat Chem 2016;

Milo, Neel, Toste & Sigman, Science 2015
ごく最近AI/MLによって来た!?
化学反応開発⽤の汎⽤記述⼦ +
実験計画法 (完全実施要因計画 +
応答曲⾯法)
探索とオートメーション(⾃動化)
製品ラインの(ほぼ)無⼈化は⾼い効率性だけ
ではなく⾼い再現性も担保できる
探索とオートメーション(⾃動化)
製品ラインの(ほぼ)無⼈化は⾼い効率性だけ
ではなく⾼い再現性も担保できる
"The authors estimate that a human scientist would have taken 1,000 times longer to
produce similar results."
⾃然科学における探索的研究の(半)⾃動化?
"The authors estimate that a human scientist would have taken 1,000 times longer to
produce similar results."
⾃然科学における探索的研究の(半)⾃動化?
この種の⾃動化も機械学習との境界領域へ
"Autonomous Discovery in the Chemical Sciences"
探索とAutoML: 量⼦化学計算やロボのselfplayで化学探索!?
AlphaGo

(Nature, Jan 2016)
AlphaGo Zero

(Nature, Oct 2017)
AlphaZero

(Science, Dec 2018)
• Algorithm Configuration
• Hyperparameter Optimization (HPO)
• Neural Architecture Search (NAS)
• Meta Learning / Learning to Learn Amazon
SageMaker
MuZero

(arXiv, Nov 2019)
AutoML
○○ Zeroは⼈間がplayした棋譜データは全く不要!
今⽇の話
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化計算)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合
注意機構と転移学習
Transformer(による転移学習)はLSTM/RNN/CNN(+注意)ベースだったNLPを⾰新した...
⽇経エレクトロニクス 2019年9⽉号挑戦的なタイトルを美しく回収 (NeurIPS 2017)
画像もTransformerでいけるのか...!?
注意機構と転移学習
Transformer(による転移学習)はLSTM/RNN/CNN(+注意)ベースだったNLPを⾰新した...
⽇経エレクトロニクス 2019年9⽉号挑戦的なタイトルを美しく回収 (NeurIPS 2017)
画像もTransformerでいけるのか...!?
https://icml.cc/Conferences/2019/ScheduleMultitrack?event=4343
A Tutorial on Attention in Deep Learning (ICML2019)
Alex Smola · Aston Zhang
The world's dumbest estimator
Better idea :

Watson-Nadaraya Estimator
(Watson, Nadaraya, 1964)
KeyQuery Value
•
• Pooling
https://d2l.ai
注意機構 (Attention)
https://icml.cc/Conferences/2019/ScheduleMultitrack?event=4343
A Tutorial on Attention in Deep Learning (ICML2019)
Alex Smola · Aston Zhang
The world's dumbest estimator
Better idea :

Watson-Nadaraya Estimator
(Watson, Nadaraya, 1964)
KeyQuery Value
Q: Query
K: Key
V: Value
Transformer
Transformer Scaled dot-product attention
•
• Pooling
https://d2l.ai
注意機構 (Attention)
注意機構と構成的学習
Compositionality (構成性)
⾼度なタスクの処理を構成要素・モジュールとその組合せ合成により実現する
例) • 単語をうまく組み合わせることで様々な意味の⽂章を無数に作り出す
• 様々なモジュールをうまく組み合わせることで脳の⾼次機能を柔軟に作り出す
...
...
複数の⼊⼒
...⽂脈依存的な
情報の読み出し
階層的機構 並⾏的機構
多様な
ダウン

ストリーム
タスク
注意機構と構成的学習
Compositionality (構成性)
⾼度なタスクの処理を構成要素・モジュールとその組合せ合成により実現する
例) • 単語をうまく組み合わせることで様々な意味の⽂章を無数に作り出す
• 様々なモジュールをうまく組み合わせることで脳の⾼次機能を柔軟に作り出す
...
...
複数の⼊⼒
KeyQuery Value 注意機構は覚えておいた情報をcontextに応じてとりだす
辞書オブジェクト(query, key, value)とみなせる
• ⽂脈に関して厚いこと (Context-thick)

多様な種類の⽂脈において適切な動作を⾏う能⼒
• 重要な情報にいかにして注意(Attention)を向けるか
⾼度なタスクに必要
...⽂脈依存的な
情報の読み出し
階層的機構 並⾏的機構
多様な
ダウン

ストリーム
タスク
巨⼤な転移学習の有効性
"⼩データ"の機械学習
• 本当にそのデータしかない場合

ドメイン知識や第⼀原理ハイブリッドなどで既知知⾒・背景知識によっ
てモデル探索空間を作り込む必要がある
• 当該分野で何らかの⼤規模な参照データが利⽤できる場合

技術的⼯夫でzero-shotやfew-shotな転移が可能なケースがある
• グラフ学習や強化学習で有効な転移学習が可能かは最⼤の関⼼の⼀つ?
機械学習屋の関⼼
• Pre-trainingからSelf-training, Self-supervisedな表現学習へ
• ⼤規模転移によるfewshot/zeroshot学習

(⼤規模テキスト BERT, GPT-3; ⼤規模画像 BiT, SimCLRv2)
パラメタ数
1750億
Self-supervised learning (self training)
直接の⽬的ではないが⾃前で多数データが作れるpretextタスクで学習したものを
直接の⽬的であるダウンストリームタスクに転移 (word2vec, BERT, GPTなど多数)
SimCLR (ICML2020)SupContrast (2020) arXiv:2004.11362 (2020)
arXiv:2006.10029 (2020)SimCLRv2 (2020)
⼩サンプルで表現が学習できるのか?
Tenenbaum et al, How to Grow a Mind: Statistics, Structure, and Abstraction. Science, 331:6022, 1279-1285 (2011)
これと
同じのは
どれ?
⼩サンプルで表現が学習できるのか?
Tenenbaum et al, How to Grow a Mind: Statistics, Structure, and Abstraction. Science, 331:6022, 1279-1285 (2011)
これと
同じのは
どれ?
Fewshot learning (n-shot k-wayのタスク)
2-shot 3-way fewshot learning
1 1 2 2 3 3 ? ?
support set query set
......
training set
test set
1 1 2 2 3 3 ? ?
1 1 2 2 3 3 ? ?
メタ学習
MAML (ICML2017)
iMAML (NeurIPS 2019)
計量学習
Deep Face Recognition: A Survey. https://arxiv.org/abs/1804.06655
https://gombru.github.io/2019/04/03/ranking_loss/
Siamese Network (contrastive loss) Triplet Network (triplet loss) Angular margin loss
今⽇の話
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化戦略)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合
陽な原理や知識の利⽤とデータ駆動の融合へ向けて
• 探索空間が組合せ的に巨⼤: 理論的に可能な経路の探索も組合せ爆発を起こす
• 計算時間・リソースが⼤きく計算できる系が限られる: 現実の系では何か妥協が必要
• 現実の化学反応の複雑さと不確定さ: 理論計算に⼊らない多様な要因が影響
• 現状の理論モデルの単純な仮定や不完全さ: 実験での反応と理論との⼤きな隔たり
量⼦化学計算・分⼦動⼒学など計算化学(第⼀原理によるシミュレーション)の発展と限界
こうした限界や制約をデータに基づくアプローチで打開できるか?
陽な原理や知識の利⽤とデータ駆動の融合へ向けて
Annu. Rev. Phys. Chem. 71:361–90 (2020) Nat. Rev. Chem. 4: 347–358 (2020)
PNAS (2020)
陽な原理や知識の利⽤とデータ駆動の融合へ向けて
https://uclnlp.github.io/nampi/
Machine intelligence capable of learning complex procedural
behavior, inducing (latent) programs, and reasoning with these
programs is a key to solving artificial intelligence. Recently,
there have been a lot of success stories in the deep learning
community related to learning neural networks capable of
using trainable memory abstractions.
Neural Abstract Machines & Program Induction • Differentiable Neural Computers /

Neural Turing Machines (Graves+ 2014)
• Memory Networks (Weston+ 2014)
• Pointer Networks (Vinyals+ 2015)
• Neural Stacks (Grefenstette+ 2015, Joulin+ 2015)
• Hierarchical Attentive Memory 

(Andrychowicz+ 2016)
• Neural Program Interpreters (Reed+ 2016)
• Neural Programmer (Neelakantan+ 2016)
• DeepCoder (Balog+ 2016)

:
⼿続き的・記号的操作も学習できるプログラムとして扱えるようになってきた
• Deep learning techniques thus far have proven to be data hungry, shallow,
brittle, and limited in their ability to generalize (Marcus, 2018)
• Current machine learning techniques are data-hungry and brittle—they can
only make sense of patterns they've seen before. (Chollet, 2020)
• A growing body of evidence shows that state-of-the-art models learn to exploit
spurious statistical patterns in datasets... instead of learning meaning in the
flexible and generalizable way that humans do. (Nie et al., 2019)
• Current machine learning methods seem weak when they are required to
generalize beyond the training distribution, which is what is often needed in
practice. (Bengio et al., 2019)
ただし適切な⽬的へ応⽤すれば極めて有効な技術だと実証されてきた!
• Deep learning techniques thus far have proven to be data hungry, shallow,
brittle, and limited in their ability to generalize (Marcus, 2018)
• Current machine learning techniques are data-hungry and brittle—they can
only make sense of patterns they've seen before. (Chollet, 2020)
• A growing body of evidence shows that state-of-the-art models learn to exploit
spurious statistical patterns in datasets... instead of learning meaning in the
flexible and generalizable way that humans do. (Nie et al., 2019)
• Current machine learning methods seem weak when they are required to
generalize beyond the training distribution, which is what is often needed in
practice. (Bengio et al., 2019)
ただし適切な⽬的へ応⽤すれば極めて有効な技術だと実証されてきた!
From AAAI-20 Oxford-Style Debate
Theory-driven
Data-driven
• 対象現象の複雑化
• シミュレーション技法も複雑化
• "経験的に決める"パラメタや初期値
• 汎関数、交換相関項の設計
• ⼩サンプル・低カウントの問題
• 帰納バイアスのモデルエンコード
• 外挿の低信頼性と探索
• Blackbox性・解釈性の問題
• 知識ベースと論理推論(記号AI)の限界
• 厳密推論や探索の計算爆発(NP困難性)
• ⼤量データの知識化の問題
• 制約プログラミングや組合せ最適化
(⼈⼯知能分野)
(⼈⼯知能分野)
• Data-Driven⼿法(機械学習)と⼈間の

論理的思考との⼤きなギャップ
• Dataがない領域の探索や「ひらめき」
• モデル適⽤範囲と信頼性・安全性
新たな⽅法論へ?
データ同化、模倣学習、論理合成、etc
表現学習、モデルベース最適化・強化
学習、メタ学習、⽣成モデル、etc
【合理論】
【経験論】
( ) ( )
今⽇の話 (まとめ)
1. 機械学習+化学の⾯⽩さとチャレンジ

😆 CVとNLPの間の独特設定 + 第⼀原理がある + 実検証できる

🤔 表現学習 + ⼩サンプル + 強いデータバイアス
2. 機械学習の関連トピックの(⾯⽩さの)紹介
1. 探索と訓練分布外の予測

新たなデータを取る探索戦略 (実験計画・最適化・進化計算)

外挿・内挿問題、良性の過適合
2. 学習の構成性と転移性

注意機構と転移学習・構成的学習

⼩サンプル学習 (転移学習、メタ学習、計量学習)
3. 演繹と帰納の融合

モデルベースの最適化・強化学習、第⼀原理計算との融合

More Related Content

What's hot

High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
cvpaper. challenge
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
 
CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習
Katsuya Ito
 
Graph Attention Network
Graph Attention NetworkGraph Attention Network
Graph Attention Network
Takahiro Kubo
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Hiroshi Nakagawa
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Preferred Networks
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
 
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
STAIR Lab, Chiba Institute of Technology
 
『自由エネルギー原理入門』勉強会1章&2章前半
『自由エネルギー原理入門』勉強会1章&2章前半『自由エネルギー原理入門』勉強会1章&2章前半
『自由エネルギー原理入門』勉強会1章&2章前半
大地 紺野
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
Takuya Minagawa
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
cvpaper. challenge
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
Kosuke Nakago
 

What's hot (20)

High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
 
CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習CF-FinML 金融時系列予測のための機械学習
CF-FinML 金融時系列予測のための機械学習
 
Graph Attention Network
Graph Attention NetworkGraph Attention Network
Graph Attention Network
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
時系列ビッグデータの特徴自動抽出とリアルタイム将来予測(第9回ステアラボ人工知能セミナー)
 
『自由エネルギー原理入門』勉強会1章&2章前半
『自由エネルギー原理入門』勉強会1章&2章前半『自由エネルギー原理入門』勉強会1章&2章前半
『自由エネルギー原理入門』勉強会1章&2章前半
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 

Similar to (2020.9) 機械学習による化学反応の予測と設計

東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
 
【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems
cvpaper. challenge
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2
Hidehisa Arai
 
【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
 
バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向
ハイシンク創研 / Laboratory of Hi-Think Corporation
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
Ryohei Suzuki
 
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
Matlantis
 
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
Eli Kaminuma
 
The PubchemQC project
The PubchemQC projectThe PubchemQC project
The PubchemQC project
Maho Nakata
 
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法研究の世界入門B 科学的方法
研究の世界入門B 科学的方法sympo2011
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing
禎晃 山崎
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
Kazuhide Okamura
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
 
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
Shunsuke Ono
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel弘毅 露崎
 
モデル勉強会100710kajiura改
モデル勉強会100710kajiura改モデル勉強会100710kajiura改
モデル勉強会100710kajiura改
Kazuya Nishina
 
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
harmonylab
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Taku Tsuzuki
 

Similar to (2020.9) 機械学習による化学反応の予測と設計 (20)

東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
 
【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2
 
Nttr study 20130206_share
Nttr study 20130206_shareNttr study 20130206_share
Nttr study 20130206_share
 
【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning
 
バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
論文紹介: "MolGAN: An implicit generative model for small molecular graphs"
 
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
汎用ニューラルネットワークポテンシャル「PFP」による材料探索_MRS-J2021招待講演_2021/12/15
 
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
[2019-03-14] JSPP19 深層学習による植物注釈タスクとPublic Cloud活用法
 
The PubchemQC project
The PubchemQC projectThe PubchemQC project
The PubchemQC project
 
研究の世界入門B 科学的方法
研究の世界入門B 科学的方法研究の世界入門B 科学的方法
研究の世界入門B 科学的方法
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
夏のトップカンファレンス論文読み会 / Realtime Multi-Person 2D Pose Estimation using Part Affin...
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
モデル勉強会100710kajiura改
モデル勉強会100710kajiura改モデル勉強会100710kajiura改
モデル勉強会100710kajiura改
 
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西
 

More from Ichigaku Takigawa

機械学習と自動微分
機械学習と自動微分機械学習と自動微分
機械学習と自動微分
Ichigaku Takigawa
 
データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜
Ichigaku Takigawa
 
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?
Ichigaku Takigawa
 
A Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree EnsemblesA Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree Ensembles
Ichigaku Takigawa
 
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Ichigaku Takigawa
 
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
Ichigaku Takigawa
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
 
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
Ichigaku Takigawa
 
"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス
Ichigaku Takigawa
 
自然科学における機械学習と機械発見
自然科学における機械学習と機械発見自然科学における機械学習と機械発見
自然科学における機械学習と機械発見
Ichigaku Takigawa
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
Ichigaku Takigawa
 
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric ChemistryMachine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Ichigaku Takigawa
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
Ichigaku Takigawa
 
自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学
Ichigaku Takigawa
 
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
Ichigaku Takigawa
 
Machine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and GeometriesMachine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and Geometries
Ichigaku Takigawa
 
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
Ichigaku Takigawa
 
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
Ichigaku Takigawa
 
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから (2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
Ichigaku Takigawa
 

More from Ichigaku Takigawa (20)

機械学習と自動微分
機械学習と自動微分機械学習と自動微分
機械学習と自動微分
 
データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜データ社会を生きる技術
〜機械学習の夢と現実〜
データ社会を生きる技術
〜機械学習の夢と現実〜
 
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?
 
A Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree EnsemblesA Modern Introduction to Decision Tree Ensembles
A Modern Introduction to Decision Tree Ensembles
 
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
Exploring Practices in Machine Learning and Machine Discovery for Heterogeneo...
 
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
機械学習と機械発見:自然科学融合が誘起するデータ科学の新展開
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
 
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
小1にルービックキューブを教えてみた 〜群論スポーツの教育とパターン認知〜
 
"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス"データ化"する化学と情報技術・人工知能・データサイエンス
"データ化"する化学と情報技術・人工知能・データサイエンス
 
自然科学における機械学習と機械発見
自然科学における機械学習と機械発見自然科学における機械学習と機械発見
自然科学における機械学習と機械発見
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
 
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric ChemistryMachine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
Machine Learning for Molecules: Lessons and Challenges of Data-Centric Chemistry
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
 
自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学自己紹介:機械学習・機械発見とデータ中心的自然科学
自己紹介:機械学習・機械発見とデータ中心的自然科学
 
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
機械学習・機械発見から見るデータ中心型化学の野望と憂鬱
 
Machine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and GeometriesMachine Learning for Molecular Graph Representations and Geometries
Machine Learning for Molecular Graph Representations and Geometries
 
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
(2021.11) 機械学習と機械発見:データ中心型の化学・材料科学の教訓とこれから
 
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
機械学習~データを予測に変える技術~で化学に挑む! (サイエンスアゴラ2021)
 
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから (2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
(2021.10) 機械学習と機械発見 データ中心型の化学・材料科学の教訓とこれから
 

(2020.9) 機械学習による化学反応の予測と設計