SlideShare a Scribd company logo
1 of 42
数理最適化と機械学習の
融合アプローチ
-分類と新しい枠組み-
Mikio Kubo
メニュー
略語と分類
略語と分類
• MO:数理最適化 (Mathematical Optimization)
• O:より広い最適化(Optimization)
• ML: 機械学習(Machine Learning)
• RL:強化学習(Reinforcement Learning) = O + ML
• MPC:モデル予測制御 (Model Predictive Control) = O + ML
MOとRLの融合
 6つのパターンに分類
1. ML -> MO (ML-first MO-second: ML先 MO後)
2. MO -> ML (MO-first ML-second: MO先 ML後)
3. ML ⊃ MO (ML assists MO: 機械学習が最適化をアシスト)
4. MO ⊃ ML(MO assists ML: 最適化が機械学習をアシスト)
5. RL/MPC中心の融合型(ML & MO assists RL/MPC)
6. 最適化の基礎理論で相互乗り入れ
パターン1
ML → MO
パターン1 ML → MO
• ML をした後で MO を適用する
• 最も古典的で自然なアプローチ
• MLで予測し関数近似 => 近似した制約や目的関数をMOで解く
 MLの予測モデルをそのままMOに数式として埋め込む(Gurobi 10.0+)
 MLの予測モデルを現実的な仮定でMOで解きやすい関数として近似
• MLで前処理(e.g., クラスタリング) → MO
• MLで解法を選択 → MO
ML MO
データ
解
MLで予測し関数近似 => (M)Oで解く
• たくさんのML手法 × たくさんの最適化手法 = たくさんある
• 限定されたML -> 非線形ソルバー・混合整数最適化ソルバー
• 任意のML -> オラクルを用いたブラックボックス最適化
• 任意のML -> 解きやすい関数に近似 -> 最適化ソルバー
ML (M)O
データ
解
限定されたML -> MO: Gurobi ML
• https://github.com/Gurobi/gurobi-machinelearning
• 線形回帰
• 多項式回帰(2次)
• ロジスティック回帰(非線形関数を区分的線形関数で近似)
• ニューラルネット(完全結合層でLeLUのみ)
• 決定木
• 勾配ブースティング
• ランダム森
ML y
x
特徴ベクトル(変数 or 定数)
予測制約
ターゲット
min f(x,y)
s.t. x => ML => y
x ∈X
任意のML -> ブラックボックスO
• MLをオラクルとしてブラックボックス最適化
• 利点:任意のMLで動く
• 弱点:遅い
ML f(x)
x
min f(x)
s.t. x ∈X
ブラックボックス最適化
x
f(x)
オラクル
ML -> 解きやすい関数に近似 -> ソルバー
• 任意のMLモデルでたくさんの教師データを生成
• 解きやすい関数を仮定し,実務的な公理を満たすように関数近似
 例1:地点間と輸送手段別の輸送費用
 単調非減少(重くなると高くなるか同じ)
 連続(急に変化しない)
 凹関数(単位重量あたりの費用は,重量が大きくなると安くなる)
 原点を通る(運ばないときはタダ)
例2:需要関数
価格に対する減少関数,凸関数
=> MOによる区分的線形回帰
MLで前処理 → MO
• クラスタリングや次元削
減などの教師なしMLは,
一種の最適化
• 大規模最適化のための,
前処理は自然
• ロジスティクス・ネット
ワーク設計問題の例
• 1000点を50点にクラスタ
リングしてから最適化
MLで解法を選択 → MO
• 次の MO → ML で複数の最適化手法の性能学習した後の実行時
問題例 機械学習
最適化手法群 計算時間 vs 解 報酬予測
機械学習
𝑓(𝑎)
最適化の性能学習
問題例 最適化
ML → MO
MO → ML
パターン2 MO → ML
パターン2 MO → ML
• MO でたくさんのデータ(問題例と解の組)を生成し,MLで学習
• 似た問題例の系列に対して訓練
 解のヒントや満たすべき制約を返し,MOを高速化 (MIPlearn)
 新しい問題例に対して解を返す (End-to-End learning)
 近似(実行不能)解を返し,近い実行可能解に変換(optimization proxy)
• 最適化に時間がかかるときやリアルタイム最適化に有効
MO
問題例
解
ML
MIPLearnフレームワーク
問題例 数理最適化
予測
機械学習
𝐼(𝑖) (𝑖 = 1, … , 𝑚)
𝑂𝑃𝑇 𝐼
最適解
𝑆(𝑖) (𝑖 = 1, … , 𝑚)
問題例
解
訓練データ
問題例 最適解の分布
𝐼
x.Start (初期部分解)
x.VarHintVal (ヒント)
満たすべき等式
関連研究
• Álinson S. Xavier, Feng Qiu, Shabbir Ahmed (2020) Learning to
Solve Large-Scale Security-Constrained Unit Commitment
Problems. INFORMS Journal on Computing 33(2):739-756
• 起動停止問題を例として機械学習で数理最適化の高速化
• 訓練データからk-近傍法とSVMで変数を固定
• 一般の最適化問題用のパッケージ
https://anl-ceeesa.github.io/MIPLearn/0.1/
• TSPへの適用例(ただし枝費用のみ変化)
k-近傍法
• インスタンス I に近いインスタンスデータからk個選択
• 対応する解 の平均値を計算(0-1変数xのみ)
• が閾値 UB 以上なら 1 に,閾値 LB 以下なら0に固定
𝐼(𝑖)
(𝑖 = 1, … , 𝑘)
𝑆(𝑖) (𝑖 = 1, … , 𝑘)
𝑥𝑗 =
𝑖=1
𝑘
𝑥𝑗
𝑖
/𝑘
𝑥𝑗
(不)等式の追加
• 閾値以上の確率で解 が,ある式 を等
号で満たす => 式を追加して解く
• 変数の固定も,これの特殊形
例 施設配置
ある顧客1と2は同じ施設に割り当てられる x1j =x2j
施設 1 が選ばれたときには,必ず施設3も選ばれる y1 <= y3
𝑆(𝑖) (𝑖 = 1, … , 𝑚) 𝑎𝑥 = 𝑏
StartとVarHintValの違い
• 変数.Start は,指定した値から実行可能解を構築する
• 変数.VarHintVal は,指定した値をヒントにしてヒューリス
ティクス探索を行い,分枝の優先度を変える
• 両者とも,解の一部だけ与えることも可能
パターン3 ML ⊃ MO
パターン3 ML ⊃ MO
• MO のパラメータをMLで学習
• (多くのパラメータを含む)MOの高速化が主目的
• ベンチマーク問題例を与えて訓練
 RLで分枝ルールを改善
 RLで切除平面を改善
• MLがMOをアシスト (Learning to optimize)
MO
問題例
解
計算時間
ML/RL
関連研究
• Solving Mixed Integer Programs Using Neural Networks
(Deep Mind, Google Research)
• 一般のMIPへの適用(グラフ的深層学習利用)
パターン4 MO ⊃ ML
パターン4 MO ⊃ ML
• MLのタスク(分類,回帰)をMOで行う
• 特徴選択のためのMOモデルや最適決定木のためのMOモデル
• MLモデルの数学的な解釈のためのMOモデル(e.g., SVM,NN)
• 制約付きMLモデルのための最適化手法の適用(e.g., Lagrange緩和)
• MOがMLをアシスト
MO
データ
分類
回帰
ML
関連研究
• Dimitris Bertsimas, Romy Shioda, (2007) Classification and
Regression via Integer Optimization. Operations Research
55(2):252-271.
• 整数最適化による区分的線形回帰
関連研究
• Bertsimas D, Dunn J (2017) Optimal classification trees.
Mach Learn 106(7):1039–1082
• 最適な分類木
• 計算時間がかかる
• その後,データの部分集合の選択,2値分類に特化した定式化,
定式化の改良,近似最適化などの工夫による高速化の研究が提
案されている.
パターン5 動的モデ
ルに対する融合型
パターン5 動的モデルに対する融合型
• オンラインでの最適化(未来の情報がないか不確定)
• 全体のフレームワークはRL /MPC (無限期間に対応)
• 新たに得られた情報でMLで予測
• 得られた情報をもとにMO
• パターン1,2の組み合わせ(関数近似,MIPlearnなど)
MO
問題例
解
ML
RL
MPC (Model Predictive Control)
• モデル予測制御 = 予測 (ML) + 最適化 (O)
• ローリング・ホライズン方式と類似
• 有限期間の最適化を繰り返し解くことによって制御
• 毎回,予測も更新
• 滑らかな制御や状態の安定性のための目的関数(凸2次最適化)
https://en.wikipedia.org/wiki/Model_predictive_control
関連研究
• Approximate Dynamic Programming: Solving the Curses of
Dimensionality (Wiley) W. B. Powell
• 近似動的計画の一連の研究
• 強化学習と最適化の融合
• 長距離輸送問題への適用
パターン 6
最適化の基礎理論レベ
ルでの相互乗入れ
パターン 6
最適化の基礎理論レベルでの相互乗入れ
• 異なる分野として研究されているが,本質的な目標は同じ
 深層学習(DL)の最適化(非凸最適解)->慣性項
Adamやfit-one cycleなどの実験に基づく改良
 微分不可能関数の最適化(劣勾配法) -> Nesterovの加速
理論的な収束性の証明
• 機械学習のモデルの数学的解釈としての数理最適化
 モデルに対する洞察 -> 改良や収束性の保証
 新しいモデルのヒント
新しいフレームワーク
ML+(M)O+MPC+RL
実用的な枠組み ML+(M)O+MPC+RL
(M)O
予測
Solution
訓練データ
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
(𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇
<𝑡>
)
(𝐼𝑡+1, 𝐼𝑡+2 , … , 𝐼𝑇 , ⋯ )
ML
ML (MIPlearn)
ML (MIPlearn)
State
𝐼𝑖 (𝑖 = ⋯ , 𝑡 − 1, 𝑡)
(𝑋𝑖
<𝑖>
, 𝑋𝑖+1
<𝑖>
, 𝑋𝑖+2
<𝑖>
, ⋯ ) (𝑖 = ⋯ , 𝑡 − 1)
(𝐼𝑖
<𝑖>
, 𝐼𝑖+1
<𝑖>
, 𝐼𝑖+2
<𝑖>
, ⋯ )
固定制約
部分解
近似解
𝑆𝑡−1 𝑆𝑖
ML (RL)
V 𝑆𝑖
𝑆𝑇+1
𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1
𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇−1
<𝑡>
≈ 𝑋𝑡
<𝑡−1>
, 𝑋𝑡+1
<𝑡−1>
, 𝑋𝑡+2
<𝑡−1>
, … , 𝑋𝑇−1
<𝑡−1>
MPC
ML+(M)O+MPC+RL (予測ML)
• 現在の期を t ,期 t の問題例は発生していると仮定
• 期 t までの問題例 (instances)から未来( t+1 期)以降のデータを予測
(予測をした期は上添字)
• 不確実性も予測(チルダがついているものは確率変数)
• たとえば,過去の需要量から未来の需要量を予測する
予測
訓練データ
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
ML
𝐼𝑖 (𝑖 = ⋯ , 𝑡 − 1, 𝑡) (𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
ML+(M)O+MPC+RL(最適化)
• 期 t の実現値と予測値から期 T までの最適化を行う
• 各期は独立ではない(たとえば,在庫は期をまたいで影響を与
える)ので,複数期を同時に最適化 (MPC)
• 期 t 以前や期 T 以降の在庫は,後述する状態を用いて表現する
(M)O
Solution
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
(𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇
<𝑡>
)
ML+(M)O+MPC+RL (MIPlearn)
• 過去の問題例と解の組で訓練
• 期 t 以降の問題例を入力し,解の情報を得る
• 解の情報を用いて,最適化の手助け(高速化)をする
(M)O
Solution
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
(𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇
<𝑡>
)
ML (MIPlearn)
ML (MIPlearn)
(𝑋𝑖
<𝑖>
, 𝑋𝑖+1
<𝑖>
, 𝑋𝑖+2
<𝑖>
, ⋯ ) (𝑖 = ⋯ , 𝑡 − 1)
(𝐼𝑖
<𝑖>
, 𝐼𝑖+1
<𝑖>
, 𝐼𝑖+2
<𝑖>
, ⋯ )
固定制約
部分解
近似解
ML+(M)O+MPC+RL(状態の利用)
• 状態を入力とし,価値関数(それ以降の利益の期待値)V を学習
• 期 T 以降もシミュレーションする(最適化の計算時間が重い場合
には,学習済みのMIPlearnのMLを使っても良い)
• 初期状態と最終状態を考慮して最適化する
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
𝑆𝑡−1 𝑆𝑖
ML (RL)
V 𝑆𝑖 𝑆𝑇+1
𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1
State
ML+(M)O+MPC+RL(ローリング・ホライズン方式)
• 期 t から期 T までの最適化を期を順次ずらしながら行う
• 予測と状態も更新する
• 制御だとMPC,最適化だとローリング・ホライズン方式とよばれる
(M)O
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
𝑆𝑡−1 𝑆𝑇+1
(𝐼𝑡+1
<𝑡+1>
, 𝐼𝑡+2
<𝑡+1>
, 𝐼𝑡+3
<𝑡+1>
, … , 𝐼𝑇+1
<𝑡+1>
)
𝑆𝑡
𝑆𝑇+2
Solution (𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇
<𝑡>
)
(M)O
予測更新
ML+(M)O+MPC+RL (解の変更を避ける)
• 期t-1の解からあまり離れないようなペナルティを付加して最適化
(M)O
Solution
Period
Instance
𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯
(𝐼𝑡
<𝑡>
, 𝐼𝑡+1
<𝑡>
, 𝐼𝑡+2
<𝑡>
, … , 𝐼𝑇
<𝑡>
)
(𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇
<𝑡>
)
𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1
𝑋𝑡
<𝑡>
, 𝑋𝑡+1
<𝑡>
, 𝑋𝑡+2
<𝑡>
, … , 𝑋𝑇−1
<𝑡>
≈ 𝑋𝑡
<𝑡−1>
, 𝑋𝑡+1
<𝑡−1>
, 𝑋𝑡+2
<𝑡−1>
, … , 𝑋𝑇−1
<𝑡−1>
おわりに
おわりに
• 提案したものは完全な分類ではない(あくまで便宜的)
• MO+MLの研究は急速に拡大
• 応用範囲は無限
• 動的最適化モデルに対する新しいフレームワークの提案
• 様々な分野で独立に研究
• 今後は,分野を超えた交流が必要

More Related Content

What's hot

学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」西岡 賢一郎
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化Yusuke Uchida
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめohken
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...Deep Learning JP
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Preferred Networks
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 

What's hot (20)

学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
CuPy解説
CuPy解説CuPy解説
CuPy解説
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 

Similar to 数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-

数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)MIKIOKUBO3
 
マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2Nagi Teramo
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or NumpyToshiki NOGUCHI
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...Eiji Uchibe
 
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMCベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC基晴 出井
 
論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)Lintaro Ina
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2Ryoma Nakagawa
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足ke beck
 
Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Naotaka Yamada
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
Magnitude ~ extend the Euler Characteristics via Möbius Inversion ~
Magnitude ~ extend the Euler Characteristics via  Möbius Inversion ~Magnitude ~ extend the Euler Characteristics via  Möbius Inversion ~
Magnitude ~ extend the Euler Characteristics via Möbius Inversion ~Tatsuki SHIMIZU
 
よくわかる条件分岐
よくわかる条件分岐よくわかる条件分岐
よくわかる条件分岐Noriyuki Ito
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1hirokazutanaka
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習Kenta Ishii
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
ディジタル信号処理の課題解説
ディジタル信号処理の課題解説ディジタル信号処理の課題解説
ディジタル信号処理の課題解説noname409
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)Toshiyuki Shimono
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...T T
 

Similar to 数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み- (20)

数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
 
マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2マルコフ連鎖モンテカルロ法入門-2
マルコフ連鎖モンテカルロ法入門-2
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
 
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMCベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
ベイズ推定でパラメータリスクを捉える&優れたサンプラーとしてのMCMC
 
論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)論理と計算のしくみ 5.3 型付きλ計算 (前半)
論理と計算のしくみ 5.3 型付きλ計算 (前半)
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
Magnitude ~ extend the Euler Characteristics via Möbius Inversion ~
Magnitude ~ extend the Euler Characteristics via  Möbius Inversion ~Magnitude ~ extend the Euler Characteristics via  Möbius Inversion ~
Magnitude ~ extend the Euler Characteristics via Möbius Inversion ~
 
よくわかる条件分岐
よくわかる条件分岐よくわかる条件分岐
よくわかる条件分岐
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
ディジタル信号処理の課題解説
ディジタル信号処理の課題解説ディジタル信号処理の課題解説
ディジタル信号処理の課題解説
 
yyoshida thesis
yyoshida thesisyyoshida thesis
yyoshida thesis
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
 
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
AI2: Safety and Robustness Certification of Neural Networks with Abstract Int...
 
Osaka.stan#2 chap5-1
Osaka.stan#2 chap5-1Osaka.stan#2 chap5-1
Osaka.stan#2 chap5-1
 

Recently uploaded

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 

Recently uploaded (12)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 

数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-

  • 4. 略語と分類 • MO:数理最適化 (Mathematical Optimization) • O:より広い最適化(Optimization) • ML: 機械学習(Machine Learning) • RL:強化学習(Reinforcement Learning) = O + ML • MPC:モデル予測制御 (Model Predictive Control) = O + ML MOとRLの融合  6つのパターンに分類 1. ML -> MO (ML-first MO-second: ML先 MO後) 2. MO -> ML (MO-first ML-second: MO先 ML後) 3. ML ⊃ MO (ML assists MO: 機械学習が最適化をアシスト) 4. MO ⊃ ML(MO assists ML: 最適化が機械学習をアシスト) 5. RL/MPC中心の融合型(ML & MO assists RL/MPC) 6. 最適化の基礎理論で相互乗り入れ
  • 6. パターン1 ML → MO • ML をした後で MO を適用する • 最も古典的で自然なアプローチ • MLで予測し関数近似 => 近似した制約や目的関数をMOで解く  MLの予測モデルをそのままMOに数式として埋め込む(Gurobi 10.0+)  MLの予測モデルを現実的な仮定でMOで解きやすい関数として近似 • MLで前処理(e.g., クラスタリング) → MO • MLで解法を選択 → MO ML MO データ 解
  • 7. MLで予測し関数近似 => (M)Oで解く • たくさんのML手法 × たくさんの最適化手法 = たくさんある • 限定されたML -> 非線形ソルバー・混合整数最適化ソルバー • 任意のML -> オラクルを用いたブラックボックス最適化 • 任意のML -> 解きやすい関数に近似 -> 最適化ソルバー ML (M)O データ 解
  • 8. 限定されたML -> MO: Gurobi ML • https://github.com/Gurobi/gurobi-machinelearning • 線形回帰 • 多項式回帰(2次) • ロジスティック回帰(非線形関数を区分的線形関数で近似) • ニューラルネット(完全結合層でLeLUのみ) • 決定木 • 勾配ブースティング • ランダム森 ML y x 特徴ベクトル(変数 or 定数) 予測制約 ターゲット min f(x,y) s.t. x => ML => y x ∈X
  • 9. 任意のML -> ブラックボックスO • MLをオラクルとしてブラックボックス最適化 • 利点:任意のMLで動く • 弱点:遅い ML f(x) x min f(x) s.t. x ∈X ブラックボックス最適化 x f(x) オラクル
  • 10. ML -> 解きやすい関数に近似 -> ソルバー • 任意のMLモデルでたくさんの教師データを生成 • 解きやすい関数を仮定し,実務的な公理を満たすように関数近似  例1:地点間と輸送手段別の輸送費用  単調非減少(重くなると高くなるか同じ)  連続(急に変化しない)  凹関数(単位重量あたりの費用は,重量が大きくなると安くなる)  原点を通る(運ばないときはタダ) 例2:需要関数 価格に対する減少関数,凸関数 => MOによる区分的線形回帰
  • 11. MLで前処理 → MO • クラスタリングや次元削 減などの教師なしMLは, 一種の最適化 • 大規模最適化のための, 前処理は自然 • ロジスティクス・ネット ワーク設計問題の例 • 1000点を50点にクラスタ リングしてから最適化
  • 12. MLで解法を選択 → MO • 次の MO → ML で複数の最適化手法の性能学習した後の実行時 問題例 機械学習 最適化手法群 計算時間 vs 解 報酬予測 機械学習 𝑓(𝑎) 最適化の性能学習 問題例 最適化 ML → MO MO → ML
  • 14. パターン2 MO → ML • MO でたくさんのデータ(問題例と解の組)を生成し,MLで学習 • 似た問題例の系列に対して訓練  解のヒントや満たすべき制約を返し,MOを高速化 (MIPlearn)  新しい問題例に対して解を返す (End-to-End learning)  近似(実行不能)解を返し,近い実行可能解に変換(optimization proxy) • 最適化に時間がかかるときやリアルタイム最適化に有効 MO 問題例 解 ML
  • 15. MIPLearnフレームワーク 問題例 数理最適化 予測 機械学習 𝐼(𝑖) (𝑖 = 1, … , 𝑚) 𝑂𝑃𝑇 𝐼 最適解 𝑆(𝑖) (𝑖 = 1, … , 𝑚) 問題例 解 訓練データ 問題例 最適解の分布 𝐼 x.Start (初期部分解) x.VarHintVal (ヒント) 満たすべき等式
  • 16. 関連研究 • Álinson S. Xavier, Feng Qiu, Shabbir Ahmed (2020) Learning to Solve Large-Scale Security-Constrained Unit Commitment Problems. INFORMS Journal on Computing 33(2):739-756 • 起動停止問題を例として機械学習で数理最適化の高速化 • 訓練データからk-近傍法とSVMで変数を固定 • 一般の最適化問題用のパッケージ https://anl-ceeesa.github.io/MIPLearn/0.1/ • TSPへの適用例(ただし枝費用のみ変化)
  • 17. k-近傍法 • インスタンス I に近いインスタンスデータからk個選択 • 対応する解 の平均値を計算(0-1変数xのみ) • が閾値 UB 以上なら 1 に,閾値 LB 以下なら0に固定 𝐼(𝑖) (𝑖 = 1, … , 𝑘) 𝑆(𝑖) (𝑖 = 1, … , 𝑘) 𝑥𝑗 = 𝑖=1 𝑘 𝑥𝑗 𝑖 /𝑘 𝑥𝑗
  • 18. (不)等式の追加 • 閾値以上の確率で解 が,ある式 を等 号で満たす => 式を追加して解く • 変数の固定も,これの特殊形 例 施設配置 ある顧客1と2は同じ施設に割り当てられる x1j =x2j 施設 1 が選ばれたときには,必ず施設3も選ばれる y1 <= y3 𝑆(𝑖) (𝑖 = 1, … , 𝑚) 𝑎𝑥 = 𝑏
  • 19. StartとVarHintValの違い • 変数.Start は,指定した値から実行可能解を構築する • 変数.VarHintVal は,指定した値をヒントにしてヒューリス ティクス探索を行い,分枝の優先度を変える • 両者とも,解の一部だけ与えることも可能
  • 21. パターン3 ML ⊃ MO • MO のパラメータをMLで学習 • (多くのパラメータを含む)MOの高速化が主目的 • ベンチマーク問題例を与えて訓練  RLで分枝ルールを改善  RLで切除平面を改善 • MLがMOをアシスト (Learning to optimize) MO 問題例 解 計算時間 ML/RL
  • 22. 関連研究 • Solving Mixed Integer Programs Using Neural Networks (Deep Mind, Google Research) • 一般のMIPへの適用(グラフ的深層学習利用)
  • 24. パターン4 MO ⊃ ML • MLのタスク(分類,回帰)をMOで行う • 特徴選択のためのMOモデルや最適決定木のためのMOモデル • MLモデルの数学的な解釈のためのMOモデル(e.g., SVM,NN) • 制約付きMLモデルのための最適化手法の適用(e.g., Lagrange緩和) • MOがMLをアシスト MO データ 分類 回帰 ML
  • 25. 関連研究 • Dimitris Bertsimas, Romy Shioda, (2007) Classification and Regression via Integer Optimization. Operations Research 55(2):252-271. • 整数最適化による区分的線形回帰
  • 26. 関連研究 • Bertsimas D, Dunn J (2017) Optimal classification trees. Mach Learn 106(7):1039–1082 • 最適な分類木 • 計算時間がかかる • その後,データの部分集合の選択,2値分類に特化した定式化, 定式化の改良,近似最適化などの工夫による高速化の研究が提 案されている.
  • 28. パターン5 動的モデルに対する融合型 • オンラインでの最適化(未来の情報がないか不確定) • 全体のフレームワークはRL /MPC (無限期間に対応) • 新たに得られた情報でMLで予測 • 得られた情報をもとにMO • パターン1,2の組み合わせ(関数近似,MIPlearnなど) MO 問題例 解 ML RL
  • 29. MPC (Model Predictive Control) • モデル予測制御 = 予測 (ML) + 最適化 (O) • ローリング・ホライズン方式と類似 • 有限期間の最適化を繰り返し解くことによって制御 • 毎回,予測も更新 • 滑らかな制御や状態の安定性のための目的関数(凸2次最適化) https://en.wikipedia.org/wiki/Model_predictive_control
  • 30. 関連研究 • Approximate Dynamic Programming: Solving the Curses of Dimensionality (Wiley) W. B. Powell • 近似動的計画の一連の研究 • 強化学習と最適化の融合 • 長距離輸送問題への適用
  • 32. パターン 6 最適化の基礎理論レベルでの相互乗入れ • 異なる分野として研究されているが,本質的な目標は同じ  深層学習(DL)の最適化(非凸最適解)->慣性項 Adamやfit-one cycleなどの実験に基づく改良  微分不可能関数の最適化(劣勾配法) -> Nesterovの加速 理論的な収束性の証明 • 機械学習のモデルの数学的解釈としての数理最適化  モデルに対する洞察 -> 改良や収束性の保証  新しいモデルのヒント
  • 34. 実用的な枠組み ML+(M)O+MPC+RL (M)O 予測 Solution 訓練データ Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) (𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇 <𝑡> ) (𝐼𝑡+1, 𝐼𝑡+2 , … , 𝐼𝑇 , ⋯ ) ML ML (MIPlearn) ML (MIPlearn) State 𝐼𝑖 (𝑖 = ⋯ , 𝑡 − 1, 𝑡) (𝑋𝑖 <𝑖> , 𝑋𝑖+1 <𝑖> , 𝑋𝑖+2 <𝑖> , ⋯ ) (𝑖 = ⋯ , 𝑡 − 1) (𝐼𝑖 <𝑖> , 𝐼𝑖+1 <𝑖> , 𝐼𝑖+2 <𝑖> , ⋯ ) 固定制約 部分解 近似解 𝑆𝑡−1 𝑆𝑖 ML (RL) V 𝑆𝑖 𝑆𝑇+1 𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1 𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇−1 <𝑡> ≈ 𝑋𝑡 <𝑡−1> , 𝑋𝑡+1 <𝑡−1> , 𝑋𝑡+2 <𝑡−1> , … , 𝑋𝑇−1 <𝑡−1> MPC
  • 35. ML+(M)O+MPC+RL (予測ML) • 現在の期を t ,期 t の問題例は発生していると仮定 • 期 t までの問題例 (instances)から未来( t+1 期)以降のデータを予測 (予測をした期は上添字) • 不確実性も予測(チルダがついているものは確率変数) • たとえば,過去の需要量から未来の需要量を予測する 予測 訓練データ Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ ML 𝐼𝑖 (𝑖 = ⋯ , 𝑡 − 1, 𝑡) (𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> )
  • 36. ML+(M)O+MPC+RL(最適化) • 期 t の実現値と予測値から期 T までの最適化を行う • 各期は独立ではない(たとえば,在庫は期をまたいで影響を与 える)ので,複数期を同時に最適化 (MPC) • 期 t 以前や期 T 以降の在庫は,後述する状態を用いて表現する (M)O Solution Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) (𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇 <𝑡> )
  • 37. ML+(M)O+MPC+RL (MIPlearn) • 過去の問題例と解の組で訓練 • 期 t 以降の問題例を入力し,解の情報を得る • 解の情報を用いて,最適化の手助け(高速化)をする (M)O Solution Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) (𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇 <𝑡> ) ML (MIPlearn) ML (MIPlearn) (𝑋𝑖 <𝑖> , 𝑋𝑖+1 <𝑖> , 𝑋𝑖+2 <𝑖> , ⋯ ) (𝑖 = ⋯ , 𝑡 − 1) (𝐼𝑖 <𝑖> , 𝐼𝑖+1 <𝑖> , 𝐼𝑖+2 <𝑖> , ⋯ ) 固定制約 部分解 近似解
  • 38. ML+(M)O+MPC+RL(状態の利用) • 状態を入力とし,価値関数(それ以降の利益の期待値)V を学習 • 期 T 以降もシミュレーションする(最適化の計算時間が重い場合 には,学習済みのMIPlearnのMLを使っても良い) • 初期状態と最終状態を考慮して最適化する Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) 𝑆𝑡−1 𝑆𝑖 ML (RL) V 𝑆𝑖 𝑆𝑇+1 𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1 State
  • 39. ML+(M)O+MPC+RL(ローリング・ホライズン方式) • 期 t から期 T までの最適化を期を順次ずらしながら行う • 予測と状態も更新する • 制御だとMPC,最適化だとローリング・ホライズン方式とよばれる (M)O Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) 𝑆𝑡−1 𝑆𝑇+1 (𝐼𝑡+1 <𝑡+1> , 𝐼𝑡+2 <𝑡+1> , 𝐼𝑡+3 <𝑡+1> , … , 𝐼𝑇+1 <𝑡+1> ) 𝑆𝑡 𝑆𝑇+2 Solution (𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇 <𝑡> ) (M)O 予測更新
  • 40. ML+(M)O+MPC+RL (解の変更を避ける) • 期t-1の解からあまり離れないようなペナルティを付加して最適化 (M)O Solution Period Instance 𝑡 − 1 𝑡 𝑡 + 1 𝑡 + 2 ⋯ 𝑇 𝑇 + 1 ⋯ (𝐼𝑡 <𝑡> , 𝐼𝑡+1 <𝑡> , 𝐼𝑡+2 <𝑡> , … , 𝐼𝑇 <𝑡> ) (𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇 <𝑡> ) 𝑚𝑎𝑥 𝑣 𝑥 + 𝑉 𝑆𝑇+1 𝑋𝑡 <𝑡> , 𝑋𝑡+1 <𝑡> , 𝑋𝑡+2 <𝑡> , … , 𝑋𝑇−1 <𝑡> ≈ 𝑋𝑡 <𝑡−1> , 𝑋𝑡+1 <𝑡−1> , 𝑋𝑡+2 <𝑡−1> , … , 𝑋𝑇−1 <𝑡−1>
  • 42. おわりに • 提案したものは完全な分類ではない(あくまで便宜的) • MO+MLの研究は急速に拡大 • 応用範囲は無限 • 動的最適化モデルに対する新しいフレームワークの提案 • 様々な分野で独立に研究 • 今後は,分野を超えた交流が必要