Feature Engineering for Predictive
Modeling Using Reinforcement Learning
Udayan Khurana, Horst Samulowitz, Deepak Turaga
北海道大学大学院情報科学研究科
調和系工学研究室
修士1年 吉田
2018年11月2日 論文紹介ゼミ
紹介する論文
• タイトル
– Feature Engineering for Predictive Modeling Using Reinforcement
Learning
• 著者
– Udayan Khurana*, Horst Samulowitz*, Deepak Turaga*
– *IBM Research AI
• 学会
– AAAI2018
• 概要
– 強化学習によるFeature Engineering
– 多数のデータセットで既存手法を超える精度
1
Feature Engineering(FE)
• 予測分析は様々な分野で意思決定のサポートに用いられる
• データの表現方法(特徴量)は予測モデルの性能向上に重要
– 大抵の場合、モデル構築前に適切なデータ変換が必要(Feature
Engneering)
2
縦軸:x 縦軸:sin(0.32x)
Feature Engineering(FE)
• 勘、直感、試行錯誤によって人力で行われる
– 時間がかかる
– FEの自動化は計算コスト的にも難しい
• 変換の合成によって考え得る特徴の数は無限
• 新しい特徴の効果を確認するには、新しいモデルの学習検証が必要
• 既存の自動FE
– 計算コストが高い
– 複雑な特徴を発見する能力が不足
• 強化学習による自動FEアプローチを提案
3
提案手法
• 特定の予算内で有用なFEを探索
• 探索はtransformation-graphで実行
• 探索の方策を強化学習(Q学習)によって学習
4
Transformation-graph
Transformation-graph
• 有向非循環グラフ
5
ルートノード𝐷0
(元データ FE無し)
Transformation-graph
• 有向非循環グラフ
6
各エッジは変換を表す
各ノードはデータセットを表す
𝐷0 ⊆ 𝐷3
探索アルゴリズム
7
探索アルゴリズム
8
𝐷:データセット
𝐺:グラフ
𝑛:ノード
𝑡:変換
𝜃(𝐺):グラフ𝐺の全ノード
𝜆 𝐷𝑖, 𝐷𝑗 :𝐷𝑗 → 𝐷𝑖の変換𝑡
探索アルゴリズム
9
推定報酬𝑅が最大となる𝑛, 𝑡を選択
𝑅 𝐺𝑖, 𝑛, 𝑡, 𝑏 𝑟𝑎𝑡𝑖𝑜
行動(どのノード𝑛にどの変換𝑡を適用
するか)の相対的重要度を定義
探索アルゴリズム
• 推定報酬𝑅の設定によって探索の戦略を決定
– Q学習によって𝑅を学習
• シンプルな探索戦略は人手で作れる
– 深さ優先探索
– 幅優先探索
– Cognito (同じ著者の先行研究、実験で比較)
• Khurana, U.; Turaga, D.; Samulowitz, H.; and Parthasarathy, S. 2016b.
Cognito: Automated feature engineering for supervised learning. In
Proceedings of the IEEE 16th International Conference on Data Mining
Workshops 1304–1307.
– シンプルな探索戦略は特定の状況では適切に機能するが、
様々な状況下で機能する統一戦略を人手で行うのは困難
10
𝑅を決定する要素
1. ノード𝑛の精度
– ノードの精度が高いほどそのノードからの探索が促進される
2. 変換𝑡の𝐺𝑖までの平均即時報酬
3. 変換𝑡がルートノードからノード𝑛までに適用された回数
4. ノード𝑛とその親の精度の利得
5. ノードの深さ
– 変換シーケンスの相対的な複雑さにペナルティをかけるために使用
6. 𝐺𝑖までに使った予算の割合(𝑏 𝑟𝑎𝑡𝑖𝑜 =
𝑖
𝐵 𝑚𝑎𝑥
)
7. ノード𝑛の特徴数の元のデータセットに対する比
– どれだけ増えたか
8. 変換が特徴選択かどうか
9. データセットに数値特徴、日時特徴、文字列特徴、などが含まれているか
どうか
11
Q-Learning with Function Approximation
• ステップ𝑖
– 行動(ノードに変換を適用)により新しいノード𝑛𝑖が生成される
– モデルの訓練テスト
• 精度𝐴(𝑛𝑖)となる新しいデータセットが得られる
• 各ステップでの即時報酬
– 𝑟𝑖 = max
𝑛′∈𝜃(𝐺 𝑖+1)
𝐴 𝑛′
− max
𝑛∈𝜃(𝐺 𝑖)
𝐴(𝑛)
• 𝑟0 = 0
• 状態𝑠𝑖からの累積報酬
– 𝑅 𝑠𝑖 = 𝑗=0
𝐵 𝑚𝑎𝑥
𝛾 𝑖 𝑟𝑖+𝑗
• 𝑠𝑖:グラフ𝐺𝑖と残り予算𝑏 𝑟𝑎𝑡𝑖𝑜
• 𝛾 ∈ [0,1):割引率
• 目的
– 累積報酬𝑅 𝑠𝑖 を最大にする方策Π∗
を見つける
12
Q-Learning with Function Approximation
• Q学習
– 方策Πの𝑄関数
• 𝑄 𝑠, 𝑐 = 𝑟 𝑠, 𝑐 + 𝛾𝑅Π
(𝛿 𝑠, 𝑐 )
– 𝛿: 𝑆 × 𝐶 → 𝑆 仮想遷移関数
– 最適方策 Π∗(𝑠) = argmax
𝑐
|𝑄(𝑠, 𝑐)|
• 𝑆のサイズを考えると𝑄関数を直接学習することは不可能
• 線型結合による近似
– 𝑄 𝑠, 𝑐 = 𝑤 𝑐 𝑓(𝑠)
• 𝑤 𝑐:行動𝑐の重みベクトル
• 𝑓 𝑠 = 𝑓(𝑔, 𝑛, 𝑡, 𝑏)
– 状態と残りの予算比率のベクトル
13
Q-Learning with Function Approximation
• Q関数の線型結合による近似
– 𝑄 𝑠, 𝑐 = 𝑤 𝑐 𝑓(𝑠)
• 𝑤 𝑐の更新ルール
– 𝑤 𝑐 𝑗 ← 𝑤 𝑐 𝑗 + 𝛼 𝑟𝑗 + 𝛾 max
𝑛′,𝑡′
𝑄 𝑔′, 𝑐′ − 𝑄 𝑔, 𝑐 𝑓(𝑔, 𝑏)
• 𝑔′:ステップ𝑗 + 1のグラフ
• 𝛼:学習率
– この証明
• Irodova, M., and Sloan, R. H. 2005. Reinforcement learning and
function approximation. In FLAIRS Conference, 455–460.
14
実験(学習:方策)
• 48のデータセットを使用(テストデータセットとの重複無し)
• 予算
– 異なる予算を各データセットにランダムな順番で使用
• 𝐵 𝑚𝑎𝑥 ∈ {25, 50, 75,100,150,200,300,500}
• 割引率
– 𝛾 = 0.99
• 学習率
– 𝛼 = 0.05
• 重みベクトル𝑤 𝑐
– 12次元
– 1で初期化
• 𝜀-greedy法
– 𝜀 = 0.15
15
• 変換
実験
• 48のデータセットに対してテスト
– 5つFEを比較
• Base dataset
– 元データ(FE無し)
• 提案手法(𝑅𝐿1)
– 𝐵 𝑚𝑎𝑥 = 100
• Expansion-reduction
– 全ての変換を別々に適用 → 特徴選択
• Random
– ランダムな特徴にランダムに変換関数を適用 ×100
• Tree-Heur
– Khurana, U.; Turaga, D.; Samulowitz, H.; and Parthasarathy, S. 2016b. Cognito: Automated feature
engineering for supervised learning. In Proceedings of the IEEE 16th International Conference on
Data Mining Workshops 1304–1307.
– 学習アルゴリズム
• Random Forestを使用
– ハイパーパラメータはBase datasetをもとに決定したものを使用
16
実験結果
17
スペースがないため、48の内24表示
実験結果
18
分類問題(C)
• 1 - Relative Absolute Error
回帰問題(R)
• F-Score
どちらも高い方が良い
実験結果
19
提案手法は殆どのデータセットに対して優れた性能を示した
実験結果
• 誤差
– 48のデータセットに対して提案手法は誤差を24.6%(中央値)削減した
• 実行時間
– 提案手法(100node)はBikeshare DCで4分40秒
• BikeshareDC
– Row:10886
– Features:11
• Single thread on a 2.8GHz processor
– 提案手法とRandam,Tree-Heurは大体同じ時間(全データセット)
– Expand-reduceは提案手法の0.1倍~0.9倍
20
高さ制約の比較
• 𝐵 𝑚𝑎𝑥 = 100
21
ℎ 𝑚𝑎𝑥 = 4で最大精度のノードを発見
ℎ 𝑚𝑎𝑥 = 6で精度が劣化(Openml_620)
→ 予算𝐵 𝑚𝑎𝑥が不足
グラフの高さℎ
• ルートノードとの距離
まとめ
• Feature Engineeringを効率的に行うための新しい手法を提
案
– 要点
• 特徴空間を列挙するtransformation graph
• 強化学習ベースの探索
– 様々なデータセットでエラー率を大幅に削減(中央値で25%)
• 今後の展望
– 状態変数の非線形モデリング
– 欠損値の補間、モデル選択への応用
– 最適な特徴は学習アルゴリズムに依存するので、FEと学習アルゴリズ
ム選択の共同最適化
22

Feature engineering for predictive modeling using reinforcement learning