SlideShare a Scribd company logo
1 of 57
Download to read offline
Bandit Algorithm
And Causal Inference
/ /
Shota Yasui
Who are you?
Shota Yasui( )
@housecat
経歴
2013 新卒総合職⼊社(広告事業本部)
2015 アドテクスタジオへ異動

DMP/DSP/SSPで分析
AILabスタート
ADEconチームスタート
!2
.Bandit Algorithmとは?
.Causal Inference + Bandit
.Off-Policy Evaluation
.Future Work + まとめ
!3
Banditとは何か?
Bandit Problem?
• 広告画像の選択肢がM個ある(ex. M = )
• ユーザーアクセス毎に選択肢を選ぶ
• 広告画像を⾒たユーザーがClickするか決める
• この操作をT回のアクセス分だけ繰り返す
• 最もClickを稼げる選び⽅は何か?
!5
Bandit Algorithmの概要
arm_a
arm_b
Request
!6
Bandit Algorithmの概要
arm_a
E[r|A = a]
V[r|A = a]
arm_b
E[r|A = b]
V[r|A = b]
Request
!7
Bandit Algorithmの概要
arm_a
E[r|A = a]
V[r|A = a]
arm_b
E[r|A = b]
V[r|A = b]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
!8
Bandit Algorithmの概要
arm_a
E[r|A = a]
V[r|A = a]
arm_b
E[r|A = b]
V[r|A = b]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Feedback

+Update
!9
Banditの良いところ
• 古典的にはAB-test(RCT)が使われていたタスク
前半AB-testして、後半は良かったのを使う。
代理店とかでよくやる。

• Banditだと得られるclick数がより多くなる
armのモデルを更新しつつ
モデルに従って選ぶ
!10
Bandit Algorithmの概要
arm_a
E[r|A = a]
V[r|A = a]
arm_b
E[r|A = b]
V[r|A = b]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Batched Bandit Setting/interactive machine learning
!11
Bandit Algorithmの概要
arm_a
E[r|A = a]
V[r|A = a]
arm_b
E[r|A = b]
V[r|A = b]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Update
Batched Bandit Setting/interactive machine learning
!12
Bandit Algorithmの概要
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Update
Batched Bandit Setting/interactive machine learning Contextual Bandit Case
!13
Policyと呼ばれる部分
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
!14
Thompson + Batch
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
!15
腕の選択を複数回繰り返せば、

あるバッチでの真の確率を得られる。
⼊ってくるリクエストに対して、
選択肢の選択確率が決まる。
バンディットのログで
因果推論(CI)
AD Template Selection
• 広告のテンプレートを選ぶ問題(アイテムは独⽴した別の機構で決定される)
• ユーザーの情報Xを得て、選択肢{a,b,c,d}に対してCTRの予測を⾏う
• 予測値が最⼤の選択肢を選ぶ(上の例ではb)
• Clickを観測する(Y)
• モデル更新は1⽇1回
Policy
!17
よくある依頼
どちらのテンプレートが
どのくらいCTRが⾼いか?
!18
Golden Standard Research Design
!19
因果推論による情報の復元
• 選択肢bのCTRを評価したい
• バンディットの選択がbの場合にはYの値がわかる
• 観測できたYだけで評価をするべきか?
• 分布が全体のデータの分布と同じなら問題ない
• バンディットがbを選んだというバイアスが存在
→観測できたデータから全体での結果を推測する
→因果推論の出番!
!20
IPW(Inverse Probability Weighting)
• ex)ある学校で平均⾝⻑を知りたい
• 体重だけはなぜか知っている
たまたまラグビー部が試合で⽋席
体重が60kg以上の⼈の50%がラグビー部
• 本当の平均⾝⻑(⻘線)
• ラグビー部不在の⾝⻑(⾚線)
• ⾚線は⻘線よりも下がっている
⾼⾝⻑のデータが⽋損しているから
!21
⾝⻑
体重
IPW
• ⾼⾝⻑が不在という情報はある
体重60kg以上の50%がラグビー部
いない分データを⽔増しする
• 体重/出席率すると…
kg以上の観測データを2倍に⽔増し
kg以下は1倍
• このデータで平均を算出(緑線)
• ⻘線に近くなった!
!22
⾝⻑
体重
データが⽋損していて、
!23
得られたデータの

観測確率が分かっていれば、
= Propensity Score
!24
データを⽔増しして、
元の平均を推定することが可能。
!25
因果推論による情報の復元
•黒のデータは⽋損(ラグビー部)
•⽋損の理由はバンディットでbが選
ばれないから
•では観測確率は?
→Policyがbを選ぶ確率
!26
True Propensity Score
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Batched Bandit Setting/interactive machine learning
!27
Estimator
CTRnaive = N−1
N
∑
i
clicki CTRIPW = K−1
K
∑
j
Dj clickj
pj
選択が⼀致したデータ
全てのデータ
選択が⼀致すると1

しない場合は0
腕の選択確率
!28
Biased Result
• Contextual Banditのログから集計
• ログからそのままCTRを集計したもの
• 事業責任者やコンサルの⽅が⾒るよう
なデータの結果。
• template_ が最も良い結果
26以外必要ないのか?
CTRnaive = N−1
N
∑
i
clicki
!29
IPW Result
• バンディットのバイアスを取り除く
ためにIPWを利⽤。
• どのテンプレートも優劣無し。
CTRIPW = K−1
K
∑
j
Dj clickj
pj
!30
Heterogeneity
• GRFを使う
• 条件別の因果効果を推定する
• CV的な操作を⾏いRobust性を担保
• GRFで因果効果の傾向が変わる変数を
探索する。
!31
IPW by Interstitial
Interstitial ad
Not Interstitial ad Interstitial ad
!32
Banditのログでバイアスの少ない
事後的な分析が出来る。
!33
Off-Policy Evaluation
(OPE)
ADTemplate Selection
• 広告のテンプレートを選ぶ問題(アイテムは独⽴した別の機構で決定される)
• ユーザーの情報Xを得て、選択肢{a,b,c,d}に対してCTRの予測を⾏う
• 予測値が最⼤の選択肢を選ぶ(上の例ではb)
• Clickを観測する(Y)
Bandit Algorithm
再掲
!35
!36
Counterfactual Policyを考える
Counterfactual Policy
Research Question
How to compare two AI Systems?
!37
Golden Standard Research Design
!38
RCT is costly
• RCTの為にモデルの実装が必要
• ⼤量のアイデアを同時に試すのは不可能
• ハイパーパラメーターなどの調整での利⽤は⾮現実的
• CF Policyがダメダメだと損失のリスクもある‧‧‧
→なるべくRCTせずに評価を⾏いたい
!39
OPE(Off-policy Evaluation)
• 既存のPolicyは全てのサンプルでYが観測できている
• Yの平均が評価になる。
• 新規のPolicyは既存のPolicyと選択が同じ時だけYがわかる
• Yの⾚字の平均が評価になる?
• ⾚字のデータが黒字のデータのランダムサンプルである場合
• ⾚字のデータは全データと同⼀の分布
• 実際にはPolicyの決定に依存しているのでこれはない
• どちらかがランダム選択であれば違う
→全部のデータに対する評価を得たい
!40
そうだ、IPWを使おう。
!41
データが⽋損していて、
再掲
!42
得られたデータの

観測確率が分かっていれば、
= Propensity Score
再掲
!43
データを⽔増しして、
元の平均を推定することが可能。
再掲
!44
True Propensity Score
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Batched Bandit Setting/interactive machine learning
再掲
!45
因果推論とOPEの差
• 因果推論
常に⼀つの選択肢を選ぶpolicyの評価
• Off-Policy Evaluation
状況によって選択が変化するpolicyの評価
因果推論はむしろOPEの特殊な形
CTRIPW = K−1
K
∑
j
Dj clickj
pj
CTROPE = K−1
K
∑
j
m
∑
a
clickj Dj,a
π(a|Xj)
pj
腕aが⼀致した選択か?
評価したいpolicyの決定
!46
Efficient CF Evaluation
• AAAI (oral + poster)
https://arxiv.org/abs/ .
• ⼤まかな内容
傾向スコアの作り⽅を変える
MLで傾向スコアを推定する
OPEでの不確実性が減少
!47
True Propensity Score
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Batched Bandit Setting/interactive machine learning
再掲
!48
True Propensity Score
arm_a
E[r|A = a,X]
V[r|A = a,X]
arm_b
E[r|A = b,X]
V[r|A = b,X]
Decision Rule

(UCB/Thompson Sampling)
Request
arm_b Selected Arm
Storage
Feedback
Batched Bandit Setting/interactive machine learning
提案:選択確率をMLで推定してしまう。
•TPS= %でも実際のデータ上では55%だったりする。
•IPWではデータ上の割り振りを修正したい
•ML/nonparametric-modelでデータ上の割り振りを学習する
!49
実験結果
• DSPのデータでの実験
• 新しいアイデアを使ったPolicyを作ってOPE
• TPSとEPSで評価
• 縦軸:報酬性能の推定値
• 横軸:PSの種類
• EPSだと信頼区間が⼩さい
!50
True Propensity Score Case Estimated Propensity Score Case
!51
Banditのログでバイアスの少ない
Policy評価ができた。
(しかも統計的に効率的に。)
!52
まとめ
分析(not予測)環境の変化
• 機械学習を利⽤した意思決定の⾃動化が進んできた
RTB/Recommend/Ad Selection/Ranking/etc
この6年間肩⾝が狭くなる⼀⽅

• ⼀⽅で)⾃動意思決定によって残されたデータを分析する必要性
What is good policy? / Causal effect of some items
→プロダクトとして⾃動意思決定と事後分析をセットで考える必要性
• バンディットはたまたまこの流れが早かった
他の機械学習タスクでもこの流れになる
!54
分析者(not予測)が⽬指したいところ
• ⾃動意思決定をデザインする(with ML Engineer)
事後的な分析を⾒込んだデザインをする必要がある
arg maxやUCBからの卒業(報酬性能も低い)

• ⾃動意思決定のデザインに応じた分析をデザインする
MDPを仮定する強化学習のログで因果推論はどうやるか?

• 結局両⽅デザインしに⾏く必要がある
データが⽣まれるプロセスから、
事後的な分析のプロセスまでをデザインする。
!55
21世紀の分析者は、
データのゆりかごから
墓場までをデザインする。
!56
Enjoy
Your Design!

More Related Content

What's hot

時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)Kazuyuki Wakasugi
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)Shota Imai
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験克海 納谷
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical ReportDeep Learning JP
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 

What's hot (20)

時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
深層強化学習と実装例
深層強化学習と実装例深層強化学習と実装例
深層強化学習と実装例
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 

Similar to L 05 bandit with causality-公開版

Pycon reject banditアルゴリズムを用いた自動abテスト
Pycon reject banditアルゴリズムを用いた自動abテストPycon reject banditアルゴリズムを用いた自動abテスト
Pycon reject banditアルゴリズムを用いた自動abテストShoichi Taguchi
 
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Mao Yamaguchi
 
Contextual package
Contextual packageContextual package
Contextual packageShota Yasui
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスShoichi Taguchi
 
センサーxIo tx機械学習が実現する導線分析のビジネス貢献
センサーxIo tx機械学習が実現する導線分析のビジネス貢献センサーxIo tx機械学習が実現する導線分析のビジネス貢献
センサーxIo tx機械学習が実現する導線分析のビジネス貢献Microsoft Azure Japan
 
Tableau Developers Club Season2 - 外部サービス連携デモ
Tableau Developers Club Season2 - 外部サービス連携デモ Tableau Developers Club Season2 - 外部サービス連携デモ
Tableau Developers Club Season2 - 外部サービス連携デモ Kenji Noguchi
 
Paper Collection of Real-Time Bidding論文読み会~第一回~
Paper Collection of Real-Time Bidding論文読み会~第一回~Paper Collection of Real-Time Bidding論文読み会~第一回~
Paper Collection of Real-Time Bidding論文読み会~第一回~Genki Ishibashi
 
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) cvpaper. challenge
 
Realize tokyo2019 yrglm
Realize tokyo2019 yrglmRealize tokyo2019 yrglm
Realize tokyo2019 yrglmKatsuya Uehara
 
700億件のリアルタイム分析の実現と運用の実態
700億件のリアルタイム分析の実現と運用の実態700億件のリアルタイム分析の実現と運用の実態
700億件のリアルタイム分析の実現と運用の実態Eiji Yamamoto
 
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...Optimization Approaches for Counterfactual Risk Minimization with Continuous ...
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...Kenshi Abe
 
異業種でのテスト自動化の実際
異業種でのテスト自動化の実際異業種でのテスト自動化の実際
異業種でのテスト自動化の実際Satsuki Urayama
 
企業の中の経済学
企業の中の経済学企業の中の経済学
企業の中の経済学Yusuke Kaneko
 
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...DataWorks Summit/Hadoop Summit
 
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...Recruit Technologies
 
外部キー制約を考慮した特徴量削減手法
外部キー制約を考慮した特徴量削減手法外部キー制約を考慮した特徴量削減手法
外部キー制約を考慮した特徴量削減手法NTT Software Innovation Center
 
Retty recommendation project
Retty recommendation projectRetty recommendation project
Retty recommendation projectJiro Iwanaga
 
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいものTakashi J OZAKI
 

Similar to L 05 bandit with causality-公開版 (20)

Pycon reject banditアルゴリズムを用いた自動abテスト
Pycon reject banditアルゴリズムを用いた自動abテストPycon reject banditアルゴリズムを用いた自動abテスト
Pycon reject banditアルゴリズムを用いた自動abテスト
 
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
 
Contextual package
Contextual packageContextual package
Contextual package
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
 
センサーxIo tx機械学習が実現する導線分析のビジネス貢献
センサーxIo tx機械学習が実現する導線分析のビジネス貢献センサーxIo tx機械学習が実現する導線分析のビジネス貢献
センサーxIo tx機械学習が実現する導線分析のビジネス貢献
 
Tdc 20181121
Tdc 20181121Tdc 20181121
Tdc 20181121
 
Tableau Developers Club Season2 - 外部サービス連携デモ
Tableau Developers Club Season2 - 外部サービス連携デモ Tableau Developers Club Season2 - 外部サービス連携デモ
Tableau Developers Club Season2 - 外部サービス連携デモ
 
Paper Collection of Real-Time Bidding論文読み会~第一回~
Paper Collection of Real-Time Bidding論文読み会~第一回~Paper Collection of Real-Time Bidding論文読み会~第一回~
Paper Collection of Real-Time Bidding論文読み会~第一回~
 
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
 
Realize tokyo2019 yrglm
Realize tokyo2019 yrglmRealize tokyo2019 yrglm
Realize tokyo2019 yrglm
 
700億件のリアルタイム分析の実現と運用の実態
700億件のリアルタイム分析の実現と運用の実態700億件のリアルタイム分析の実現と運用の実態
700億件のリアルタイム分析の実現と運用の実態
 
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...Optimization Approaches for Counterfactual Risk Minimization with Continuous ...
Optimization Approaches for Counterfactual Risk Minimization with Continuous ...
 
異業種でのテスト自動化の実際
異業種でのテスト自動化の実際異業種でのテスト自動化の実際
異業種でのテスト自動化の実際
 
USTREAM(ユーストリーム)配信セミナー
USTREAM(ユーストリーム)配信セミナーUSTREAM(ユーストリーム)配信セミナー
USTREAM(ユーストリーム)配信セミナー
 
企業の中の経済学
企業の中の経済学企業の中の経済学
企業の中の経済学
 
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
 
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
 
外部キー制約を考慮した特徴量削減手法
外部キー制約を考慮した特徴量削減手法外部キー制約を考慮した特徴量削減手法
外部キー制約を考慮した特徴量削減手法
 
Retty recommendation project
Retty recommendation projectRetty recommendation project
Retty recommendation project
 
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
 

More from Shota Yasui

PaperFriday: The selective labels problem
PaperFriday: The selective labels problemPaperFriday: The selective labels problem
PaperFriday: The selective labels problemShota Yasui
 
何故あなたの機械学習はビジネスを改善出来ないのか?
何故あなたの機械学習はビジネスを改善出来ないのか?何故あなたの機械学習はビジネスを改善出来ないのか?
何故あなたの機械学習はビジネスを改善出来ないのか?Shota Yasui
 
木と電話と選挙(causalTree)
木と電話と選挙(causalTree)木と電話と選挙(causalTree)
木と電話と選挙(causalTree)Shota Yasui
 
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)Shota Yasui
 
Factorization machines with r
Factorization machines with rFactorization machines with r
Factorization machines with rShota Yasui
 
Estimating the effect of advertising with Machine learning
Estimating the effect of advertising with Machine learningEstimating the effect of advertising with Machine learning
Estimating the effect of advertising with Machine learningShota Yasui
 
Xgboost for share
Xgboost for shareXgboost for share
Xgboost for shareShota Yasui
 
重回帰分析で頑張る
重回帰分析で頑張る重回帰分析で頑張る
重回帰分析で頑張るShota Yasui
 
Dynamic panel in tokyo r
Dynamic panel in tokyo rDynamic panel in tokyo r
Dynamic panel in tokyo rShota Yasui
 
Rで部屋探し For slide share
Rで部屋探し For slide shareRで部屋探し For slide share
Rで部屋探し For slide shareShota Yasui
 

More from Shota Yasui (13)

PaperFriday: The selective labels problem
PaperFriday: The selective labels problemPaperFriday: The selective labels problem
PaperFriday: The selective labels problem
 
TokyoR 20180421
TokyoR 20180421TokyoR 20180421
TokyoR 20180421
 
何故あなたの機械学習はビジネスを改善出来ないのか?
何故あなたの機械学習はビジネスを改善出来ないのか?何故あなたの機械学習はビジネスを改善出来ないのか?
何故あなたの機械学習はビジネスを改善出来ないのか?
 
木と電話と選挙(causalTree)
木と電話と選挙(causalTree)木と電話と選挙(causalTree)
木と電話と選挙(causalTree)
 
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
 
Factorization machines with r
Factorization machines with rFactorization machines with r
Factorization machines with r
 
Estimating the effect of advertising with Machine learning
Estimating the effect of advertising with Machine learningEstimating the effect of advertising with Machine learning
Estimating the effect of advertising with Machine learning
 
Prml nn
Prml nnPrml nn
Prml nn
 
Xgboost for share
Xgboost for shareXgboost for share
Xgboost for share
 
重回帰分析で頑張る
重回帰分析で頑張る重回帰分析で頑張る
重回帰分析で頑張る
 
Dynamic panel in tokyo r
Dynamic panel in tokyo rDynamic panel in tokyo r
Dynamic panel in tokyo r
 
Rで部屋探し For slide share
Rで部屋探し For slide shareRで部屋探し For slide share
Rで部屋探し For slide share
 
Salmon cycle
Salmon cycleSalmon cycle
Salmon cycle
 

L 05 bandit with causality-公開版