SlideShare a Scribd company logo
1 of 25
Download to read offline
Contextual	
  Bandit入門	
  
@TokyoWebMining	
  	
坪坂 正志	
  
m.tsubosaka@gmail.com
本発表の内容	
•  BanditアルゴリズムにContexutalな情報を
使ったContextual	
  Banditに対する解説と簡単
なシミュレーションによる実験結果を紹介する	
  
•  また配信ログがあるときにオフラインで実験
する方法についても紹介する
Banditアルゴリズムについて	
•  報酬がわからない複数のスロットマシンが
あったときに何回か試行することにより最も利
得が高いスロットマシンを発見する	
  
–  Ex:	
  広告のクリエイティブのうち最もクリック率
(Click	
  through	
  rate,	
  CTR)が高いクリエイティブを見
つける	
  

•  参考 Finite-­‐Dme	
  Analysis	
  of	
  mulDarmed	
  
bandit	
  problem,	
  Machine	
  Learning,2002
Bandit	
  アルゴリズムについて	
CTR=20%	
  
Click	
  2000回	
  
Imps	
  10000回	

CTR=12.5%	
  
Click	
  1回	
  
Imps	
  8回	

CTR=13.0%	
  
Click	
  1300回	
  
Imps	
  10000回	

•  単純にCTRが高いクリエイティブを出すだけなら左の広告の方が高
い、しかし真ん中の広告はまだほとんどインプレッションがなくある
程度出してみたら左の広告より高いCTRになる可能性がある、一
方で右の広告を出しても左の広告より高いCTRになりそうにない	
  
–  CTRが高い広告を出しつつ(exploit)	
  
–  CTRが高くなりそうな広告も出す(explore)
モチベーション	
•  下の二つの広告のCTRが以下のようになって
た場合	
  
•  最終的に左の広告を100%打てばCTRは8.2%	
CTR	
  8.2%	

CTR	
  5%
モチベーション	
•  でも実はトラフィックの80%が男性で20%が女性とかで	
  
•  男性全部には左の広告を女性全部に右の広告を打
てば	
  
•  CTRは9%になる	

男性CTR	
  10%	
  
女性CTR	
  1%	
  

男性CTR	
  5%	
  
女性CTR	
  5%	
  
通常のBanditアルゴリズムの問題	
•  各armの報酬が常に同一分布に従うという過
程を置いている	
  
•  最初の例では広告を見ている人が男性か女
性かという区別を行っていない	
  
–  この場合でも男性か女性かのセグメントごとに
Banditアルゴリズムを利用すれば最適な配信は
できるが事前のセグメンテーションが必要
Contextual	
  bandit	
•  各armの選択の際にcontext	
   𝑥が与えられているという
設定	
  
•  context情報が与えられている場合、例えば線形モデ
ルを使って広告のCTRを以下のように予測する	
  
–  代表的なアルゴリズムとしてLinUCBがある	
広告CTR	
  =	
  0.1	
  *	
  男性 +	
  0.01	
  *	
  女性	

広告CTR	
  =	
  0.05	
  *	
  男性 +	
  0.05	
  *	
  女性
LinUCB	
•  WWW	
  2010でYahooの研究者によって提案され
た	
  
–  A	
  contextual-­‐bandit	
  approach	
  to	
  personalized	
  news	
  
arDcle	
  recommendaDon,	
  WWW	
  2010	
  

•  適応されている問題としてはニュースのレコメン
デーション	
  
–  性別、年齢、地域、興味カテゴリなどを使ってユーザ
ごとに適したニュースを配信する	
  

•  論文では提案手法がcontext情報を使わない通
常のBanditと比較してCTRが12.5%高くなったとい
う実験結果になっている	
  
LinUCBアルゴリズム(概要)	
•  リッジ回帰で現在の係数ベクトルを計算して、
contextに対する期待値+Upper	
  confidenceを足し
た値が最大となるものを選択する
特殊な場合の例	
•  x=(1)と常に一定の場合を考えるとUCBとほぼ
同じになっていることが分かる	

CTR=クリック数/インプレッション数	
CTR+α*(1/インプレッション数)^(1/2)	

インプレッション数	
クリック数
シミュレーション	
•  設定	
  
–  トラフィック70%男性,	
  30%女性	
  
–  広告1:	
  男性CTR	
  10%,	
  女性CTR	
  2%	
  
–  広告2:	
  男性CTR	
  2%,	
  女性CTR	
  10%	
  
–  context	
  二次元ベクトルで男性もしくは女性を表
す	
  
•  男性なら(1,0),	
  女性なら(0,1)
シミュレーション結果	
•  1万回の試行を100回シミュレーションした平
均結果	
  
•  期待通り、context情報を使ったLinUCBの方が
CTRが高くなっている	
  
アルゴリズム	

平均CTR	

UCB	

7.56%	

LinUCB	

10.0%
BanditのWebへの応用について	
ここに何を出すかを決める	

• 

2009年	
  Yahoo!	
  Researchの研究者がWebのコンテンツ配信をBanditアルゴリズム
を使ったという論文を発表	
  
–  実際にオンラインで評価した結果も含んでいる	
  
–  Explore/Exploit	
  Schemes	
  for	
  web	
  content	
  opDmizaDon,	
  ICDM	
  2009	
  (Best	
  Paper)	
  

• 

2010-­‐2011年ぐらいまでYahoo!	
  ResearchからいくつかBandit関連の論文が発表さ
れた	
  
–  A	
  contextual-­‐bandit	
  approach	
  to	
  personalized	
  news	
  recommendaDon,	
  WWW	
  2010	
  
–  Unbiased	
  offline	
  evaluaDon	
  of	
  contextual-­‐bandit-­‐based	
  news	
  arDcle	
  recommendaDon,	
  WSDM	
  
2011	
  (Best	
  Paper)	
  
–  An	
  empirical	
  evaluaDon	
  of	
  Thompson	
  sampling,	
  NIPS	
  2011	
  

• 

先端的なWeb企業は4-­‐5年前からBanditアルゴリズムやContextual-­‐Banditアルゴ
リズムを実世界で導入している
アルゴリズムの評価について	
•  実際にBanditアルゴリズムをシステムに導入す
る場合、事前にCTRがどの程度上がるかを知り
たいことが多い	
  
•  今までの配信ログからオフラインでロジックの評
価が行えることが望ましい	
  
•  オフラインでの評価方法についてはLinUCBの論
文と同じ著者らが提案している	
  
–  Unbiased	
  offline	
  evaluaDon	
  of	
  contextual-­‐bandit-­‐
based	
  news	
  arDcle	
  recommendaDon	
  algorithms,	
  
WSDM	
  2011
オフラインの評価での課題	
•  アクセスログからでは実際に表示した物に対
する反応しかなく、例えばBanditアルゴリズム
が表示されなかったものを配信すると決めた
ときに結果が観測できない	
  
アクセスログ	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	

ここでユーザBにクリエイ
ティブAを表示したらどう
なったかの情報がない
オフラインでの評価方法	
•  簡単にいうとBanditアルゴリズムの出力とロ
グの出力があったときのみ、データとして出
力し、他は飛ばすということを行えばよい
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	

ユーザA,クリエイティブB表示,クリックせず	

クリエイティブB
を選択
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	

ユーザA,クリエイティブB表示,クリックせず	

クリエイティブB
を選択	
ログではクリエイティブAがでて
るため履歴には追加しない
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	
クリエイティブB
を選択	

ユーザA,クリエイティブB表示,クリックせず	
  
ユーザB,クリエイティブB表示,クリック
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	
クリエイティブB
を選択	

ユーザA,クリエイティブB表示,クリックせず	
  
ユーザB,クリエイティブB表示,クリック	

ログではクリエイティブAがでて
るため履歴には追加しない
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	
クリエイティブA
を選択	

ユーザA,クリエイティブB表示,クリックせず	
  
ユーザB,クリエイティブB表示,クリック	
  
ユーザD,クリエイティブA表示,クリック
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
履歴	

バンディットアルゴリズム	
クリエイティブA
を選択	

ユーザA,クリエイティブB表示,クリックせず	
  
ユーザB,クリエイティブB表示,クリック	
  
ユーザD,クリエイティブA表示,クリック	

ログではクリエイティブBがでて
るため履歴には追加しない
評価方法(例)	
2014/1/1,ユーザA,クリエイティブB表示,クリックせず	
  
2014/1/2,ユーザA,クリエイティブA表示,クリックせず	
2014/1/3,ユーザB,クリエイティブB表示,クリック	
2014/1/4,ユーザC,クリエイティブA表示,クリックせず	
2014/1/5,ユーザD,クリエイティブA表示,クリック	
2014/1/6,ユーザA,クリエイティブB表示,クリックせず	
  
…	
バンディットアルゴリズム	

履歴	
ユーザA,クリエイティブB表示,クリックせず	
  
ユーザB,クリエイティブB表示,クリック	
  
ユーザD,クリエイティブA表示,クリック	

履歴において、バンディットアルゴリズムで
は3回表示されて、2回クリックなので
CTR=66.6%
リソースについて	
•  収束性や性能についてのBandit問題の理論
的な話題はNIPS,	
  ICMLのような会議の論文を
みるとよくある	
  
•  実応用についてはWWW,	
  KDD,	
  WSDMみたい
な会議でよくある

More Related Content

What's hot

SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスShoichi Taguchi
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018Takahiro Kubo
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめsleepy_yoshi
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
研究分野をサーベイする
研究分野をサーベイする研究分野をサーベイする
研究分野をサーベイするTakayuki Itoh
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 

What's hot (20)

SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
研究分野をサーベイする
研究分野をサーベイする研究分野をサーベイする
研究分野をサーベイする
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 

Similar to Contexual bandit @TokyoWebMining

Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用Tatsuro Hisamori
 
30分でわかる広告エンジンの作り方
30分でわかる広告エンジンの作り方30分でわかる広告エンジンの作り方
30分でわかる広告エンジンの作り方Daisuke Yamazaki
 
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~Developers Summit
 
L 05 bandit with causality-公開版
L 05 bandit with causality-公開版L 05 bandit with causality-公開版
L 05 bandit with causality-公開版Shota Yasui
 
システムトレード構築セミナー
システムトレード構築セミナーシステムトレード構築セミナー
システムトレード構築セミナーYoshiyuki Hongoh
 
ネット通販向けレコメンドシステム提供サービスについて
ネット通販向けレコメンドシステム提供サービスについてネット通販向けレコメンドシステム提供サービスについて
ネット通販向けレコメンドシステム提供サービスについてKimikazu Kato
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet正志 坪坂
 
ElasticSearch勉強会 第6回
ElasticSearch勉強会 第6回ElasticSearch勉強会 第6回
ElasticSearch勉強会 第6回Naoyuki Yamada
 
20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare芳徳 高木
 
スマートフォンCPI広告でマネタイズする方法
スマートフォンCPI広告でマネタイズする方法スマートフォンCPI広告でマネタイズする方法
スマートフォンCPI広告でマネタイズする方法Hiromitsu Ishimori
 

Similar to Contexual bandit @TokyoWebMining (13)

Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用
平均レスポンスタイム50msをPerlで捌く中規模サービスの実装/運用
 
30分でわかる広告エンジンの作り方
30分でわかる広告エンジンの作り方30分でわかる広告エンジンの作り方
30分でわかる広告エンジンの作り方
 
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~
デブサミ2013【15-C-6】5msの中身を公開!~ネット広告配信と支える職人達~
 
L 05 bandit with causality-公開版
L 05 bandit with causality-公開版L 05 bandit with causality-公開版
L 05 bandit with causality-公開版
 
MMDs 8.1 - 8.3
MMDs 8.1 - 8.3MMDs 8.1 - 8.3
MMDs 8.1 - 8.3
 
システムトレード構築セミナー
システムトレード構築セミナーシステムトレード構築セミナー
システムトレード構築セミナー
 
ネット通販向けレコメンドシステム提供サービスについて
ネット通販向けレコメンドシステム提供サービスについてネット通販向けレコメンドシステム提供サービスについて
ネット通販向けレコメンドシステム提供サービスについて
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet
 
ElasticSearch勉強会 第6回
ElasticSearch勉強会 第6回ElasticSearch勉強会 第6回
ElasticSearch勉強会 第6回
 
20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare20210707 ut triz発明9画面slideshare
20210707 ut triz発明9画面slideshare
 
Dynamic+arms+fx091111
Dynamic+arms+fx091111Dynamic+arms+fx091111
Dynamic+arms+fx091111
 
スマートフォンCPI広告でマネタイズする方法
スマートフォンCPI広告でマネタイズする方法スマートフォンCPI広告でマネタイズする方法
スマートフォンCPI広告でマネタイズする方法
 

More from 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて正志 坪坂
 

More from 正志 坪坂 (20)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
OnlineMatching勉強会第一回
OnlineMatching勉強会第一回OnlineMatching勉強会第一回
OnlineMatching勉強会第一回
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて
 
NIPS 2012 読む会
NIPS 2012 読む会NIPS 2012 読む会
NIPS 2012 読む会
 

Contexual bandit @TokyoWebMining