SlideShare a Scribd company logo
1 of 22
Download to read offline
Online  matching  and  ad  allocation  
勉強会 第⼀一回
リクルートテクノロジーズ
坪坂 正志
2016/2/16
マッチング問題について
• 与えられたグラフに対して頂点を共有しないような枝の集合M
をグラフGのマッチングと呼ぶ
• たとえば下のグラフの状況において、学⽣生A,学⽣生Bに条件にあ
い時給の⾼高いバイトAを推薦するとどちらかが落ちてしまうが、
学⽣生BにバイトB、学⽣生AにバイトAを推薦することによって⼆二
⼈人ともマッチング可能となる
バイトA,  時給1500円,  英語⼒力必要
バイトB,  時給1400円,  ⼥女性のみ
学⽣生A,  TOEIC  990,  男性
学⽣生B,  TOEIC  750,  ⼥女性
広告との関係性
• ネット広告においてはユーザがページにアクセスするたびにアドネット
ワーク/DSPなどなんらかの広告プラットフォームにリクエストが発⽣生す
る。広告プラットフォームはリクエストに対して広告主の広告を⼀一つ以上
選択してユーザに表⽰示する
• プラットフォームは広告主の予算上限,  bid価格、ユーザの広告に対する
CTRなどを加味してリクエストのたびに配信する必要がある
• 既存のマッチング問題との違いとして
• あらかじめ全てのリクエストがわかっておらずリクエストのたびに配信する必要が
有る
• データ量が膨⼤大でオフラインの最適化では計算量的に解くのが困難
• この課題を克服するため近年広告領域でOnline  matchingのテクニックが
発達してきた
• この教科書ではOnline  matchingとAd  allocationについて問題のパターン
とそこで使われているテクニックについて扱う
オフラインでの既存研究
• ⼆二部グラフ上の最⼤大マッチングを計算する⽅方法については1957
年には知られている (Berge  1957)
• 基本的にはグラフから増加路を⾒見つけていくアルゴリズムとなる
• 現在知られている最も早いアルゴリズムの時間計算量は𝑂( 𝑉𝐸)である
• グラフの枝に重み付けがある問題の解法としてはハンガリアン
アルゴリズムという⽅方法が古くから知られている
• 経済学においては安定マッチングを⾒見つけるのに⽤用いられてお
り、応⽤用として病棟の割り当てや腎臓の移植のドナーの決定な
どがある
• 2012年のノーベル経済学賞をRoth,  Shapleyがこのトピックで受賞した
増加路 (augmenting  paths)
• マッチングMの増加路とは奇数⻑⾧長のパスで枝がMに含まれない枝
=>Mに含まれる枝=>…=>Mに含まれない枝で終わるパスを呼ぶ
• また増加路の端点はマッチングに含まれない
左のマッチングMの増加路
Bergeʼ’s  theorem  
• マッチングMが最⼤大マッチングとなる必要⼗十分条件はMに増加
路が存在しない
極⼤大マッチングについて
• Gのマッチングでこれ以上枝を追加できないのを極⼤大マッチン
グ(maximal  matching)とよぶ
• 極⼤大マッチングであるからといって最⼤大マッチングとは限らな
い
極⼤大マッチングであるが最⼤大マッチングでない例 極⼤大マッチングかつ最⼤大マッチングの例
極⼤大マッチングに関する定理
(Theorem  1.2)
• Mが極⼤大マッチング、M*が最⼤大マッチングであれば
• 𝑀 ≥
(
)
|𝑀∗
|が成⽴立する
• Mにはこれ以上枝を追加できないためM*の枝の頂点の少なくと
もどちらかはMに含まれる
• このためMの頂点の数 >=  M*の枝の数=1/2  |M*|
Online  input
• オンラインのセッティングでは特に⼆二部グラフを考える
• ⽚片側のUは既知で、オンラインでVが到着して、どのUに接続するかが明ら
かになる
• このセッティングだと既存の増加路を求めるなどのアルゴリズムは利⽤用できないの
でオンライン特有の解法が必要になってくる
U  (既知) V  (未知)
Vの⼊入⼒力はオンラインで到着するとUのどの
ノードにマッチするかが明らかになる
以降の章⽴立てについて
• Chapter  2  Classification  :  Problems  and  models
• 以降で紹介する問題と⼊入⼒力のモデルについての概要
• Chapter  3-‑8
• 個別の具体的な問題についての解説
• Chapter  3  Online  Bipartite  matching
• Chapter  4  Online  vertex-‑weighted  bipartite  matching
• Chapter  5  Adwords
• Chapter  6  The  online  primal-‑dual  view
• Chapter  7  Display  Ads
• Chapter  8  Online  submodular  welfare  maximization
• Chapter  9  Applications
• 理論に基づいたヒューリスティックや具体的な応⽤用について
• Chapter  10  Related  models  and  future  directions
Chapter  2  
Classification  :  Problems  and  models
• 本章の構成
• 問題の種類について
• ⼊入⼒力についての仮定
• 競合⽐比について
(1)  Online  bipartite  matching
• 既存の⼆二部グラフマッチングと⽬目的関数は同じ
• ⽚片側のノードVがオンラインで与えられて、⼀一度決定した割当
は変更できないところがオフラインとの最⼤大の違い
U  (既知) V (未知、オンライン)
(2)
Online  vertex-‑weighted  bipartite  matching
• Online  bipartite  matchingの各頂点に重みがついていてマッチ
した重みの合計を最⼤大化するバージョン
• すべての頂点の重みを1とすればOnline  bipartite  matchingにな
る
(3)  Adwords
• 著者らにより2007年に提案されたモデル
• 各𝑢 ∈ 𝑈は既知の予算𝐵0を持ち、各edge(u,v)はbid_̲uvを持つ
• ノードuはバジェットを使い切るとそれ以上マッチできなくな
る
• ⽬目的関数はbid額の合計である
• Small  bids  assumption
• ビッドの⾦金額は⼗十分⼩小さいと仮定する
• ⼗十分⼩小さいの定義は後の詳細で述べる
(4)  Display  ads
• 各広告ノードuは整数値のキャパシティ𝑐0を持つ (CPM課⾦金で
あれば何回表⽰示できるかを意味する)
• 各インプレッションにおいて 𝑢, 𝑣 ∈ 𝐸は重み𝑤0,5をもっている
(例えばこれは⼀一回表⽰示した時の期待CTRなどを意味する)
• ⽬目的関数はマッチした重みの合計を最⼤大化することである(これ
は例えばアドネットワークのクリックの合計数の最⼤大化などを
意味する)
• またすでにマッチした枝を破棄できるような問題設定をfree-‑
disposalとよぶ
• これはディスプレイ広告においては余計なインプレッションを発⽣生さ
せることに相当する
(5)  
Online  submodular  welfare  maximization
• 各頂点uに対して単調なsubmodular関数 𝑓0: 29
→ 𝑅<
を定める
• ⽬目的関数としてはuに対して割り当てられた頂点集合を𝑉0とし
たとき∑ 𝑓0(𝑉0)0 を最適化する
a
b
c
x
U   V
y
z
𝑓> 𝑥, 𝑦 + 𝑓B 𝑧 + 𝑓D(∅)
左のグラフにおいては以下が⽬目的
関数の値となる
各問題の関係性
Input  model
• 頂点Vがどのようにくるかについてモデル化する
• Adversarial  order
• グラフおよび順番に対してなんの仮定も置かないモデル、グラフおよ
びvのくる順番はアルゴリズムに対して最悪結果となるような順番もあ
り得る
• Random  order
• グラフのとりうる形状は任意のものを考えるが、vの到着する順番はラ
ンダムに選択される
Input  model
• Unknown  IID
• 隣接するUの頂点、枝の重みもしくはbid額が同⼀一の独⽴立な確率分布D
に基づいて⽣生成される
• やってくる⼊入⼒力の頂点vは分布Dから⽣生成された隣接頂点および重みを
もってやってくる
• Known  IID
• Unknown  IIDとおなじ、ただし分布Dが既知
Competitive  ratio  (競合⽐比)
• オフラインでグラフの形状がわかっている場合に対してオフラ
インでの最適値と、オンラインアルゴリズムが達成できる値の
⽐比率を競合⽐比と呼ぶ
• ⼊入⼒力がAdversarial  modelの場合
• min
I,JKLMK	
  O
PQR R
STU R
,  すべてのグラフ、Vの順序に対する⽐比率の最⼩小のものと
なる
• またアルゴリズムがランダムアルゴリズムの場合 min
I,JKLMK	
  O
V[PQR R ]
STU R
,  ア
ルゴリズムの期待値との⽐比率になる
• ⼊入⼒力がRandomの場合
• min
I
V[PQR R ]
STU R
と任意のグラフに対する⽐比率となる
Competitive  ratio  (競合⽐比)
• IIDモデルの場合
• min
Y
𝐸[
PQR R
STU R
]と分布に対しての最⼩小値で表現される
• 各⼊入⼒力間での競合⽐比の値の関係性は
• Theorem  2.1
• C.R(Adv)  <=  C.R  (RO)  <=  C.R  (Unk-‑IID)  <=  C.R  (K-‑IID)
• で表される
各種問題に対する競合⽐比

More Related Content

What's hot

強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまでharmonylab
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...Deep Learning JP
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
強化学習その1
強化学習その1強化学習その1
強化学習その1nishio
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Yusuke Nakata
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景Deep Learning JP
 
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~Takuya Akiba
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパスShinnosuke Takamichi
 
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方Shinagawa Seitaro
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)Kazuyuki Wakasugi
 
プログラミングコンテストでのデータ構造 2 ~動的木編~
プログラミングコンテストでのデータ構造 2 ~動的木編~プログラミングコンテストでのデータ構造 2 ~動的木編~
プログラミングコンテストでのデータ構造 2 ~動的木編~Takuya Akiba
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験克海 納谷
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 

What's hot (20)

強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
 
Java8でRDBMS作ったよ
Java8でRDBMS作ったよJava8でRDBMS作ったよ
Java8でRDBMS作ったよ
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパスJTubeSpeech:  音声認識と話者照合のために YouTube から構築される日本語音声コーパス
JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス
 
論文の書き方入門 2017
論文の書き方入門 2017論文の書き方入門 2017
論文の書き方入門 2017
 
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
 
プログラミングコンテストでのデータ構造 2 ~動的木編~
プログラミングコンテストでのデータ構造 2 ~動的木編~プログラミングコンテストでのデータ構造 2 ~動的木編~
プログラミングコンテストでのデータ構造 2 ~動的木編~
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 

Viewers also liked

Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
Information security programming in ruby
Information security programming in rubyInformation security programming in ruby
Information security programming in rubyHiroshi Nakamura
 
Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3Atsushi KOMIYA
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみるDSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみるAtsushi KOMIYA
 

Viewers also liked (20)

KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
Information security programming in ruby
Information security programming in rubyInformation security programming in ruby
Information security programming in ruby
 
Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて
 
Tokyowebmining2012
Tokyowebmining2012Tokyowebmining2012
Tokyowebmining2012
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
 
NIPS 2012 読む会
NIPS 2012 読む会NIPS 2012 読む会
NIPS 2012 読む会
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみるDSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
 

More from 正志 坪坂

KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict正志 坪坂
 
WSDM 2012 勉強会資料
WSDM 2012 勉強会資料WSDM 2012 勉強会資料
WSDM 2012 勉強会資料正志 坪坂
 
Complex network-reading 7
Complex network-reading 7Complex network-reading 7
Complex network-reading 7正志 坪坂
 
転置インデックスとTop k-query
転置インデックスとTop k-query転置インデックスとTop k-query
転置インデックスとTop k-query正志 坪坂
 
A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会正志 坪坂
 
Cvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosakaCvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosaka正志 坪坂
 
Icml2011 reading-sage
Icml2011 reading-sageIcml2011 reading-sage
Icml2011 reading-sage正志 坪坂
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet正志 坪坂
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた正志 坪坂
 

More from 正志 坪坂 (13)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
 
WSDM 2012 勉強会資料
WSDM 2012 勉強会資料WSDM 2012 勉強会資料
WSDM 2012 勉強会資料
 
Complex network-reading 7
Complex network-reading 7Complex network-reading 7
Complex network-reading 7
 
転置インデックスとTop k-query
転置インデックスとTop k-query転置インデックスとTop k-query
転置インデックスとTop k-query
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会
 
Cvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosakaCvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosaka
 
Icml2011 reading-sage
Icml2011 reading-sageIcml2011 reading-sage
Icml2011 reading-sage
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 

OnlineMatching勉強会第一回