SlideShare a Scribd company logo
1 of 33
Download to read offline
論文紹介
Logistic regression models for aggregated data
Tom Whitaker et al., 2020
Agenda
概要
モチベーション
貢献
アルゴリズム
実験
概要 - モチベーション
ロジスティック回帰は基本的なモデルだけどクソデカデータだと計算量が法外に
デカくなる
説明変数をヒストグラムの形に集計してそれを基に推定すれば計算量と精度のい
いとこどり出来るのでは?
Symbolic Data Analysis (SDA)の考えが拡張できると考えた
概要 - 貢献
ヒストグラムに基づく確率変数を入力とした効率的な一対他対応の近似複合尤度
モデル(composite likelihood model)を導出
複合尤度に基づいたアイデアを発展させた
規格化定数を必要としない損失を用いることが出来る
普通のロジスティック回帰や最新のサブサンプリングアルゴリズムと同等の分類
精度を大幅に低い計算コストで達成できることを実証
アルゴリズム - Notations
histogram bin:
outcome value:
covariate value:
以下の設定と考えてもよい
は直接観測出来ない
ヒストグラムの各ビン でビンボリューム に含まれる共変量ベクト
ル の数のみがわかる
#classes:
#covariate vectors contained within bin:
parameter: ,
likelihood:
仮定される の分布:
b
Y ∈ Ω = {1, … , K}
X
x
b Υ ​
b
s ​
b
K
s ​
b
θ ϑ
L(x, y; θ) ∝ ​ g ​
(y ​
∣x ​
, θ) for N i.i.d.pairs(x ​
, y ​
)
∏n=1
N
X,Y n n n n
Y g ​
(y ​
∣x ​
, θ)
X,Y n n
アルゴリズム - 背景知識
論文のメインアイデア
古典尤度における共変量ベクトルの未知の位置を一様に平均化することで集約さ
れた共変量の尤度を計算すること
あるbinにおける尤度の貢献度は に比例する
ここで
Υ ​ =
b ​
k
Υ ​ ×
b ​
k
1
⋯ × Υ ​ ⊂
b ​
k
D
RD
Υ ​
=
b ​
k
d
(y ​
, y ​
] ⊂
b ​
d−1
d
b ​
d
d
R
−∞ < y ​
<
0
d
y ​
<
1
d
… < y ​
<
B ​
k
d
∞
( ​ g ​
(y ​
∣x ​
, θ)dx ​
)
∫Υ ​
b
X,Y n n n
s ​
b
アルゴリズム - 背景知識
OvRロジスティック回帰 (One-vs-Rest logistic regression)
log ​ =
(
P ​
(Y = k∣X)
O 
P ​
(Y = k∣X)
O
) β ​ +
k0 β ​
X
k
T
P ​
(Y =
O k∣X) = ​
1 + eβ ​
+β ​
X
k0 k
T
e + β ​
X
β ​
k0
k
T
L ​
(x, y; β) =
O ​ ​
P ​
(Y = y ​
∣X = x ​
) ​ P ​
(Y = k∣X = x ​
) ​
   (3)
n=1
∏
N
⎝
⎛
O n n
k∈Ω∖{y ​
}
n
∏ O  n
⎠
⎞
最尤推定 (MLE)での最適化の目的関数
​ =
β
^O
argmax ​
 logL ​
(x, y; β)
β O
アルゴリズム - 背景知識
本論文で提案しているのはSDA尤度と通常の尤度を混合して利用する混合モデル
bin内のサンプルサイズが大きい場合はSDA尤度を利用しサンプルサイズが小
さい場合は通常の尤度を利用
こうした方が計算量が少ない
混合モデルは説明変数の数がそんなに多くない場合に使用するのは適さない
低次元の周辺ヒストグラム (marginal histograms) を使うことを想定
アルゴリズム - 形式化 (Classification for aggregated
data)
X =
(k)
(X ​
∣Y ​ =
n n k, n = 1, … , N) ∈ RD×N ​
k
S ​ =
k π(X ) :
(k)
D ​ →
X(k) D ​
, x ↦
S(k)
(k)
s ​
k
L(s ​
; θ, ϑ) ∝
k ​ f ​
(s ​
∣x , ϑ)g ​
(x ; θ)dx   (4)
∫
D ​
X(k)
S ​
∣X =x
k
(k) (k) k
(k)
X(k)
(k) (k)
where
N ​ =
k ​ 1{Y ​ =
n=1
∑
N
n k}
X ∈
(k)
D ​
 (D ​
=
X(k) X(k) R )
D×N ​
k
アルゴリズム - 形式化 (Classification for aggregated
data)
パラメータ はシンボルの構築に関連する量(ビンの数とその位置など)
所与の場合が多いので以降略記されていることが多い
は 所与の時の の条件付き確率密度
これは の集約に関連
一般的な標記であり考慮される分布要約のタイプに応じて異なる形態をとる
はパラメータ , データ を持つモデルの標準的な尤度関数
ここで
本論文の式(4)の意味
同じ を持つ共変量 をヒストグラム(固定ビンまたはランダムビンを持
つ) に集約
ロジスティック回帰モデル をフィットさせる
ϑ
f ​
(⋅; ϑ)
S ​
∣X
k
(k) X(k)
S ​
k
x ↦
(k)
s ​
k
g ​
(x ; θ)
X(k)
(k) θ x(k)
x =
(k)
(x ​
, … , x ​
)
1
(k)
N ​
k
(k)
k X(k)
S ​
k
g ​
(x ; θ)
X(k)
(k)
アルゴリズム - 形式化 (Logistic regressions using
histogram-valued data)
クラス における特徴量の各次元内のbin数:
binのインデックス:
​   (5)
S ​ = π(X ) : R → {0, … , N ​
}
k
(k) N ​
×D
k
k
B ​
×…×B ​
k
1
k
D
x ↦ s ​ = (s ​ = ​ 1{x ​ ∈ Υ ​
}, … , s ​ = ​ 1{x ​ ∈ Υ ​
})
(k)
k 1 ​
k
∑n=1
N ​
k
n
(k)
1 ​
k B ​
k
∑n=1
N ​
k
n
(k)
B ​
k
L ​
(s; β) ∝
SO ​ ​ ​ ​ P ​
(Y = k∣X = x)dx ​ ​ P ​
(Y = k ∣X = x)dx ​    (7)
k∈Ω
∏
b ​
=1 ​
k k
∏
B ​
k
⎝
⎛
∫
Υ ​
b ​
k
O
k ∈Ω{k}
′
∏ ∫
Υb ​
k
O  ′
⎠
⎞
s ​
b ​
k
k B ​
k
d
b ​ =
k (b , … , b ​
), b ​ =
1 ​
k D ​
k d ​
k 1, … , B ​
d
k
アルゴリズム - 形式化 (Logistic regressions using
histogram-valued data)
式(7)をsymbolic One-vs-Rest(SOvR) logistic modelと呼ぶ
Heitjan (1989), Beranger et al. (2018)で は各ヒストグラムのビンの数を
無限に近づけると に近づくことが示されている
ヒストグラムに集約したモデルが分離可能であっても集約してない普通のモデル
が分離可能ではない
しかしビンの作り方によって分離可能ではなくなる可能性もある
ビン化することによって情報損失/精度低下があり得る
改善方法提案してる
L ​
(s; β)
SO
L ​
(x, y; β)
O
アルゴリズム - 形式化 (Using both classical data and
histograms)
ビン内のデータ数が少ないと の計算コストを の計算コストが超える
これは次元数 が大きいほど起こりやすい
ビンに下限値 を設けて下限値に満たない場合は を計算する
ことで効率化を図った
の設定によって計算量が逆に高くなる場合がある
標準的な尤度計算をするよりも計算量が少なくなるように を設定する
L ​
O L ​
SO
D
τ ​ ∈
k {1, … , N ​
}
k L ​
O
τ ​
k
τ ​
k
アルゴリズム - 形式化 (Using both classical data and
histograms)
S ​ =
k (X ) :
π
~ (k)
R →
N ​
×D
k
{τ ​
, … , N ​
} ×
k k
u
Rv×D
x ↦
(k)
​ ,  b ​ = 1 ​
, … , B ​
({
s ​ = ​ 1{x ​ ∈ Υ ​
}  if s ​ ≤ τ ​
b ​
k ∑n=1
N ​
k
n
(k)
b ​
k b ​
k k
x ​ = {x ​ : x ​ ∈ Υ ​
}  otherwise
b ​
k n
(k)
n
(k)
b ​
k
k k k})
ここで , は少なくとも 個の観
測値を含むビンの数
は 個未満の観測値を含むビンに保持されたデータポイントの
数
尤度は以下
L ​
(s; β) ∝
MM ​ ​ ​ P ​
(Y = k∣X = x)dx ​ ​ P ​
(Y = k∣X = x) ​    (8)
k∈Ω
∏
b ​
=1 ​
k k
∏
B ​
k
(∫
Υ ​
b ​
k
M )
s ​
1{s ​
≥τ ​
}
b ​
k b ​
k k
⎝
⎛
x∈x ​
b ​
k
(k)
∏ M
⎠
⎞
1{s ​
<τ ​
}
b ​
k k
τ ​ ∈
k {1, … , N ​
}
k u ∈ [0, … , B ​ ×
k
1
… × B ​
]
k
D
τ ​
k
v = N ​ −
k ​
∑s ​
b ​
k
τ ​
k
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
今までの工夫で計算効率をかなり改善できたが多変量ヒストグラムは共変量の数(
)が増えるとデータサマリーとして非常に非効率
で尤度関数 , は解析的な解を持たない
自明でない設定では数値積分する必要がある
が大きい場合には計算コストが膨大になりデータアグリゲートする目的
(計算効率の向上)が損なわれる可能性が生じる
D
D > 2 L ​
(s; β)
SM L ​
(s; β)
SO
D
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
高次元ヒストグラムのビンに入るデータの確率を計算するという問題を回避する
ためにWhitakerら(2020)が複合尤度法の導入を提案している
高次元ヒストグラムの尤度関数を低次元周辺ヒストグラムの尤度関数の加重
積で近似するというもの
これにより漸近的に尤度ベースのパラメータの一致推定量が得られる
(Lindsay, 1988, Varin et al., 2011)(らしい)
全ての重みが等しいとすると以下で計算出来る
は における 個の周辺事象の 番目の尤度関数
L (θ) ∝
(j)
​ L ​
(θ)
∏i=1
m
i
L ​
(θ)
i j m i
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
これで良さそう...と一体いつから錯覚していた?
プロビット回帰やロジスティック回帰で重要な変数を省略すると残りの係数の推
定ベクトルが に潰される現象が起こるらしい(Wooldridge 2002, Cramer 2007)
この理由からロジスティック回帰の問題に複合尤度アプローチを直接適用するこ
とはできない
Cramer(2007)でOvRの設定すべての予測変数が独立であるという仮定のもとでロ
ジスティック回帰の非省略係数が回帰因子が省略されないシナリオでの回帰係数
の関数として記述できることを示されている
Cramer(2007)では設定が異なっていたため省略された変数の情報を使うことが難
しかった
しかし複合尤度の設定では各共変量に関する情報が利用可能
省略されている共変量を補償するために各周辺尤度の計算で実装できた
0
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
standard D-dimensional OvR logistic regression model
L ​
(x, y; β) =
O
(j)
​ L ​
(x , y; ​ )
i∈I ​
j
∏ O
i
β
~i
histogram-base D-dimensional OvR logistic regression model
L ​
(s; β) =
SO
(j)
​ L ​
(s , y; ​ )
i∈I ​
j
∏ SO
i
β
~i
係数
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
ここで
​
i = (i ​
, … , i ​
) ⊆ {1, … , D}
1 I
I ​ = {i : ∣i∣ = j}
j
X = (X ​
, … , X ​
) ∈ R   where  X ​ ∈ R
(k)i
1
(k)i
N ​
k
(k)i j×N ​
k
n
(k)i j
i ​
, i ​ ∈ I ​
1
′
2
′
1
−i
X = α ​
X + ϵ ​
i′
ii′
T i
ii′
の時 

j = 1 λ
アルゴリズム - 形式化 (Composite likelihoods for
logistic regression models)
と は近似複合尤度関数であり真の複合尤度関数ではない
不偏推定量でも一致推定量でもない
しかし実験ではフルデータを使ったナイーブな推定量よりも精度よかった
計算量少ないのは言わずもがな
の一番簡単な例が式(10)に記載してある
アグリゲーション関数はこれ

と を混合した場合の近似複合尤度
L ​
(s; β) =
OO
(1)
L ​
({x }; β)L ​
(s; β)
O
(1) (k)i
SO
(1)
L ​
(x, y; β)
O
(j)
L ​
(s; β)
SO
(j)
L ​
(s; β)
SO
(j)
L ​
O L ​
SO
アルゴリズム - 欠損値
欠損値がある場合は線形結合で推定してる
線形結合する際の係数を求めるためには各確率変数の分散が必要
アグリゲーションされる前のデータから求めるのが最善手
ヒストグラムから直接計算することもできるし直で求めるのでも良いらしい
アルゴリズム - 疑似コード
実験
1. シミュレーションデータ
2. 実データ
実験
シミュレーションデータ
パラメータ推定能力と分類能力の検証
分類性能評価の指標はprediction accuracy (PA)
値は1000回平均値
シミュレーションで見ているのは以下
i. ビンの数の変化による評価項目値の変化
ii. サンプルサイズ(観測データ数) を変化させてサンプリングモデルと比較
N
実験
実データ
以下の2つのデータセットを使った性能比較
i. SUSYデータセット
超対称性粒子を生成する信号プロセスとそうでないバックグラウンドプ
ロセスの分類
K=2, D=18
train:4 500 000, test:500 000
ii. Crop typeデータセット
衛星画像使った作物の分類
K=7, D=7(特徴量作ったらしい)
train:200 000, test:34 485
シミュレーションデータ
上段:多変量正規分布, 下段:スキュー正規分布, 左:共変量にゼロ相関仮定, 右:非ゼロ相関
仮定
シミュレーションデータ
上段:多変量正規分布, 下段:スキュー正規分布, 左:共変量にゼロ相関仮定, 右:非ゼロ相関
仮定
シミュレーションデータ
共変量は8次元のスキュー正規分布から生成

左:相関ゼロ, 右:[0, 0.75]の一様相関

K = 2
シミュレーションデータ
共変量は8次元のスキュー正規分布から生成

左:相関ゼロ, 右:非ゼロ相関

K = 2
シミュレーションデータ
共変量は8次元のスキュー正規分布から生成

左:相関ゼロ, 右:非ゼロ相関

K = 2
シミュレーションデータ
共変量は8次元のスキュー正規分布から生成

左2列:相関ゼロ, 右2列:非ゼロ相関

K = 2
実データ


Wang et al.(2018)のサブサンプリング手法との比較
実データ


Lasso正則化を用いた標準的な多項式尤度 との比較
L ​
(x, y; β)
M

More Related Content

What's hot

みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半Akifumi Eguchi
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3正志 坪坂
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半Atsushi Hayakawa
 
データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半Yurie Oka
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化Akisato Kimura
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足ke beck
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半Kazunori Miyanishi
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁Tomoshige Nakamura
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場Daisuke Yoneoka
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
オブジェクト指向入門5
オブジェクト指向入門5オブジェクト指向入門5
オブジェクト指向入門5Kenta Hattori
 

What's hot (20)

第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
 
データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半データ解析のための統計モデリング入門 6.5章 後半
データ解析のための統計モデリング入門 6.5章 後半
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
多変量解析の一般化
多変量解析の一般化多変量解析の一般化
多変量解析の一般化
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
オブジェクト指向入門5
オブジェクト指向入門5オブジェクト指向入門5
オブジェクト指向入門5
 
PRML10章
PRML10章PRML10章
PRML10章
 

Similar to [読会]Logistic regression models for aggregated data

Data assim r
Data assim rData assim r
Data assim rXiangze
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slidesharewada, kazumi
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesKei Nakagawa
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータMiki Katsuragi
 
Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Yuya Takashina
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3Teruyuki Sakaue
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)Toshiyuki Shimono
 
第13回関西CVPRML勉強会発表資料
第13回関西CVPRML勉強会発表資料第13回関西CVPRML勉強会発表資料
第13回関西CVPRML勉強会発表資料Yutaka Yamada
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライド演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライドWataru Shito
 
データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半Shinya Akiba
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩t_ichioka_sg
 

Similar to [読会]Logistic regression models for aggregated data (20)

Data assim r
Data assim rData assim r
Data assim r
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare自然科学の統計学2.2 slideshare
自然科学の統計学2.2 slideshare
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
Risk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matricesRisk based portfolio with large dynamic covariance matrices
Risk based portfolio with large dynamic covariance matrices
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
Draftall
DraftallDraftall
Draftall
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
 
第13回関西CVPRML勉強会発表資料
第13回関西CVPRML勉強会発表資料第13回関西CVPRML勉強会発表資料
第13回関西CVPRML勉強会発表資料
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライド演習II.第1章 ベイズ推論の考え方 Part 3.スライド
演習II.第1章 ベイズ推論の考え方 Part 3.スライド
 
データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半データ解析のための統計モデリング入門10章前半
データ解析のための統計モデリング入門10章前半
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 

More from shima o

[読会]Causal transfer random forest combining logged data and randomized expe...
[読会]Causal transfer random forest   combining logged data and randomized expe...[読会]Causal transfer random forest   combining logged data and randomized expe...
[読会]Causal transfer random forest combining logged data and randomized expe...shima o
 
[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codesshima o
 
[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustmentshima o
 
[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrityshima o
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryshima o
 
Squeeze and-excitation networks
Squeeze and-excitation networksSqueeze and-excitation networks
Squeeze and-excitation networksshima o
 
Dynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkDynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkshima o
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistryshima o
 
Dl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsDl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsshima o
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会shima o
 
ReviewNet_161122
ReviewNet_161122ReviewNet_161122
ReviewNet_161122shima o
 
finite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemfinite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemshima o
 
normalized online learning
normalized online learningnormalized online learning
normalized online learningshima o
 
logistic regression in rare events data
logistic regression in rare events datalogistic regression in rare events data
logistic regression in rare events datashima o
 
Joint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchJoint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchshima o
 
Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...shima o
 
Real time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationReal time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationshima o
 
Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...shima o
 
Real time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingReal time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingshima o
 
Estimating conversion rate in display advertising from past performance data
Estimating conversion rate in display advertising from past performance dataEstimating conversion rate in display advertising from past performance data
Estimating conversion rate in display advertising from past performance datashima o
 

More from shima o (20)

[読会]Causal transfer random forest combining logged data and randomized expe...
[読会]Causal transfer random forest   combining logged data and randomized expe...[読会]Causal transfer random forest   combining logged data and randomized expe...
[読会]Causal transfer random forest combining logged data and randomized expe...
 
[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes[読会]P qk means-_ billion-scale clustering for product-quantized codes
[読会]P qk means-_ billion-scale clustering for product-quantized codes
 
[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment[読会]Long tail learning via logit adjustment
[読会]Long tail learning via logit adjustment
 
[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity[読会]Themis decentralized and trustless ad platform with reporting integrity
[読会]Themis decentralized and trustless ad platform with reporting integrity
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theory
 
Squeeze and-excitation networks
Squeeze and-excitation networksSqueeze and-excitation networks
Squeeze and-excitation networks
 
Dynamic filters in graph convolutional network
Dynamic filters in graph convolutional networkDynamic filters in graph convolutional network
Dynamic filters in graph convolutional network
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistry
 
Dl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_eventsDl study g_learning_to_remember_rare_events
Dl study g_learning_to_remember_rare_events
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
ReviewNet_161122
ReviewNet_161122ReviewNet_161122
ReviewNet_161122
 
finite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problemfinite time analysis of the multiarmed bandit problem
finite time analysis of the multiarmed bandit problem
 
normalized online learning
normalized online learningnormalized online learning
normalized online learning
 
logistic regression in rare events data
logistic regression in rare events datalogistic regression in rare events data
logistic regression in rare events data
 
Joint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored searchJoint optimization of bid and budget allocation in sponsored search
Joint optimization of bid and budget allocation in sponsored search
 
Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...Towards a robust modeling of temporal interest change patterns for behavioral...
Towards a robust modeling of temporal interest change patterns for behavioral...
 
Real time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocationReal time bidding algorithms for performance-based display ad allocation
Real time bidding algorithms for performance-based display ad allocation
 
Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...Fingind the right consumer - optimizing for conversion in display advertising...
Fingind the right consumer - optimizing for conversion in display advertising...
 
Real time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertisingReal time bid optimization with smooth budget delivery in online advertising
Real time bid optimization with smooth budget delivery in online advertising
 
Estimating conversion rate in display advertising from past performance data
Estimating conversion rate in display advertising from past performance dataEstimating conversion rate in display advertising from past performance data
Estimating conversion rate in display advertising from past performance data
 

[読会]Logistic regression models for aggregated data