SlideShare a Scribd company logo
1 of 88
An Introduction to Statistical
Learning
4 Classification
高橋秀征
説明変数
量的変数 質的変数
被
説
明
変
数
量
的
変
数
最小二乗法 最小二乗法
ダミー変数
質
的
変
数
? ?
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4.1 概観
n=10000
Income:年収($?)
Balance:月のクレジットカード支払い($?)
○:債務履行(図では一部省略)
+:債務不履行(全体の3%)
以降このDefault Dataを用い
て分析する
4.1 概観
【定性的に】
カード支払いが多ければ
債務不履行になりやすい。
⇓
【定量的に】
Balance,Incomeがある値
の時に、どれだけ債務不
履行に陥りやすいのか?
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4.2 線形回帰で求めたら?
Y=
0 if not default
1 if otherwise
Y ≧ 0.5 債務不履行
Y < 0.5 債務履行
このように解釈する
Y = 𝛽0 + 𝛽1 Income + 𝛽2(Balance)
4.2 線形回帰で求める
※𝑌 = 0.5を赤線で示した
【問題点】
①変化が鈍い
②𝑌 ∈ [0,1]で無い
【結論】
線形回帰では無理がある
Pr(default Balance) = 𝛽0 + 𝛽1(Balance)
4.2 線形回帰で求める
問題点を解決したものが右の図になる
右の図はロジスティック回帰(Logistic
Regression)で作れる
ロジスティック回帰って何?
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析(ダメな理由)
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4.3 ロジスティック回帰とは
𝑌があるカテゴリに入る確率を求めるモデル
⇓
𝑌が質的変数の時に使える
(𝑌は説明変数の条件付き確率となる)
今回の例だと
Pr(default=yes│Balance)∈[0,1]
(以降Pr default=yes Balance =p(balance)と略記する)
4.3.1 (一変数の)ロジスティック関数
天下り的に与えるとロジスティック関数は以下のようになる。
( Pr Y=1 X =)p X =
𝑒 𝛽0+𝛽1 𝑋
1 + 𝑒 𝛽0+𝛽1 𝑋
これは𝑝 𝑋 ∈ [0,1]を満たすS字型の曲線となる。
4.3.1 (一変数の)ロジスティック関数
𝑝 𝑋 =
𝑒 𝛽0+𝛽1 𝑋
1 + 𝑒 𝛽0+𝛽1 𝑋
⇔
𝑝(𝑋)
1 − 𝑝(𝑋)
= exp[𝛽0 + 𝛽1 𝑋]
⇔ ln
𝑝 𝑋
1 − 𝑝 𝑋
= 𝛽0 + 𝛽1 𝑋
オッズ(odds)
失敗と成功の比
ロジット(logit)
4.3.1 (一変数の)ロジスティック関数
𝑑
𝑑𝑋
𝑝 𝑋 =
𝛽1 𝑒 𝛽0+𝛽1 𝑋
1 + 𝑒 𝛽0+𝛽1 𝑋
[1 −
𝑒 𝛽0+𝛽1 𝑋
1 + 𝑒 𝛽0+𝛽1 𝑋
]
𝑑
𝑑𝑋
𝑝(𝑋)
1 − 𝑝(𝑋)
= 𝛽1exp[𝛽0 + 𝛽1 𝑋]
𝑑
𝑑𝑋
ln
𝑝 𝑋
1 − 𝑝 𝑋
= 𝛽1
4.3.2 回帰係数の推定
最尤法(maximum likelihood)を用いる
尤度関数(likelihood function)
𝑙 𝛽0, 𝛽1 =
𝑖:𝑦 𝑖=1
𝑝( 𝑥𝑖)
𝑖′:𝑦 𝑖′=0
(1 − 𝑝( 𝑥𝑖′))
を最大にする𝛽0, 𝛽1を求める
4.3.2 (補足)最尤法
標本値xを観測したのは、xを観測する確率が高
かったからだと想定
⇓
xを観測したのは、xを観測する確率が最大だった
からと想定
⇓
パラメータの真の値はxを観測する同時確率(尤
度)を最大にする値だったと想定する
参照:藤澤洋徳著『確率と統計』
よって、尤度関数を最大にするパラメータを求める
4.3.2 回帰係数の推定
Pr default=yes balance を推定する
Default Dataの推定結果
この係数が本当に影響しているかどうかは以下の
検定で確かめる必要がある
𝐻0: 𝛽1 = 0
𝐻1: 𝛽1 ≠ 0
4.3.2 推定結果の検定
𝐻0: 𝛽1 = 0の下でのZ−statistic
Z−statistic =
Coefficient−0
Std.error
Z − statistic < 1.96を満たせば𝐻1: 𝛽1 ≠ 0は有意水準
5%で有意である。
P−valueはZ−statisticがある値の時に、それが起こる確
率
4.3.2 推定結果の検定
検定の結果、 𝐻1: 𝛽1 ≠ 0は有意水準5%で有意と分かっ
た。
よって
Pr default=yes balance=X = 𝑝 𝑋 =
𝑒−10.6513+0.0055𝑋
1 + 𝑒−10.6513+0.0055𝑋
と言える。
4.3.2 説明変数が質的変数の場合
Pr default=yes student を推定する
検定の結果、 𝐻1: 𝛽1 ≠ 0は有意水準5%で有意と分かった。
Pr default=yes 𝑋 = 𝑝 𝑋 =
𝑒−3.5041+0.4049𝑋
1 + 𝑒−3.5041+0.4049𝑋
但し
X=1 if student=Yes
X=0 if otherwise
被説明変数が
二値変数
ロジスティック
回帰
係数の推定
最尤法
尤度関数
説明変数が
質的変数
ダミー変数
説明変数が一つ
4.3.4 (2変数以上の)ロジスティック回帰
𝑝 𝑿 =
𝑒 𝛽0+𝛽1 𝑋1+⋯+𝛽 𝑝 𝑋 𝑝
1 + 𝑒 𝛽0+𝛽1 𝑋1+⋯+𝛽 𝑝 𝑋 𝑝
ln
𝑝 𝑿
1 − 𝑝 𝑿
= 𝛽0 + 𝛽1 𝑋1 + ⋯ + 𝛽 𝑝 𝑋 𝑝
但し𝑿 = (𝑋1, ・・・, 𝑋 𝑝)の行ベクトル
4.3.4 係数の推定
以下の尤度関数を最大にするような係数を求める
𝑙 𝛽0, 𝛽1, … , 𝛽 𝑝 =
𝑖:𝑦 𝑖=1
𝑝( 𝒙𝑖)
𝑖′:𝑦 𝑖′=0
(1 − 𝑝( 𝒙𝑖′))
収入は関係なく、学生であるか否かが重要
4.3.4 1変数と多変数の結果比較
一変数
多変数
係数の正負が異なっている
矛盾しているのではないか?
4.3.4 1変数と多変数の結果比較
一変数:収入や債務残高の情報が全くなけれ
ば、全体平均で見ると、学生の方が不
履行になりやすい。
多変数:収入と債務残高が全く同じ学生と非学
生がいたら、学生の方が不履行になり
にくい。
4.3.4 1変数と多変数の結果比較
水色・・・非学生
オレンジ・・・学生
破線・・・全体平均
実線・・・ある条件下で
水色実線>橙色実線
水色波線<橙色波線
4.3.4 交絡(Confounding)
債務残高と学生の
箱ひげ図を見ると
相関が読み取れる
⇓
独立変数(Predictor)の
間に相関がある
⇓
この現象のことを交絡
(Confounding)と言う
単回帰の結果と重回帰
の結果を大きく変える要
因
Default Data
Incomeを無し
と仮定すると
income
student
default
+
-
+
+
-
被説明変数が
二値変数
ロジスティック
回帰
係数の推定
最尤法
尤度関数
説明変数が
質的変数
ダミー変数
説明変数が一つ
説明変数が二つ 交絡
説明変数
量的変数 質的変数
被
説
明
変
数
量
的
変
数
最小二乗法 最小二乗法
↳ダミー変数
質
的
変
数
ロジスティック回帰 ロジスティック回帰
↳ダミー変数
4.3.5 二値以上の階級の分類
今までの内容は二値変数(債務不履行になるか否
か)での分類
⇓
二値以上の場合はどうするのか
⇓
ロジスティック関数を拡張すれば可能
しかし、あまり使われていない
⇓
(線形)判別分析((Linear)Discriminant analysis)が
よく使われる
(線形)判別分析って何?
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析(ダメな理由)
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4.4 線形判別分析
【メリット】
①群がきっちり分けられている時、ロジスティッ
ク回帰より線形判別分析の方がパラメータ推定
が安定する
②標本数が少なく、各群におけるXの分布がほ
ぼ正規分布に従っている時、ロジスティック回
帰より線形判別分析の方が安定する。
③群が3つ以上の時、線形判別分析はよく使わ
れる
4.4 線形判別分析
ロジスティック回帰:モデル化したものは、ある
Xの時のYの条件付き分布
正規分布を仮定したやや間接的なアプローチ
線形判別分析:各群ごとにXの分布を別々にモデ
ル化する
ベイズの定理を用いる
ベイズの定理って何?
Thomas Bayes
1702-1761
4.4.1 ベイズの定理
Pr 𝑌 = 𝑘 𝑋 = 𝑥 =
𝜋 𝑘 𝑓𝑘 𝑥
𝑙=1
𝐾
𝜋𝑙 𝑓𝑙 𝑥
4.4.1 ベイズの定理
Pr 𝑌 = 𝑘 𝑋 = 𝑥 =
𝜋 𝑘 𝑓𝑘 𝑥
𝑙=1
𝐾
𝜋𝑙 𝑓𝑙 𝑥
ベイズの定理は、原因の確率に関する定理だと言
える。
今、k個の排反なあらゆる群(原因)を想定する。
「各群(原因)である確率」は求められるものである
とする。
データxを抽出した(結果が生じた)時、各原因が結
果を生じさせる条件付き確率を想定する。
ベイズの定理とは、以上の条件から、ある結果が
得られた時に、ある原因から発生した確率を求め
られると言うものである。
参照『自然科学の統計学』東大出版会
4.4.1 ベイズの定理
Pr 𝑌 = 𝑘 𝑋 = 𝑥 =
𝜋 𝑘 𝑓𝑘 𝑥
𝑙=1
𝐾
𝜋𝑙 𝑓𝑙 𝑥
𝜋 𝑘:事前確率(Prior probabirity)
K個の群からある群𝑘を選ぶ確率
Pr X=x Y=k :第k群である時に、X=xである確率
𝑓𝑘 𝑋 ≡ Pr 𝑋 𝑌 = 𝑘 とし、密度関数として扱う。
Pr Y=k X=x :事後確率(Posterior probabirity)
X=xである時に、第k群である確率
4.4.1 ベイズの定理
Pr 𝑌 = 𝑘 𝑋 = 𝑥 =
𝜋 𝑘 𝑓𝑘 𝑥
𝑙=1
𝐾
𝜋𝑙 𝑓𝑙 𝑥
ベン図で考えると分かりやすい。
事後確率
事前確率
4.4.1 ベイズの定理
𝑝 𝑘 𝑋 = Pr 𝑌 = 𝑘 𝑋 =
𝜋 𝑘 𝑓𝑘 𝑋
𝑙=1
𝐾
𝜋𝑙 𝑓𝑙 𝑋
と置き、確率関数として扱う。
𝑝 𝑘 𝑋 を推定したい
⇓
事前確率は比較的推定が楽
⇓
推定が少し困難𝑓𝑘 𝑋 を推定する
4.4.2 𝑓𝑘 𝑋 の仮定
分布について正規分布(normal),ガウス分布
(Gaussian)の仮定を置く
𝑓𝑘 𝑋 =
1
2𝜋𝜎 𝑘
exp[−
1
2𝜎 𝑘
2
𝑋 − 𝜇 𝑘
2
]
𝜇 𝑘:第k群における期待値
𝜎 𝑘
2
:第k群における分散
4.4.2 𝑓𝑘 𝑋 の仮定
各群の分散は一定と仮定
𝜎1
2
=・・・=𝜎 𝐾
2
=𝜎2
𝑓𝑘 𝑋 =
1
2𝜋𝜎
exp[−
1
2𝜎2
𝑋 − 𝜇 𝑘
2
]
4.4.2 単一のパラメータでのLDA
ベイズの定理の公式に代入
𝑝 𝑘(X) =
𝜋 𝑘
1
2𝜋𝜎
exp[−
1
2𝜎2 𝑋 − 𝜇 𝑘
2]
𝑙=1
𝐾
𝜋𝑙
1
2𝜋𝜎
exp[−
1
2𝜎2 𝑋 − 𝜇𝑙
2]
𝑋 = 𝑥の時、上の式の値を最大にするような群に分類される
⇓
値の大小は分子に依存 (∵分母は一定)
⇓
分子の大小と、自然対数を取ったものの大小関係は同じ
4.4.2 単一のパラメータでのLDA
𝑝 𝑘(X) =
𝜋 𝑘
1
2𝜋𝜎
exp[−
1
2𝜎2 𝑋 − 𝜇 𝑘
2]
𝑙=1
𝐾
𝜋𝑙
1
2𝜋𝜎
exp[−
1
2𝜎2 𝑋 − 𝜇𝑙
2]
分子のみに対数をとり、第k群に関する項だけを新
しい関数として定義する
𝛿 𝑘 𝑥 ≡ 𝑥
𝜇 𝑘
𝜎2
−
𝜇 𝑘
2
2𝜎2
+ ln 𝜋 𝑘
𝑝 𝑘(𝑥)が最大となる𝑥では𝛿 𝑘 𝑥 も最大となる。
この関数は𝑥について線形であるので線形判別分析という
4.4.2 単一のパラメータでのLDA
今までの話は、真のパラメータが既知の場合
⇓
実際は推定量を用意しなければならない
①期待値𝜇1, ・・・, 𝜇 𝐾の推定
②分散𝜎2
の推定
③事前確率𝜋1, ・・・, 𝜋 𝐾の推定
4.4.2 単一のパラメータでのLDA
① 𝜇 𝑘 =
1
𝑛 𝑘
𝑖:𝑦 𝑖=𝑘 𝑥𝑖
② 𝜎2
=
1
𝑛−𝐾 𝑘=1
𝐾
𝑖:𝑦 𝑖=𝑘(𝑥𝑖 − 𝜇 𝑘)2
③ 𝜋 𝑘=
𝑛 𝑘
𝑛
但し𝑛 𝑘は第k群のデータ数
4.4.2 単一のパラメータでのLDA
以上の推定量を𝛿 𝑘 𝑥 に入れて 𝛿 𝑘 𝑥 を作る
𝛿 𝑘 𝑥 =𝑥
𝜇 𝑘
𝜎2
−
𝜇 𝑘
2
2 𝜎2
+ ln 𝜋 𝑘
線形判別分析では𝑋 = 𝑥の時、この 𝛿 𝑘 𝑥 を最大にす
るような、k群に𝑥を分類する。
4.4.3 多変量のLDA
P次元のガウス分布 𝑿~𝑁(𝝁, 𝚺) を分析のために
準備する
𝑓 𝑿 =
1
(2𝜋)
𝑝
2 𝚺
1
2
exp[−
1
2
𝑿 − 𝝁 𝑇
𝚺−1
(𝑿 − 𝝁)]
を準備する
𝑿 = 𝑋1, ・・・, 𝑋 𝑝
𝑇
𝝁 = 𝜇1, ・・・, 𝜇 𝑝
𝑇
𝚺=
𝜎11
2 ⋯ 𝜎1𝑝
2
⋮ ⋱ ⋮
𝜎 𝑝1
2 ⋯ 𝜎 𝑝𝑝
2
4.4.3 多変量のLDA
第k群については
𝑓𝑘 𝑿 =
1
(2𝜋)
𝑝
2 𝚺
1
2
exp[−
1
2
𝑿 − 𝝁 𝒌
𝑇
𝚺−1
(𝑿 − 𝝁 𝒌)]
但し、分散共分散行列は各群に共通とする
4.4.3 多変量のLDA
ベイズの定理の公式に𝑓𝑘 𝑿 を代入
分子に対数を取り、第k群に関する項だけを新
しい関数とする
𝛿 𝑘 𝒙 ≡ 𝒙 𝑇
𝚺−1
𝝁 𝒌 −
1
2
𝝁 𝒌
𝑇
𝚺−1
𝝁 𝒌 + ln 𝜋 𝑘
(但し 𝒙 𝑇
𝚺−1
𝝁 𝒌 = 𝝁 𝒌
𝑻
𝚺−1
𝒙)
𝑋 = 𝑥の時に、この関数の値が最大となる群に
分類される
4.4.3 多変量のLDA
LDAでDefault Dataを検証
⇓
全体の誤り率は
23+252
10000
=0.0275
⇓
当てはまりとしてはかなり良
いのでは?
⇓
但し注意点が
真の状態
履行 不履行 計
予
測
し
た
状
態
履
行
9644 252 9896
不
履
行
23 81 104
計 9667 333 10000
4.4.3 分析の注意点
1.訓練データの誤り率<テストデータでの誤り率
となることが多い。
サンプル数に対してパラメータ数が大きいと
過適合が起こりやすい。
2.全ての人を「履行」と分類する分類器を想定
したら、その全体の誤り率は
333
10000
= 3.33%
⇓
「不合理」な分類器と大差ない
4.4.3 2種類の過誤
偽陽性:真の状態が「履行(Neg)」なのに「不履
行(Pos)」と分類してしまう
偽陰性:真の状態が「不履行(Pos)」なのに「履
行(Neg)」と分類してしまう
Confusion Matrix
4.4.3 2種類の過誤
薬学・生物学等の分野では感度(Sensitivity)や
特異度(Specificity)という指標で分類器の性能を表す
【今回の例】
感度(= 1 −偽陰性率):債務不履行(Pos)の状態を正しく分
類できたか
81
333
=1 −
252
333
= 24.3%
特異度(= 1 −偽陽性率):債務履行(Neg)の状態を正しく
分類できたか
9644
9667
= 1 −
23
9667
= 99.8%
4.4.3 2種類の過誤
感度(True Positive Rate)
𝑻𝑷
𝑷
=
𝑷 − 𝑭𝑷
𝑷
= 𝟏 −
𝑭𝑷
𝑷
特異度(True Negative Rate)
𝑻𝑵
𝑵
=
𝑵 − 𝑭𝑵
𝑵
= 𝟏 −
𝑭𝑵
𝑵
真の状態
履行
(Negative)
不履行
(Positive)
計
予
測
し
た
状
態
履
行
𝑇𝑟𝑢𝑒 𝑁𝑒𝑔
𝑇𝑁
𝐹𝑎𝑙𝑠𝑒 𝑁𝑒𝑔
𝐹𝑁
𝑁∗
不
履
行
𝐹𝑎𝑙𝑠𝑒 𝑃𝑜𝑠
𝐹𝑃
𝑇𝑟𝑢𝑒 𝑃𝑜𝑠
𝑇𝑃
𝑃∗
計 𝑁 𝑃
4.4.3 閾値の設定
修正前
Pr default=No x <0.5 ⇔ 予測される状態「債務履行」
⇓閾値を修正する
修正後
Pr default=No x <0.2 ⇔ 予測される状態「債務履行」
カード会社が気になる部分
誤りが多い
⇓
LDAを修正する必要あり
4.4.3 閾値の設定
気になる部分の
誤り率(偽陰性率)
は改善された
75.7%→41.4%
⇓
全体としての誤り率
は上昇している
2.75%→3.73%
修正前
修正後
4.4.3(補足) 線形判別と誤り率
誤判別する確率を最小にする、という観点から線
形判別分析を考える。
𝐺1, 𝐺2群に分類する状況を想定して行う。
記号の準備
𝑓𝑘 𝑥 :母集団𝐺 𝑘 (𝑘=1,2)の確率密度関数
𝜋 𝑘:xが𝐺 𝑘から選ばれる確率(事前確率)
𝑃 𝑘 𝑥 :xが得られた時に、 𝐺 𝑘と判別する確率
𝐶 𝑗 𝑘 : 𝐺 𝑘からのサンプルを𝐺𝑗と判別した時の損失
𝑘, 𝑗 = 1,2
𝐶 1 1 = 𝐶 2 2 = 0
4.4.3(補足) 線形判別と誤り率
真の状態
𝐺1 𝐺2 計
予
測
し
た
状
態
𝐺1 𝑃 1 1 𝑃 1 2 𝑃(1)
𝐺2 𝑃 2 1 𝑃 2 2 𝑃(2)
計 1 1
群 𝐺1 𝐺2
事前確率 𝜋1 𝜋2
判別する確率 𝑃 2 1 𝑃 1 2
損失 𝐶 2 1 𝐶 1 2
期待損失 𝜋1 𝐶 2 1 𝑃 2 1 𝜋2 𝐶 1 2 𝑃 1 2
4.4.3(補足) 線形判別と誤り率
よってxが得られた時の損失の期待値は
𝑟 𝑥 = 𝜋1 𝐶 2 1 𝑃 2 1 + 𝜋2 𝐶 1 2 𝑃 1 2
これを最小化する。
4.4.3 閾値の設定
:全体の誤り率 (
𝐹𝑃+𝐹𝑁
𝑃+𝑁
)
・・・・・・:偽陽性率 (
𝐹𝑃
𝑁
)
---:偽陰性率 (
𝐹𝑁
𝑃
)
真の状態
履行
(Negative)
不履行
(Positive)
計
予
測
し
た
状
態
履
行
𝑇𝑟𝑢𝑒 𝑁𝑒𝑔
𝑇𝑁
𝐹𝑎𝑙𝑠𝑒 𝑁𝑒𝑔
𝐹𝑁
𝑁∗
不
履
行
𝐹𝑎𝑙𝑠𝑒 𝑃𝑜𝑠
𝐹𝑃
𝑇𝑟𝑢𝑒 𝑃𝑜𝑠
𝑇𝑃
𝑃∗
計 𝑁 𝑃
4.4.3 閾値の決定
【定性的】 閾値を下げる
⇓
「不履行(Pos)」の人を間違えて「履行(Neg)」と判断する確率(偽
陰性率)は下がり、全体の誤り率は上昇する
【定量的】
どこまで閾値を下げればいいのか?
4.4.3 閾値の決定
ROC曲線(ROC curve)を導入する
・ROCは通信理論(Communication theory)にお
ける受信者動作特性(Reciever Operating
Characteristic)の頭文字から
・曲線以下の領域をROC曲線下面積・AUC(Area
Under the Curve)と呼ぶ
・理想的なROC曲線は左上に接する
4.4.3 ROC曲線
理想的な点
ROC曲線
ROC曲線下面積
AUC
感度
偽陽性率
4.4.3 ROC曲線
真の状態
履行
(Negative)
不履行
(Positive)
計
予
測
し
た
状
態
履
行
𝑇𝑟𝑢𝑒 𝑁𝑒𝑔
𝑇𝑁
𝐹𝑎𝑙𝑠𝑒 𝑁𝑒𝑔
𝐹𝑁
𝑁∗
不
履
行
𝐹𝑎𝑙𝑠𝑒 𝑃𝑜𝑠
𝐹𝑃
𝑇𝑟𝑢𝑒 𝑃𝑜𝑠
𝑇𝑃
𝑃∗
計 𝑁 𝑃
閾値 0.2 0.5
感度 0.586 0.243
偽陰性率 0.414 0.757
特異度 0.976 0.998
偽陽性率 0.024 0.002
真の状態
履行
(Negative)
不履行
(Positive)
計
予
測
し
た
状
態
履
行
𝑇𝑟𝑢𝑒 𝑁𝑒𝑔
𝑇𝑁
𝐹𝑎𝑙𝑠𝑒 𝑁𝑒𝑔
𝐹𝑁
𝑁∗
不
履
行
𝐹𝑎𝑙𝑠𝑒 𝑃𝑜𝑠
𝐹𝑃
𝑇𝑟𝑢𝑒 𝑃𝑜𝑠
𝑇𝑃
𝑃∗
計 𝑁 𝑃
4.4.4 二次判別分析
線形判別分析の仮定
①各群は固有の期待値を持つ
②各群は等分散
③各群での観測値は正規分布に従う
⇓
𝑋 𝑘~𝑁(𝜇 𝑘, 𝜎2
)
⇓
等分散の仮定を外す
⇓
𝑋 𝑘~𝑁(𝜇 𝑘, 𝜎 𝑘
2
)
4.4.4 二次判別分析(𝑝 = 1)
ベイズの定理の公式に𝑁(𝜇 𝑘, 𝜎 𝑘
2)を代入した
𝑝 𝑘(X) =
𝜋 𝑘
1
2𝜋𝜎 𝑘
exp[−
1
2𝜎 𝑘
2 𝑋 − 𝜇 𝑘
2
]
𝑙=1
𝐾
𝜋𝑙
1
2𝜋𝜎𝑙
exp[−
1
2𝜎𝑙
2 𝑋 − 𝜇𝑙
2]
分子のみに対数をとり、𝑘番目に関する項だけを新しい
関数として定義する
𝛿 𝑘 𝑥 ≡ −𝑥2
1
2𝜎 𝑘
2
+ 𝑥
𝜇 𝑘
𝜎 𝑘
2
−
𝜇 𝑘
2
2𝜎 𝑘
2
+ ln 𝜋 𝑘 − ln(𝜎 𝑘)
𝑝 𝑘(𝑥)が最大となる𝑥では𝛿 𝑘 𝑥 も最大となる。
この関数は𝑥について二次であるので二次判別分析という
4.4.4 二次判別分析(𝑝 > 1)
第k群については
𝑓𝑘 𝑿 =
1
(2𝜋)
𝑝
2 𝚺 𝒌
1
2
exp[−
1
2
𝑿 − 𝝁 𝒌
𝑇 𝚺 𝒌
−1
(𝑿 − 𝝁 𝒌)]
を仮定する
4.4.4 二次判別分析(𝑝 > 1)
ベイズの定理の公式に𝑓𝑘 𝑿 を代入
分子に対数を取り、𝑘番目の階級に関する項だけを新し
い関数とする
𝛿 𝑘 𝒙
≡ −
1
2
𝒙 𝑇 𝚺 𝒌
−1
𝒙 + 𝒙 𝑇 𝚺 𝒌
−1
𝝁 𝒌 −
1
2
𝝁 𝒌
𝑇 𝚺 𝒌
−1
𝝁 𝒌 + ln 𝜋 𝑘
−
1
2
ln 𝚺 𝒌
(但し 𝒙 𝑇 𝚺−1 𝝁 𝒌 = 𝝁 𝒌
𝑻 𝚺−1 𝒙)
𝑋 = 𝑥の時に、この関数の値が最大となる階級に分類さ
れる
4.4.4 LDAとQDAの比較
変数の種類を𝑝として、分散共分散行列を計算
することを考える。
LDAは
𝑝(𝑝+1)
2
個のパラメータを推定する必要が
ある。
QDAはK
𝑝(𝑝+1)
2
個のパラメータを推定する必要
がある。
4.4.4 LDAとQDAの比較
LDA
・分散は各群に共通
・推定するパラメータ数が少ない
・柔軟性が低い
・分散の値が低くなる
・バイアスが高い
∴データ数が小さい時に使える
QDA
・分散は各群で異なる
・推定するパラメータ数が多い
・柔軟性が高い
・分散の値が高くなりがち
・バイアスが低い
∴データ数が大きい時に使える
4.4.4 LDAとQDAの比較
等分散の条件の下
2値の分類を考える
ベイズによる境界
LDAによる境界
QDAによる境界
QDAは必要以上にバイアスを減らし、
分散が大きくなっている
⇓
LDAの方が良く推定できている𝜎112=𝜎212 = 0.7 Σ1=Σ2
4.4.4 LDAとQDAの比較
不等分散の条件の下
2値の分類を考える
𝜎112=0.7 𝜎212= − 0.7 Σ1 ≠ Σ2
ベイズによる境界
LDAによる境界
QDAによる境界
QDAの方が良く推定できている
4章 Classification
4.1 使うデータの紹介
4.2 線形回帰での分析(ダメな理由)
4.3 ロジスティック回帰
4.4 線形判別分析
4.5 分類理論(Classification Methods)の比較
4.5 ロジスティック回帰とLDA
一変量のデータを二値に分けることを考える。
𝑝1 𝑥 ,𝑝2 𝑥 = 1 − 𝑝1 𝑥 とする。
線形判別分析でのロジットは
ln
𝑝1 𝑥
𝑝2 𝑥
= ln
𝜋1
1
2𝜋𝜎
exp −
1
2𝜎2 𝑋 − 𝜇1
2
𝜋2
1
2𝜋𝜎
exp −
1
2𝜎2 𝑋 − 𝜇2
2
4.5 ロジスティック回帰とLDA
適宜整理すると
ln
𝑝1 𝑥
𝑝2 𝑥
=
𝜇1 − 𝜇2
𝜎2
𝑥 +
𝜇2
2
− 𝜇1
2
2𝜎2
+ ln
𝜋2
𝜋1
LDAの場合、決定境界は線形であるが、その係
数の推定には正規分布の仮定から導かれる、
平均と分散が用いられる
4.5 ロジスティック回帰とLDA
ロジスティック回帰の場合のロジットは
ln
𝑝1 𝑥
𝑝2 𝑥
= 𝛽0 + 𝛽1 𝑥
である。
ロジスティック回帰の場合、決定境界は線形で
あるが、係数の推定には最尤法が用いられる。
4.5 シナリオ1
観測値は各階級20ずつ
平均は各階級で異なるが、無相
関である
階級間での分散共分散行列は
同じ
⇓
決定境界は線形になる
⇓
LDAの想定に最も適合する
4.5 シナリオ2
観測値は各階級20ずつ
独立変数は各階級共に-0.5の相
関を持つ
階級間での分散共分散行列は同
じ
⇓
決定境界は線形となる
⇓
LDAが最もパフォーマンスが良い
4.5 シナリオ3
観測値はt分布からの無作為抽出
(t分布は正規分布より裾が広い)
各階級50ずつの観測値を抽出
⇓
決定境界は線形となる
⇓
ロジスティック回帰の設定に最も適合す
る
正規分布の仮定を満たさないのでQDAや
LDAの当てはまりが悪い
QDAは線形の仮定を外しているので、よ
り当てはまりが悪い
4.5 シナリオ4
観測値は正規分布からの無作為抽
出
各階級50ずつの観測値を抽出
一つ目の階級は相関係数0.5
ニつ目の階級は相関係数-0.5
階級によって分散共分散行列が異
なる
⇓
決定境界は非線形
⇓
QDAの想定に最も適合する
4.5 シナリオ5
観測値は正規分布からの無作
為抽出
各階級50ずつの観測値を抽出
無相関
応答変数は𝑋1
2
𝑋2
2
𝑋1 × 𝑋2
を含むロジスティック関数から
抽出
⇓
決定境界は二次曲線(非線形)
⇓
QADの想定に最も適合
線形を想定するLDAやLogiatic
は当てはまりが悪い
4.5 シナリオ6
観測値は正規分布からの無作為抽出
各階級50ずつの観測値を抽出
相関係数0
応答変数はシナリオ5よりも複雑な非線
形の関数から抽出
⇓
決定境界は複雑な非線形
⇓
QDAでも十分にデータをモデル化出来な
い
K近傍法もKの値によってパフォーマンス
は異なる
⇓
Kの値を適切に選ぶことが重要

More Related Content

What's hot

ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践id774
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1Kenta Oono
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333Issei Kurahashi
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Searchsleepy_yoshi
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション考司 小杉
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎Hirotaka Hachiya
 
Stat r 9_principal
Stat r 9_principalStat r 9_principal
Stat r 9_principalfusion2011
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-Koichiro Gibo
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsTakao Yamanaka
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Hiroko Onari
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 

What's hot (20)

ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 
Yamadai.Rデモンストレーションセッション
Yamadai.RデモンストレーションセッションYamadai.Rデモンストレーションセッション
Yamadai.Rデモンストレーションセッション
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
Stat r 9_principal
Stat r 9_principalStat r 9_principal
Stat r 9_principal
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
外れ値
外れ値外れ値
外れ値
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析Rでソーシャルネットワーク分析
Rでソーシャルネットワーク分析
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 

Viewers also liked

PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionShintaro Takemura
 
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1ryuhmd
 
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約Michimasa Haga
 
R言語で統計分類基本
R言語で統計分類基本R言語で統計分類基本
R言語で統計分類基本Paweł Rusin
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7Shunsuke Nakamura
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料at grandpa
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方Sayuri Shimizu
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎Ken'ichi Matsui
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 

Viewers also liked (16)

PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
 
Regression2
Regression2Regression2
Regression2
 
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1
 
おしゃスタat銀座
おしゃスタat銀座おしゃスタat銀座
おしゃスタat銀座
 
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
ロジスティック回帰分析を扱った予測モデル作成研究事例の要約
 
R言語で統計分類基本
R言語で統計分類基本R言語で統計分類基本
R言語で統計分類基本
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
LDA入門
LDA入門LDA入門
LDA入門
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 

Similar to An introduction to statistical learning 4 logistic regression manu

ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章Isao Takaesu
 
カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)Takumi Tsutaya
 
第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライドkeiodig
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良MasatoKikuchi4
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)Yoshitake Takebayashi
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量Shohei Miyashita
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析aa_aa_aa
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variablet2tarumi
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
岡谷貴之「深層学習」の解説
岡谷貴之「深層学習」の解説岡谷貴之「深層学習」の解説
岡谷貴之「深層学習」の解説WEBFARMER. ltd.
 
体育の種目選択を最適化する
体育の種目選択を最適化する体育の種目選択を最適化する
体育の種目選択を最適化するKuroda Sho
 
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布Seiichi Uchida
 
dplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリングdplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリングSomatori Keita
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdfkeiodig
 

Similar to An introduction to statistical learning 4 logistic regression manu (20)

ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)
 
第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
K030 appstat201203 2variable
K030 appstat201203 2variableK030 appstat201203 2variable
K030 appstat201203 2variable
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
岡谷貴之「深層学習」の解説
岡谷貴之「深層学習」の解説岡谷貴之「深層学習」の解説
岡谷貴之「深層学習」の解説
 
体育の種目選択を最適化する
体育の種目選択を最適化する体育の種目選択を最適化する
体育の種目選択を最適化する
 
データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布データサイエンス概論第一=4-2 確率と確率分布
データサイエンス概論第一=4-2 確率と確率分布
 
dplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリングdplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリング
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
 
主成分分析
主成分分析主成分分析
主成分分析
 

An introduction to statistical learning 4 logistic regression manu