More Related Content Similar to パターン認識 05 ロジスティック回帰 Similar to パターン認識 05 ロジスティック回帰 (20) More from sleipnir002 (8) パターン認識 05 ロジスティック回帰3. R一人勉強会のご紹介
Rで学ぶデータサイエンス 5パターン認識
(著)金森 敬文, 竹之内 高志, 村田 昇, 金 明哲
共立出版
今ならデモスクリプトがダウンロードできる!
http://www.kyoritsu-
pub.co.jp/service/service.html#019256
第1章 判別能力の評価 Done
第2章 k-平均法 Done
第3章 階層的クラスタリング
第4章 混合正規分布モデル Done
第5章 判別分析 面白ネタ募集中!
第6章 ロジスティック回帰 ←イマココ!
第7章 密度推定
第8章 k-近傍法 Done
第9章 学習ベクトル量子化 Done
第10章 決定木
第11章 サポートベクターマシン
第12章 正則化とパス追跡アルゴリズム
第13章 ミニマックス確率マシン
第14章 集団学習 さぁ、今すぐAmazonでクリック!!
第15章 2値判別から多値判別へ
5. 今回の目的
ロジスティック回帰とその仲間についての大枠を理解
• ロジスティック回帰
• ロジスティック回帰の弱点
• 非線形ロジスティック回帰
• ニューラルネットワーク
関数の細かい使用法などは
後でBlogにまとめます。
7. ロジスティック回帰
質的変数を線形に回帰するためのアルゴリズム。
e.g.2値判別の場合
• クラスの事後確率オッズ比
の対数(ロジット)が特徴量 Pr(Y 1 | x)
(A) log Tx
の線形和で表現されている 1 Pr(Y 1 | x)
モデル(A)
• 事後確率はシグモイド関数
(B)であらわされる。
(B)
9. 回帰分析
説明される(従属)変数を説明(独立)変数の式で当てはめる。
予測、変数の効果の調査に用いる。
モデル式 既にあるデータ
従属変数 従属変数
係数 独立変数 x11 x1 p y1
X Y
x x y
y 1 x1 2 x2 n xn n1 np n
1 2
例:
ワインの値段~畑の温度+土壌のミネラル+・・・
幸福度~年収+周りとの年収比+・・・
12. 質的変数を回帰する上での問題
離散型の変数を連続変数で予測しても意味がない。
e.g.SPAM判別問題
• 判別したいクラスにそれぞ Y=30→?
れ-1とか1とか数字を割り当
てる。
Y=1→No y 1 x1 2 x2 n xn
• 30や-1はどういう意味があ
る? X
Y=0→?
無理やり2値判別問題に
線形回帰を適用すると、、、 Y=-1→ Yes
14. ロジスティック回帰
質的変数を線形に回帰するためのアルゴリズム。
e.g.2値判別の場合
• クラスの事後確率の比の対
数(ロジット)が特徴量の線 Pr(Y 1 | x)
(A) log Tx
形和で表現されているモデ 1 Pr(Y 1 | x)
ル(A)
• 事後確率はシグモイド関数
(B)であらわされる。
(B)
15. ロジスティック回帰で判別する
モデル構築:対数尤度の最大化
判別:事後確率の最大化→ T x 0 ならY=1
判別
モデル構築
predict() テストデータ ラベル付きデータ
x glm( family=binominal)
x11 x1 p y1
X Y
x x y
n1 np n
事後確率
対数尤度
1
Pr ( Y 1 | x )
n
L( ) y log Pr(Y j | x )
j i i
1 e x
T j {1, 2} i 1
を最大化
予測結果 モデル=パラメータ
y
16. 参考:ロジットから事後確率までの
流れ
T x
Pr(Y 1 | x) e
log x
T
Pr(Y 1 | x) T x
1 Pr(Y 1 | x) (1 e )
Pr(Y 1 | x) T x 1
e Pr(Y 1 | x)
1 Pr(Y 1 | x) (e T x
1)
T x
Pr(Y 1 | x) e (1 Pr(Y 1 | x)) 1
Pr(Y 1 | x) T x
T x T x
(e 1)
(1 e ) Pr(Y 1 | x) e
20. IRISデータ
花の種類×萼片(幅・長さ)×花弁(幅・長さ)
setosa versicolor virginia
sepal petal
Setosaだけ形が異なる?
23. ロジスティック回帰で判別する。
GLMのモデルを
返す。Binominalで
ロジスティック判別
*デモ、http://www.kyoritsu-pub.co.jp/service/service.html#019256を基に一部改変
26. ロジスティック回帰の弱点
入力データに対して超平面を構成する→
線形分離不可能なデータに弱い
• 入力空間のデータより、超平
面を構成、1次元に落とし込む。 通常の回帰と同じ
超平面(線形)
y x( R R)
T n
T x 0 c 1
T
x 0 c 2
超平面(非線形) T x 0
• 非線形に回帰したい。
y T ( x) ( R k R)
T x 0
e.g. 1 , x2 ) ( x1 , x2 , x1 x2 )
(x x0
T
27. 2値判別問題にするための処理
Setosa+virginiaとversicolorに分ける
Set+Vir
3群 2群 Ver
線形分離不可能?なデータであることに注目
30. 非線形に判別してみる。
e.g. 一次式ではなく二次式で判別する。
y 1 x1 2 x2 n xn
y 1 x1 2 x2 n xn 12 x1 x2 n 1n xn 1 xn
31. Rで書くとこんなかんじ
e.g. 一次式ではなく二次式で判別する。
glm(Species~.,iris[index,],family=binomial)
glm(Species~.*.,iris[index,],family=binomial)
35. ニューラルネットワーク
生物の脳の情報処理構造を模した情報処理装置
• 多層パーセプトロン
• 自己組織化マップ
• RBFネットワーク
• 学習ベクトル量子化
単純パーセプトロン=
ロジスティック回帰
36. ロジスティック回帰と
多層パーセプトロン
複数の階層を設けることで、非線形の効果を得ることが
出来る。
ロジスティック回帰 多層パーセプトロン
input output input hidden output
W W
この本を
x1 x1
w1 h1 j1 チェック!
x2 w2 x2 f(y1)
w3
f(y) h2 ・・・ j2
x3 x3 f(y2)
w4
1 h3 j3
x4 f: x4
1 exp( Y )
誤差逆伝播法で
重みを学習
37. ニューラルネットで判別する。
モデル構築:nnet(Species~, X, size)
予測:predict(res, X, type=“class”)
入力の一次式の
未使用
データが1次式でもモデルが複雑なので、非線
形ロジスティック回帰のように判別可能である。
結果
*デモ、http://www.kyoritsu-pub.co.jp/service/service.html#019256を基に一部改変