SlideShare a Scribd company logo
PRML 3章 線形回帰モデル
 3.1 ∼ 3.1.2
pp. 135-141

PRML復復習レーン #3
2012/07/16                                   yag_ays



 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
3.1∼3.1.2のあらすじ


• 線形回帰
 • 入力変数から目標変数を予測
 • 入力変数に関して非線形な関数を導入する   (xn )

• 最尤推定と最小二乗法
 • パラメータを推定する
• 最小二乗法の幾何学
3.1 線形基底関数モデル

最も単純な線形回帰モデルを考える
        y(x, w) = w0 + w1 x1 + · · · + wD xd


  入力変数: x = (x1 , . . . xD )T
 パラメータ: w = (w0 , . . . wD )T



  入力変数に関して線形関数に                           基底関数の
なっているため,表現能力に乏しい                            導入
入力変数に関して非線形な関数                      j (x) を噛ませる

                         M 1
                         X
        y(x, w) = w0 +         wj   j (x)
                         j=1



バイアスパラメータ w0 を整理して
              M 1
              X
                              T
    y(x, w) =     wj j (x) = w (x)
                                     ただし
               j=0
                                            0 (x)   =1

         関数 y(x, w) : 非線形
      パラメータ w       : 線形
       基底関数 j (x) : 非線形
よく用いられる基底関数の例
多項式              ガウス基底関数                               シグモイド関数
                                 ⇢                 2
                                                                   ✓                ◆
             j                       (x     µj )                       x       µj
j (x)   =x       j (x)   = exp
                                          2s2
                                                       j (x)   =
                                                                           s




   • その他
    • スプライン関数で範囲を区切る
    • フーリエ基底やウェーブレットも
3.1.1 最尤推定と最小二乗法

目的変数 が関数    とノイズ で与えられる時
    t   y(x, w) ✏
    t = y(x, w) + ✏


ノイズがガウス分布に従うとすると
  p(t|x, w, ) = N (t|y(x, w), 1 )


入力ベクトルと目標値が与えられた時の尤度関数は
                 N
                 Y
                           T       1
   p(t|X, w, ) =   N (tn |w (xn ),   )
                      n=1
両辺対数を取って N
                  X
                            T               1
 ln p(t|X, w, ) =   N (tn |w (xn ),             )
                 n=1
                 N           N
               =   ln          ln 2⇡       ED (w)
                 2           2

このとき,二乗和誤差関数は
                XN
              1                     T            2
     ED (w) =       {tn         w       (xn )}
              2 n=1


尤度関数の最大化 = 二乗和誤差関数の最小化 なので
                    N
                    X
                           T             T
 r ln p(t|X, w, ) =   {tn w (xn )} (xn )
                       n=1
勾配を0とおいて w について解く
        N                                N
                                                                 !
        X                T
                                         X                   T
                                     T
   0=         tn (xn )           w             (xn ) (xn )
        n=1                              n=1
                                                     (展開しただけ)

w について解く
  wML = ( T )      1     T
                             t




         計画行列
バイアスパラメータw0 の解釈
バイアスパラメータを残したまま
  二乗和誤差関数を求めると
            XN               M 1
                             X
          1                                     2
 ED (w) =       {tn   w0           wj   j (xn )}
          2 n=1              j=1



w0 について解くと
                      M 1
                      X
                  ¯
             w0 = t          wj    j
                       j=1

                      N                           XN
                   1 X                          1
            ただし, =
                ¯
                t        tn               j   =         j (xn )
                   N n=1                        N n=1
バイアスパラメータw0 の解釈
                     M 1
                     X
                ¯
           w0 = t          wj    j
                     j=1

    目標変数の平均 ー 基底関数の平均
             N
       ¯  1X                     1X
                                     N
       t=       tn         j   =         j (xn )
          N n=1                  N n=1




また,ノイズの精度パラメータ について
                XN
       1      1                  T                 2
            =       {tn         wM L        (xn )}
       ML     N n=1

     これは回帰関数周りでの目標値との残差分散
3.1.2 最小二乗法の幾何学



幾何学なんて無かった...
3.1.2 最小二乗法の幾何学(補足)
•   皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ
    のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ
    ば幸い.

•   図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正
    射影したものがy.この図ではM=2,N=3.

•   tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表
    すことができる.基底関数の数MをNと同じにすればtを正確に表現
    することができるが,それでは過学習のような状態になってしまうた
    め,Nより少ない数(M<N)で何とか表現したい.

•   そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト
    ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和
    誤差の幾何学的な関係.

•   「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが
    作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない
    次元数でtを上手く表現できていることになって嬉しい)

•   このような幾何学的解釈は,この後もPRML下巻などで出てくるらし
    い

More Related Content

What's hot

パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
matsuolab
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
Akira Miyazawa
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足Hiromasa Ohashi
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
matsuolab
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
Itaru Otomaru
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
Takashi Tamura
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
Akira Miyazawa
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6Hiroyuki Kato
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
Naoya Nakamura
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデルTakeshi Sakaki
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
Nagi Teramo
 

What's hot (20)

パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
 

Viewers also liked

Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
florets1
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisited
Xavier Amatriain
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム裕樹 奥田
 

Viewers also liked (6)

NICOMI
NICOMINICOMI
NICOMI
 
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
 
Spotfire_8
Spotfire_8Spotfire_8
Spotfire_8
 
Prml
PrmlPrml
Prml
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisited
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 

Similar to Re revenge chap03-1

PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
Takuya Minagawa
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
Takahiro (Poly) Horikawa
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
sleepy_yoshi
 
PRML chapter7
PRML chapter7PRML chapter7
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
Mika Yoshimura
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
Shin Asakawa
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
Maruyama Tetsutaro
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
JAVA DM
 
PRML5
PRML5PRML5
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
PRML chapter5
PRML chapter5PRML chapter5
ndwave5.pdf
ndwave5.pdfndwave5.pdf
ndwave5.pdf
MuiKanarine
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 

Similar to Re revenge chap03-1 (20)

PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
Prml07
Prml07Prml07
Prml07
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML5
PRML5PRML5
PRML5
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
ndwave5.pdf
ndwave5.pdfndwave5.pdf
ndwave5.pdf
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 

More from 裕樹 奥田

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
裕樹 奥田
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub
裕樹 奥田
 
bmb2010_g86
bmb2010_g86bmb2010_g86
bmb2010_g86
裕樹 奥田
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*
裕樹 奥田
 
Ajacs17
Ajacs17Ajacs17
Ajacs17
裕樹 奥田
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる
裕樹 奥田
 

More from 裕樹 奥田 (8)

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub
 
bmb2010_g86
bmb2010_g86bmb2010_g86
bmb2010_g86
 
Tsukubar8
Tsukubar8Tsukubar8
Tsukubar8
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*
 
Ajacs17
Ajacs17Ajacs17
Ajacs17
 
ESS
ESSESS
ESS
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる
 

Re revenge chap03-1

  • 1. PRML 3章 線形回帰モデル 3.1 ∼ 3.1.2 pp. 135-141 PRML復復習レーン #3 2012/07/16 yag_ays 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
  • 2. 3.1∼3.1.2のあらすじ • 線形回帰 • 入力変数から目標変数を予測 • 入力変数に関して非線形な関数を導入する (xn ) • 最尤推定と最小二乗法 • パラメータを推定する • 最小二乗法の幾何学
  • 3. 3.1 線形基底関数モデル 最も単純な線形回帰モデルを考える y(x, w) = w0 + w1 x1 + · · · + wD xd 入力変数: x = (x1 , . . . xD )T パラメータ: w = (w0 , . . . wD )T 入力変数に関して線形関数に 基底関数の なっているため,表現能力に乏しい 導入
  • 4. 入力変数に関して非線形な関数 j (x) を噛ませる M 1 X y(x, w) = w0 + wj j (x) j=1 バイアスパラメータ w0 を整理して M 1 X T y(x, w) = wj j (x) = w (x) ただし j=0 0 (x) =1 関数 y(x, w) : 非線形 パラメータ w : 線形 基底関数 j (x) : 非線形
  • 5. よく用いられる基底関数の例 多項式 ガウス基底関数 シグモイド関数 ⇢ 2 ✓ ◆ j (x µj ) x µj j (x) =x j (x) = exp 2s2 j (x) = s • その他 • スプライン関数で範囲を区切る • フーリエ基底やウェーブレットも
  • 6. 3.1.1 最尤推定と最小二乗法 目的変数 が関数    とノイズ で与えられる時 t y(x, w) ✏ t = y(x, w) + ✏ ノイズがガウス分布に従うとすると p(t|x, w, ) = N (t|y(x, w), 1 ) 入力ベクトルと目標値が与えられた時の尤度関数は N Y T 1 p(t|X, w, ) = N (tn |w (xn ), ) n=1
  • 7. 両辺対数を取って N X T 1 ln p(t|X, w, ) = N (tn |w (xn ), ) n=1 N N = ln ln 2⇡ ED (w) 2 2 このとき,二乗和誤差関数は XN 1 T 2 ED (w) = {tn w (xn )} 2 n=1 尤度関数の最大化 = 二乗和誤差関数の最小化 なので N X T T r ln p(t|X, w, ) = {tn w (xn )} (xn ) n=1
  • 8. 勾配を0とおいて w について解く N N ! X T X T T 0= tn (xn ) w (xn ) (xn ) n=1 n=1 (展開しただけ) w について解く wML = ( T ) 1 T t 計画行列
  • 9. バイアスパラメータw0 の解釈 バイアスパラメータを残したまま 二乗和誤差関数を求めると XN M 1 X 1 2 ED (w) = {tn w0 wj j (xn )} 2 n=1 j=1 w0 について解くと M 1 X ¯ w0 = t wj j j=1 N XN 1 X 1 ただし, = ¯ t tn j = j (xn ) N n=1 N n=1
  • 10. バイアスパラメータw0 の解釈 M 1 X ¯ w0 = t wj j j=1 目標変数の平均 ー 基底関数の平均 N ¯ 1X 1X N t= tn j = j (xn ) N n=1 N n=1 また,ノイズの精度パラメータ について XN 1 1 T 2 = {tn wM L (xn )} ML N n=1 これは回帰関数周りでの目標値との残差分散
  • 12. 3.1.2 最小二乗法の幾何学(補足) • 皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ ば幸い. • 図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正 射影したものがy.この図ではM=2,N=3. • tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表 すことができる.基底関数の数MをNと同じにすればtを正確に表現 することができるが,それでは過学習のような状態になってしまうた め,Nより少ない数(M<N)で何とか表現したい. • そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和 誤差の幾何学的な関係. • 「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが 作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない 次元数でtを上手く表現できていることになって嬉しい) • このような幾何学的解釈は,この後もPRML下巻などで出てくるらし い