SlideShare a Scribd company logo
PRML復々習レーン#7
 前回までのあらすじ
    2012-12-15
  Yoshihiko Suhara
   @sleepy_yoshi

                     v.1.0
前回のおさらい
• 復々習レーンの復習を15分程度でやります
 – 得られた結論にポイントを絞る
 – 「よーするに」な内容
                       ポイントだよ



   • 好きなところをたくさん喋る
   • よくわからないところは誤魔化す
   • まちがってたら指摘してください

• 目的
 – 前回の復習
 – 不参加の方に流れを伝えるため
 – 自分自身の勉強のため

                                2
前回の範囲
4章
• 4.4 ラプラス近似
  – 4.4.1 モデルの比較とBIC
• 4.5 ベイズロジスティック回帰
  – 4.5.1 ラプラス近似
  – 4.5.2 予測分布

5章
• 5.1 フィードフォワードネットワーク関数
  – 5.1.1 重み空間対称性
• 5.2 ネットワーク訓練
  –   5.2.1 パラメータ最適化
  –   5.2.2 局所二次近似
  –   5.2.3 勾配情報の利用
  –   5.2.4 勾配降下最適化
• 5.3 誤差逆伝播
  – 5.3.1 誤差関数微分の評価
  – 5.3.2 単純な例             3
前回の範囲
4章
• 4.4 ラプラス近似
  – 4.4.1 モデルの比較とBIC
• 4.5 ベイズロジスティック回帰
  – 4.5.1 ラプラス近似
  – 4.5.2 予測分布

5章
• 5.1 フィードフォワードネットワーク関数
  – 5.1.1 重み空間対称性
• 5.2 ネットワーク訓練
  –   5.2.1 パラメータ最適化
  –   5.2.2 局所二次近似
  –   5.2.3 勾配情報の利用
  –   5.2.4 勾配降下最適化
• 5.3 誤差逆伝播
  – 5.3.1 誤差関数微分の評価
  – 5.3.2 単純な例             4
4.4 ラプラス近似



             5
4.4 ラプラス近似
 ポイントだよ




        パラメータ𝒘を積分するため,
    ガウス分布による近似を行う (= ラプラス近似)

• 𝑝(𝑧)のモードを見つけ,ガウス分布の平均とする




                               6
4.4.1 モデルの比較とBIC
 ポイントだよ




      ラプラス近似を利用してモデルエビデンスの
              近似を得る

                                                 𝑀          1
• ln 𝑝 𝐷 ≅ ln 𝑝 𝐷 𝜽   𝑀𝐴𝑃   + ln 𝑝 𝜽   𝑀𝐴𝑃   +     ln   2𝜋 − ln 𝑨
                                                 2          2
                                     Occam係数
                                モデルの複雑さに対するペナルティ


                            1
• ln 𝑝 𝐷 ≅ ln 𝑝 𝐷 𝜽   𝑀𝐴𝑃 − 2   𝑀 ln 𝑁
   – 上記の近似.ベイズ情報量規準 (BIC) と呼ばれる

                                                                    7
4.5 ベイズロジスティック回帰



                   8
4.5.1 ラプラス近似
 ポイントだよ




  ロジスティック回帰のパラメータ𝑤の事後分布を
 ガウス分布で近似することにより,積分可能にする

• 事後確率分布のガウス分布による近似は以下の式
  のようになる
         𝑞 𝒘 = 𝒩 𝒘 𝒘 𝑀𝐴𝑃 , 𝑺 𝑁




                                 9
※重畳 (ちょうじょう) 積分

               4.5.2 予測分布
 ポイントだよ




    プロビット関数による近似と,畳み込み積分の
      近似を用いて近似予測分布を求める

            𝑝 𝐶1 𝜙, 𝒕 = 𝜎 𝜅 𝜎 2 𝜇 𝑎
                              𝑎
• ただし,
                                  1
                                 −2
                            𝜋𝜎 2
              𝜅 𝜎2 = 1 +
                 𝑎
                             8
          𝜇 𝑎 = ∫ 𝑞 𝒘 𝒘 𝑇 𝜙d𝒘 = 𝒘 𝑇𝑀𝐴𝑃 𝜙

                                                  10
5章 ニューラルネットワーク



                 11
5 ニューラルネットワーク
 ポイントだよ




           多層ニューラルネットワークは
          ロジスティック回帰を多層にしたもの

• 固定された基底関数の線形和ではモデルの有用性
  に限界 ⇒ 基底関数をデータに適応させる必要性
 – SVM (7章)
     • 訓練データ点を中心とした基底関数群を用意し,訓練中
       に選ぶ
 – 多層ニューラルネットワーク (本章)
     • 基底関数の数を固定し,訓練中に適応させる
                               12
5.1 フィードフォワードネットワーク関数




                   13
5.1 フィードフォワードネットワーク関数 (1/2)
    ポイントだよ




      入力の線形和に対する活性化関数の,
    線形和の活性化関数を出力とする (=順向き伝播)

                    𝑀      2       𝐷     1          1       2
•   𝑦 𝑘 𝒙, 𝒘 = 𝜎   𝑗=1   𝑤 𝑘𝑗 ℎ   𝑖=1   𝑤𝑗𝑖 𝑥 𝑖 + 𝑤𝑗0   + 𝑤 𝑘0




                                                                 14
5.1 フィードフォワードネットワーク関数 (2/2)
 ポイントだよ




          多層ニューラルネットワークは
           任意の関数近似が可能

• ロジスティックシグモイド関数の組み
  合わせで様々な関数を近似可能




                           15
5.1.1 重み空間対称性
 ポイントだよ




           一部の重みの符号を反転させても
          ネットワークの入出力関数は変化しない

• 隠れユニット𝑀個
  – すべての組み合わせ: 2      𝑀

          • ある特定の隠れユニットへのすべての重みとバイアスの符号を反転しても,
            その隠れユニットの出力に対する重みをすべて反転すればよい
  – 隠れユニットの順番交換: 𝑀!
          • 隠れユニットの順番は出力に影響しないため
  – よって𝑀! 2 𝑀 個の等価な重みベクトルが存在

• あまり重要ではない
  – 考慮する必要がある状況は5.7節で

                                             16
5.2 ネットワーク訓練




               17
5.2 ネットワーク訓練
ポイントだよ




         回帰問題および識別問題において
         誤差関数を負の対数尤度で定義

• 誤差関数の出力ユニットによる勾配は,回帰
  でも識別でも以下のとおりになる
         𝜕
             𝐸 𝒘 = 𝑦𝑘 − 𝑡𝑘
        𝜕𝑎 𝑘


                           18
5.2.1 パラメータ最適化
 ポイントだよ




          勾配が0になるパラメータを見つける


• 大域的最小点と局所最小点
• 数値的な反復手順による解法
        𝒘(𝜏+1) = 𝒘 𝜏 + Δ𝒘   𝜏




                                19
5.2.2 局所二次近似
ポイントだよ




      誤差関数を局所的に二次近似し,
   ヘッセ行列を評価することで極小点を判断する

            𝜕2 𝐸
• 1次元の場合,              > 0 のとき極小点
            𝜕𝑤 2 𝑤 ∗
 – あらゆる方向に対して誤差が増える




                                    20
5.2.3 勾配情報の利用
 ポイントだよ




勾配情報の利用により,効率的な計算が可能となる


• 誤差関数の二次近似において,誤差曲面は𝒃と𝑯で決定さ
  れる
           𝑊 𝑊+3   𝑊 𝑊+1
  – よって,合計   個 =      + 𝑊
           2     2
  – 二次近似の極小点の位置は𝑂 𝑊 2 個のパラメータに依存
  – 各評価に𝑊ステップ必要⇒𝑂 𝑊 3

• 勾配を用いることで𝑂(𝑊 2 )で済む
  – 𝑊回の勾配の評価で極小点の評価が可能×勾配の評価に𝑊
   ステップ必要
                                   21
5.2.4 勾配降下最適化
ポイントだよ




         勾配情報を利用したパラメータの更新


• バッチ手法
               𝜏+1         𝜏             𝜏
           𝑤         = 𝑤       − 𝜂𝛻𝐸 𝑤


• オンライン手法
       𝑤 𝜏+1 = 𝑤 𝜏 − 𝜂𝛻𝐸 𝑛 𝑤 𝜏
 – データの冗長度を効率的に扱うことができる
 – 局所解を回避できる可能性
                                             22
5.3 誤差逆伝播




            23
5.3.1 誤差関数微分の評価
 ポイントだよ




          誤差の逆伝播により,微分を評価する


• 𝛿𝑘 = 𝑦𝑘 − 𝑡𝑘
• 𝛿 𝑗 = ℎ′ 𝑎 𝑗   𝑘   𝑤 𝑘𝑗 𝛿 𝑘




                                24
5.3.2 単純な例
    ポイントだよ




         出力と目標値の差を伝播させる例を眺める

•   誤差を逆伝播する (活性化関数はtanh(⋅))
                   𝛿𝑘 = 𝑦𝑘 − 𝑡𝑘
                                          𝐾

                    𝛿𝑗 = 1 − 𝑧2
                              𝑗               𝑤 𝑘𝑗 𝛿 𝑘
                                      𝑘=1

•   第1層と第2層の重みに関する勾配は以下のとおり計算される:
                        𝜕𝐸 𝑛
                           1
                               = 𝛿𝑗 𝑥 𝑖
                       𝛿𝑤𝑗𝑖
                       𝜕𝐸 𝑛
                           2
                               = 𝛿 𝑘 𝑧𝑗
                       𝛿𝑤 𝑘𝑗

                                                         25
さぁ今日も一日
つづく    がんばるぞ




            26

More Related Content

What's hot

PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
Masahito Ohue
 
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
禎晃 山崎
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
Masahito Ohue
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
Masahito Ohue
 
Deeplearning4.4 takmin
Deeplearning4.4 takminDeeplearning4.4 takmin
Deeplearning4.4 takmin
Takuya Minagawa
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
 
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
okku apot
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
Taikai Takeda
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
Morpho, Inc.
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
Shintaro Takemura
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
Morpho, Inc.
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 

What's hot (20)

PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
Deeplearning4.4 takmin
Deeplearning4.4 takminDeeplearning4.4 takmin
Deeplearning4.4 takmin
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
 
Prml 10 1
Prml 10 1Prml 10 1
Prml 10 1
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 

Similar to PRML復々習レーン#7 前回までのあらすじ

PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
matsuolab
 
DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章
Masafumi Tsuyuki
 
PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)
Shogo Nakamura
 
画像認識4
画像認識4画像認識4
画像認識4
Hiroaki Hata
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptx
norimatsu5
 
【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures
Takeru Abe
 
第14回 配信講義 計算科学技術特論B(2022)
第14回 配信講義 計算科学技術特論B(2022)第14回 配信講義 計算科学技術特論B(2022)
第14回 配信講義 計算科学技術特論B(2022)
RCCSRENKEI
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
matsuolab
 
End challenge part2
End challenge part2End challenge part2
End challenge part2
hisa2
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
Weighted Blended Order Independent Transparency
Weighted Blended Order Independent TransparencyWeighted Blended Order Independent Transparency
Weighted Blended Order Independent Transparency
zokweiron
 
シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰
Katsuhiro Morishita
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
Kosei ABE
 
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Taro Masuda
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
 
2007 IEEE ICDM DMC task1 result
2007 IEEE ICDM DMC task1 result2007 IEEE ICDM DMC task1 result
2007 IEEE ICDM DMC task1 resultTaiga Nomi
 
深層学習と活性化関数
深層学習と活性化関数深層学習と活性化関数
深層学習と活性化関数
spade630
 
Graph U-Net
Graph U-NetGraph U-Net
Graph U-Net
yukihiro domae
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
yukihiro domae
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 

Similar to PRML復々習レーン#7 前回までのあらすじ (20)

PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章DeepLearningBook勉強会 6.2章
DeepLearningBook勉強会 6.2章
 
PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)PRML Chapter 5 (5.0-5.4)
PRML Chapter 5 (5.0-5.4)
 
画像認識4
画像認識4画像認識4
画像認識4
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptx
 
【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures
 
第14回 配信講義 計算科学技術特論B(2022)
第14回 配信講義 計算科学技術特論B(2022)第14回 配信講義 計算科学技術特論B(2022)
第14回 配信講義 計算科学技術特論B(2022)
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
End challenge part2
End challenge part2End challenge part2
End challenge part2
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
Weighted Blended Order Independent Transparency
Weighted Blended Order Independent TransparencyWeighted Blended Order Independent Transparency
Weighted Blended Order Independent Transparency
 
シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰シリーズML-07 ニューラルネットワークによる非線形回帰
シリーズML-07 ニューラルネットワークによる非線形回帰
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
2007 IEEE ICDM DMC task1 result
2007 IEEE ICDM DMC task1 result2007 IEEE ICDM DMC task1 result
2007 IEEE ICDM DMC task1 result
 
深層学習と活性化関数
深層学習と活性化関数深層学習と活性化関数
深層学習と活性化関数
 
Graph U-Net
Graph U-NetGraph U-Net
Graph U-Net
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 

More from sleepy_yoshi

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
sleepy_yoshi
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
sleepy_yoshi
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
sleepy_yoshi
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
sleepy_yoshi
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
sleepy_yoshi
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
sleepy_yoshi
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
sleepy_yoshi
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
sleepy_yoshi
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
sleepy_yoshi
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
sleepy_yoshi
 
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
sleepy_yoshi
 
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to RankSIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
sleepy_yoshi
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
 
ACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model AdaptationACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model Adaptation
sleepy_yoshi
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
sleepy_yoshi
 

More from sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
 
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to RankSIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
 
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
 
ACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model AdaptationACL2011読み会: Query Weighting for Ranking Model Adaptation
ACL2011読み会: Query Weighting for Ranking Model Adaptation
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
 

Recently uploaded

FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 

Recently uploaded (16)

FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 

PRML復々習レーン#7 前回までのあらすじ

  • 1. PRML復々習レーン#7 前回までのあらすじ 2012-12-15 Yoshihiko Suhara @sleepy_yoshi v.1.0
  • 2. 前回のおさらい • 復々習レーンの復習を15分程度でやります – 得られた結論にポイントを絞る – 「よーするに」な内容 ポイントだよ • 好きなところをたくさん喋る • よくわからないところは誤魔化す • まちがってたら指摘してください • 目的 – 前回の復習 – 不参加の方に流れを伝えるため – 自分自身の勉強のため 2
  • 3. 前回の範囲 4章 • 4.4 ラプラス近似 – 4.4.1 モデルの比較とBIC • 4.5 ベイズロジスティック回帰 – 4.5.1 ラプラス近似 – 4.5.2 予測分布 5章 • 5.1 フィードフォワードネットワーク関数 – 5.1.1 重み空間対称性 • 5.2 ネットワーク訓練 – 5.2.1 パラメータ最適化 – 5.2.2 局所二次近似 – 5.2.3 勾配情報の利用 – 5.2.4 勾配降下最適化 • 5.3 誤差逆伝播 – 5.3.1 誤差関数微分の評価 – 5.3.2 単純な例 3
  • 4. 前回の範囲 4章 • 4.4 ラプラス近似 – 4.4.1 モデルの比較とBIC • 4.5 ベイズロジスティック回帰 – 4.5.1 ラプラス近似 – 4.5.2 予測分布 5章 • 5.1 フィードフォワードネットワーク関数 – 5.1.1 重み空間対称性 • 5.2 ネットワーク訓練 – 5.2.1 パラメータ最適化 – 5.2.2 局所二次近似 – 5.2.3 勾配情報の利用 – 5.2.4 勾配降下最適化 • 5.3 誤差逆伝播 – 5.3.1 誤差関数微分の評価 – 5.3.2 単純な例 4
  • 6. 4.4 ラプラス近似 ポイントだよ パラメータ𝒘を積分するため, ガウス分布による近似を行う (= ラプラス近似) • 𝑝(𝑧)のモードを見つけ,ガウス分布の平均とする 6
  • 7. 4.4.1 モデルの比較とBIC ポイントだよ ラプラス近似を利用してモデルエビデンスの 近似を得る 𝑀 1 • ln 𝑝 𝐷 ≅ ln 𝑝 𝐷 𝜽 𝑀𝐴𝑃 + ln 𝑝 𝜽 𝑀𝐴𝑃 + ln 2𝜋 − ln 𝑨 2 2 Occam係数 モデルの複雑さに対するペナルティ 1 • ln 𝑝 𝐷 ≅ ln 𝑝 𝐷 𝜽 𝑀𝐴𝑃 − 2 𝑀 ln 𝑁 – 上記の近似.ベイズ情報量規準 (BIC) と呼ばれる 7
  • 9. 4.5.1 ラプラス近似 ポイントだよ ロジスティック回帰のパラメータ𝑤の事後分布を ガウス分布で近似することにより,積分可能にする • 事後確率分布のガウス分布による近似は以下の式 のようになる 𝑞 𝒘 = 𝒩 𝒘 𝒘 𝑀𝐴𝑃 , 𝑺 𝑁 9
  • 10. ※重畳 (ちょうじょう) 積分 4.5.2 予測分布 ポイントだよ プロビット関数による近似と,畳み込み積分の 近似を用いて近似予測分布を求める 𝑝 𝐶1 𝜙, 𝒕 = 𝜎 𝜅 𝜎 2 𝜇 𝑎 𝑎 • ただし, 1 −2 𝜋𝜎 2 𝜅 𝜎2 = 1 + 𝑎 8 𝜇 𝑎 = ∫ 𝑞 𝒘 𝒘 𝑇 𝜙d𝒘 = 𝒘 𝑇𝑀𝐴𝑃 𝜙 10
  • 12. 5 ニューラルネットワーク ポイントだよ 多層ニューラルネットワークは ロジスティック回帰を多層にしたもの • 固定された基底関数の線形和ではモデルの有用性 に限界 ⇒ 基底関数をデータに適応させる必要性 – SVM (7章) • 訓練データ点を中心とした基底関数群を用意し,訓練中 に選ぶ – 多層ニューラルネットワーク (本章) • 基底関数の数を固定し,訓練中に適応させる 12
  • 14. 5.1 フィードフォワードネットワーク関数 (1/2) ポイントだよ 入力の線形和に対する活性化関数の, 線形和の活性化関数を出力とする (=順向き伝播) 𝑀 2 𝐷 1 1 2 • 𝑦 𝑘 𝒙, 𝒘 = 𝜎 𝑗=1 𝑤 𝑘𝑗 ℎ 𝑖=1 𝑤𝑗𝑖 𝑥 𝑖 + 𝑤𝑗0 + 𝑤 𝑘0 14
  • 15. 5.1 フィードフォワードネットワーク関数 (2/2) ポイントだよ 多層ニューラルネットワークは 任意の関数近似が可能 • ロジスティックシグモイド関数の組み 合わせで様々な関数を近似可能 15
  • 16. 5.1.1 重み空間対称性 ポイントだよ 一部の重みの符号を反転させても ネットワークの入出力関数は変化しない • 隠れユニット𝑀個 – すべての組み合わせ: 2 𝑀 • ある特定の隠れユニットへのすべての重みとバイアスの符号を反転しても, その隠れユニットの出力に対する重みをすべて反転すればよい – 隠れユニットの順番交換: 𝑀! • 隠れユニットの順番は出力に影響しないため – よって𝑀! 2 𝑀 個の等価な重みベクトルが存在 • あまり重要ではない – 考慮する必要がある状況は5.7節で 16
  • 18. 5.2 ネットワーク訓練 ポイントだよ 回帰問題および識別問題において 誤差関数を負の対数尤度で定義 • 誤差関数の出力ユニットによる勾配は,回帰 でも識別でも以下のとおりになる 𝜕 𝐸 𝒘 = 𝑦𝑘 − 𝑡𝑘 𝜕𝑎 𝑘 18
  • 19. 5.2.1 パラメータ最適化 ポイントだよ 勾配が0になるパラメータを見つける • 大域的最小点と局所最小点 • 数値的な反復手順による解法 𝒘(𝜏+1) = 𝒘 𝜏 + Δ𝒘 𝜏 19
  • 20. 5.2.2 局所二次近似 ポイントだよ 誤差関数を局所的に二次近似し, ヘッセ行列を評価することで極小点を判断する 𝜕2 𝐸 • 1次元の場合, > 0 のとき極小点 𝜕𝑤 2 𝑤 ∗ – あらゆる方向に対して誤差が増える 20
  • 21. 5.2.3 勾配情報の利用 ポイントだよ 勾配情報の利用により,効率的な計算が可能となる • 誤差関数の二次近似において,誤差曲面は𝒃と𝑯で決定さ れる 𝑊 𝑊+3 𝑊 𝑊+1 – よって,合計 個 = + 𝑊 2 2 – 二次近似の極小点の位置は𝑂 𝑊 2 個のパラメータに依存 – 各評価に𝑊ステップ必要⇒𝑂 𝑊 3 • 勾配を用いることで𝑂(𝑊 2 )で済む – 𝑊回の勾配の評価で極小点の評価が可能×勾配の評価に𝑊 ステップ必要 21
  • 22. 5.2.4 勾配降下最適化 ポイントだよ 勾配情報を利用したパラメータの更新 • バッチ手法 𝜏+1 𝜏 𝜏 𝑤 = 𝑤 − 𝜂𝛻𝐸 𝑤 • オンライン手法 𝑤 𝜏+1 = 𝑤 𝜏 − 𝜂𝛻𝐸 𝑛 𝑤 𝜏 – データの冗長度を効率的に扱うことができる – 局所解を回避できる可能性 22
  • 24. 5.3.1 誤差関数微分の評価 ポイントだよ 誤差の逆伝播により,微分を評価する • 𝛿𝑘 = 𝑦𝑘 − 𝑡𝑘 • 𝛿 𝑗 = ℎ′ 𝑎 𝑗 𝑘 𝑤 𝑘𝑗 𝛿 𝑘 24
  • 25. 5.3.2 単純な例 ポイントだよ 出力と目標値の差を伝播させる例を眺める • 誤差を逆伝播する (活性化関数はtanh(⋅)) 𝛿𝑘 = 𝑦𝑘 − 𝑡𝑘 𝐾 𝛿𝑗 = 1 − 𝑧2 𝑗 𝑤 𝑘𝑗 𝛿 𝑘 𝑘=1 • 第1層と第2層の重みに関する勾配は以下のとおり計算される: 𝜕𝐸 𝑛 1 = 𝛿𝑗 𝑥 𝑖 𝛿𝑤𝑗𝑖 𝜕𝐸 𝑛 2 = 𝛿 𝑘 𝑧𝑗 𝛿𝑤 𝑘𝑗 25
  • 26. さぁ今日も一日 つづく がんばるぞ 26