Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Eric Sartre
49,051 views
正則化つき線形モデル(「入門機械学習第6章」より)
Technology
◦
Read more
39
Save
Share
Embed
Embed presentation
Download
Downloaded 173 times
1
/ 36
2
/ 36
3
/ 36
4
/ 36
5
/ 36
6
/ 36
7
/ 36
8
/ 36
9
/ 36
Most read
10
/ 36
Most read
11
/ 36
12
/ 36
13
/ 36
14
/ 36
15
/ 36
16
/ 36
17
/ 36
18
/ 36
19
/ 36
20
/ 36
21
/ 36
22
/ 36
23
/ 36
24
/ 36
Most read
25
/ 36
26
/ 36
27
/ 36
28
/ 36
29
/ 36
30
/ 36
31
/ 36
32
/ 36
33
/ 36
34
/ 36
35
/ 36
36
/ 36
More Related Content
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PPT
Yohei Yamaguchi's thought of a think, feel, work, and money20131025
by
yohei yamaguchi
PDF
プログラミングコンテストでの動的計画法
by
Takuya Akiba
PDF
目で見る過学習と正則化
by
y-uti
PDF
探索と活用の戦略 ベイズ最適化と多腕バンディット
by
H Okazaki
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
PPTX
金融時系列のための深層t過程回帰モデル
by
Kei Nakagawa
PDF
機械学習のためのベイズ最適化入門
by
hoxo_m
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
Yohei Yamaguchi's thought of a think, feel, work, and money20131025
by
yohei yamaguchi
プログラミングコンテストでの動的計画法
by
Takuya Akiba
目で見る過学習と正則化
by
y-uti
探索と活用の戦略 ベイズ最適化と多腕バンディット
by
H Okazaki
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
金融時系列のための深層t過程回帰モデル
by
Kei Nakagawa
機械学習のためのベイズ最適化入門
by
hoxo_m
What's hot
PDF
グラフニューラルネットワーク入門
by
ryosuke-kojima
PDF
データサイエンティストの仕事とデータ分析コンテスト
by
Ken'ichi Matsui
PPTX
Long-Tailed Classificationの最新動向について
by
Plot Hong
PDF
「世界モデル」と関連研究について
by
Masahiro Suzuki
PDF
例外設計における大罪
by
Takuto Wada
PDF
機械学習モデルのハイパパラメータ最適化
by
gree_tech
PDF
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
PDF
[DL輪読会]Understanding Black-box Predictions via Influence Functions
by
Deep Learning JP
PDF
ブースティング入門
by
Retrieva inc.
PDF
推薦アルゴリズムの今までとこれから
by
cyberagent
PDF
相互情報量を用いた独立性の検定
by
Joe Suzuki
PDF
Stanでガウス過程
by
Hiroshi Shimizu
PDF
グラフネットワーク〜フロー&カット〜
by
HCPC: 北海道大学競技プログラミングサークル
PDF
XGBoostからNGBoostまで
by
Tomoki Yoshida
PDF
Rの高速化
by
弘毅 露崎
PDF
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
PDF
階層モデルの分散パラメータの事前分布について
by
hoxo_m
PDF
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
PDF
第10章後半「ブースティングと加法的木」
by
T T
PDF
MCMCと正規分布の推測
by
Gen Fujita
グラフニューラルネットワーク入門
by
ryosuke-kojima
データサイエンティストの仕事とデータ分析コンテスト
by
Ken'ichi Matsui
Long-Tailed Classificationの最新動向について
by
Plot Hong
「世界モデル」と関連研究について
by
Masahiro Suzuki
例外設計における大罪
by
Takuto Wada
機械学習モデルのハイパパラメータ最適化
by
gree_tech
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
[DL輪読会]Understanding Black-box Predictions via Influence Functions
by
Deep Learning JP
ブースティング入門
by
Retrieva inc.
推薦アルゴリズムの今までとこれから
by
cyberagent
相互情報量を用いた独立性の検定
by
Joe Suzuki
Stanでガウス過程
by
Hiroshi Shimizu
グラフネットワーク〜フロー&カット〜
by
HCPC: 北海道大学競技プログラミングサークル
XGBoostからNGBoostまで
by
Tomoki Yoshida
Rの高速化
by
弘毅 露崎
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
階層モデルの分散パラメータの事前分布について
by
hoxo_m
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
第10章後半「ブースティングと加法的木」
by
T T
MCMCと正規分布の推測
by
Gen Fujita
Viewers also liked
PDF
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
PDF
PRML第3章@京大PRML輪講
by
Sotetsu KOYAMADA(小山田創哲)
PPTX
PRMLrevenge_3.3
by
Naoya Nakamura
PDF
Logistic Regression Analysis
by
COSTARCH Analytical Consulting (P) Ltd.
ODP
Ml ch7
by
Ryo Higashigawa
PDF
Logistic Regression
by
Dong Guo
ODP
Ml ch10
by
Ryo Higashigawa
PDF
現在のDNNにおける未解決問題
by
Daisuke Okanohara
PPT
Osaka prml reading_3.2-3.3.1
by
florets1
PRMLの線形回帰モデル(線形基底関数モデル)
by
Yasunori Ozaki
PRML第3章@京大PRML輪講
by
Sotetsu KOYAMADA(小山田創哲)
PRMLrevenge_3.3
by
Naoya Nakamura
Logistic Regression Analysis
by
COSTARCH Analytical Consulting (P) Ltd.
Ml ch7
by
Ryo Higashigawa
Logistic Regression
by
Dong Guo
Ml ch10
by
Ryo Higashigawa
現在のDNNにおける未解決問題
by
Daisuke Okanohara
Osaka prml reading_3.2-3.3.1
by
florets1
Similar to 正則化つき線形モデル(「入門機械学習第6章」より)
PDF
機械学習と深層学習の数理
by
Ryo Nakamura
PDF
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
by
Deep Learning JP
PPTX
PRML Chapter 5
by
Masahito Ohue
PDF
PRML輪読#3
by
matsuolab
PDF
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
by
Takeshi Sakaki
PDF
データ解析6 重回帰分析
by
Hirotaka Hachiya
PDF
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
PDF
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
by
Ryosuke Sasaki
PDF
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
PDF
FOBOS
by
Hidekazu Oiwa
PDF
PRML10-draft1002
by
Toshiyuki Shimono
PDF
PRML セミナー
by
sakaguchi050403
PPTX
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
by
tomitomi3 tomitomi3
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
PPTX
ラビットチャレンジレポート 機械学習
by
ssuserf4860b
PDF
02 機械学習
by
CHIHIROGO
PDF
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
PDF
レポート1
by
YoshikazuHayashi3
PDF
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
by
Yuma Yoshimoto
PPTX
入門機械学習6章
by
Kazufumi Ohkawa
機械学習と深層学習の数理
by
Ryo Nakamura
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
by
Deep Learning JP
PRML Chapter 5
by
Masahito Ohue
PRML輪読#3
by
matsuolab
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
by
Takeshi Sakaki
データ解析6 重回帰分析
by
Hirotaka Hachiya
PRML復々習レーン#3 3.1.3-3.1.5
by
sleepy_yoshi
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
by
Ryosuke Sasaki
PRML復々習レーン#9 前回までのあらすじ
by
sleepy_yoshi
FOBOS
by
Hidekazu Oiwa
PRML10-draft1002
by
Toshiyuki Shimono
PRML セミナー
by
sakaguchi050403
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
by
tomitomi3 tomitomi3
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
by
Zansa
ラビットチャレンジレポート 機械学習
by
ssuserf4860b
02 機械学習
by
CHIHIROGO
PRML復々習レーン#7 前回までのあらすじ
by
sleepy_yoshi
レポート1
by
YoshikazuHayashi3
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
by
Yuma Yoshimoto
入門機械学習6章
by
Kazufumi Ohkawa
More from Eric Sartre
PDF
どたばたかいぎ成果発表
by
Eric Sartre
PDF
つくっておぼえる!仮想マシン〜直前で実装編〜
by
Eric Sartre
PDF
Emacsいじめの現場
by
Eric Sartre
PDF
やさしい日本語言い換えシステムを支える技術
by
Eric Sartre
PDF
初めてのCPUを作ってみた
by
Eric Sartre
PDF
ゆとりが数週間でC++を始めるようです
by
Eric Sartre
ODP
ぼくとしりとりの約3.0*10^3日間戦争
by
Eric Sartre
PDF
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
by
Eric Sartre
PDF
「わからない」との付き合い方
by
Eric Sartre
PDF
ネトゲで人生を変えたい
by
Eric Sartre
PDF
upcamp発表
by
Eric Sartre
どたばたかいぎ成果発表
by
Eric Sartre
つくっておぼえる!仮想マシン〜直前で実装編〜
by
Eric Sartre
Emacsいじめの現場
by
Eric Sartre
やさしい日本語言い換えシステムを支える技術
by
Eric Sartre
初めてのCPUを作ってみた
by
Eric Sartre
ゆとりが数週間でC++を始めるようです
by
Eric Sartre
ぼくとしりとりの約3.0*10^3日間戦争
by
Eric Sartre
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
by
Eric Sartre
「わからない」との付き合い方
by
Eric Sartre
ネトゲで人生を変えたい
by
Eric Sartre
upcamp発表
by
Eric Sartre
Recently uploaded
PDF
自転車ユーザ参加型路面画像センシングによる点字ブロック検出における性能向上方法の模索 (20260123 SeMI研)
by
Yuto Matsuda
PDF
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
PDF
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
PDF
ST2024_PM1_2_Case_study_of_local_newspaper_company.pdf
by
akipii ogaoga
PDF
Team Topology Adaptive Organizational Design for Rapid Delivery of Valuable S...
by
akipii ogaoga
PDF
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
PDF
PMBOK 7th Edition Project Management Process Scrum
by
akipii ogaoga
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
PDF
FY2025 IT Strategist Afternoon I Question-1 Balanced Scorecard
by
akipii ogaoga
PDF
PMBOK 7th Edition_Project Management Context Diagram
by
akipii ogaoga
PDF
PMBOK 7th Edition_Project Management Process_WF Type Development
by
akipii ogaoga
PDF
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
自転車ユーザ参加型路面画像センシングによる点字ブロック検出における性能向上方法の模索 (20260123 SeMI研)
by
Yuto Matsuda
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
ST2024_PM1_2_Case_study_of_local_newspaper_company.pdf
by
akipii ogaoga
Team Topology Adaptive Organizational Design for Rapid Delivery of Valuable S...
by
akipii ogaoga
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
PMBOK 7th Edition Project Management Process Scrum
by
akipii ogaoga
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
FY2025 IT Strategist Afternoon I Question-1 Balanced Scorecard
by
akipii ogaoga
PMBOK 7th Edition_Project Management Context Diagram
by
akipii ogaoga
PMBOK 7th Edition_Project Management Process_WF Type Development
by
akipii ogaoga
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
正則化つき線形モデル(「入門機械学習第6章」より)
1.
第6章 正則化 :
テキスト回帰 えりっくさーとる 入門機械学習 1
2.
6章の構成 • 6.1 列の非線形関係
: 直線の先にあるもの – 6.1.1 多項式回帰の紹介 • 6.2 過学習を防ぐ方法 – 6.2.1 正則化を用いて過学習を防ぐ • 6.3 テキスト回帰 – 6.3.1 救いの手、ロジスティック回帰 2
3.
本輪講の構成(『入門機械学習』はほぼガン無視) • [1] 線形回帰とその拡張 •
[2] 過学習と正則化 • [3] 正則化つき回帰をしてみる • [4] まとめ 3
4.
[1]線形回帰とその拡張 1. 単純な線形回帰を考える – 単回帰分析と重回帰分析 –
線形回帰モデルの紹介 2. さらに一般化してみる – 線形基底関数モデルの紹介 – 基底関数 3. 重みの決め方 – 最小二乗法 4
5.
単純な線形回帰を考える [1] 線形回帰とその拡張 駅 家1 家2 家3 1.5km 6万円/月 3万円/月 8万円/月 駅からの距離で 家賃が求められるのでは? 5
6.
単純な線形回帰を考える [1] 線形回帰とその拡張 駅からの距離[m] 家賃[万円/月] 1000
35 1500 25 500 45 求めたい家賃をy, 駅からの距離をxとすると と近似できそう(単回帰分析) ˆyl = ax + b 表にしてみた 駅からの距離[m] 家賃[万円/月] 6
7.
単純な線形回帰を考える [1] 線形回帰とその拡張 駅 家1 家2 家3 1.5km 6万円/月 築8年, 面積50m2 駅からの距離と面積と築年数で 家賃が求められるのでは? 3万円/月 築10年,
面積40m2 8万円/月 築4年, 面積50m2 7
8.
単純な線形回帰を考える [1] 線形回帰とその拡張 駅からの距離[m] 築年数[年]
面積[m2] 家賃[万円/月] 1000 6 50 35 1500 3 40 25 500 8 50 45 求めたい家賃をy, 駅からの距離をx1, 築年数をx2, 面積をx3とおくと と近似できそう(重回帰分析) ˆyml = ax1 + bx2 +cx3 + d 表にしてみた 8
9.
単純な線形回帰を考える [1] 線形回帰とその拡張 ˆy =
w0 + w1x1 + w 2 x2 +!+ wD xD ˆyl = ax + b ˆyml = ax1 + bx2 +cx3 + d ! " # 上記の2式をにらめっこすると、次のように一般化できる: x0=1とすれば ˆy = xjwj j=0 D ∑ となる。 9
10.
単純な線形回帰を考える [1] 線形回帰とその拡張 ˆy =
xjwj j=0 D ∑ 先程求めた式で表せるものを線形回帰モデルと呼ぶ。 実際の値には誤差εが乗っていて、これはN(0, σ2)に従う y = xjwj j=0 D ∑ +ε y : 独立変数, 被説明変数,目的変数 wj : 重み xj : 従属変数, 説明変数 等分散正規分布 10
11.
単純な線形回帰を考える [1] 線形回帰とその拡張 ……入力xに対して線形ってどうなの? 先程求めた式で表せるものを線形回帰モデルと呼ぶ。 ここでyについてわかることは、 ・入力xに対して線形 ・重みwに対して線形 ・「入力xと重みwの積」の和を計算している ˆy =
xjwj j=0 D ∑ y : 独立変数, 被説明変数,目的変数 wj : 重み xj : 従属変数, 説明変数 11
12.
単純な線形回帰を考える [1] 線形回帰とその拡張 これは回帰できるの? こういうのは? これらを扱うには もっと一般化する必要がある… 12
13.
さらに一般化してみる [1] 線形回帰とその拡張 Φ(x)=x2としてyとΦ(x)をプロットしてみると… 先程は扱えなかったこのような分布、 13
14.
さらに一般化してみる [1] 線形回帰とその拡張 14 yはΦ(x)に対して線形になる。多項式も扱える!
15.
さらに一般化してみる [1] 線形回帰とその拡張 ˆy =
φj (x)wj j=0 D ∑ 以下の式で表せるものを線形基底関数モデルと呼ぶ。 なお、Φ0(x)=1とする。 y : 独立変数, 被説明変数,目的変数 wj : 重み xj : 従属変数, 説明変数 Φ : 基底関数, リンク関数(RD→R1) 注意! R1→R1ではない ここでyについてわかることは、 ・入力xに対して非線形 ・重みwに対して線形 ・「入力xをΦにかけた値と重みwの積」の和 15
16.
さらに一般化してみる [1] 線形回帰とその拡張 ˆy =
φj (x)wj j=0 D ∑ 基底関数には以下の関数がよく使われる(人間が選ぶ) Φの形 名前 用途 xj 多項式 多項式フィッティング exp{-(x-μ)2/2s2} ガウス基底関数 非線形SVM σ((x-μj)/2) ロジット関数 ニューラルネット ロジスティック回帰 16
17.
ˆy = φj
(x)wj j=0 D ∑ 重みの決め方 [1] 線形回帰とその拡張 どうやって決めるのか? 最小二乗法による推定 最尤法による推定 今回はこちらだけ 17
18.
重みの決め方 [1] 線形回帰とその拡張 最小二乗法による推定...の前に ˆyi =
φj (xi )wj j=0 D ∑ = φ0 (xi ) ! φD (xi ) " # $ $ $ $ % & ' ' ' ' T w i個目の観測データをxi、目的変数をyiとし、 w=(w0, w1, ..., wD)Tとすると yiの予測値は以下のように表せる 18
19.
重みの決め方 [1] 線形回帰とその拡張 最小二乗法による推定...の前に ˆy =
ΦT w n個の独立な観測データ(x1, ..., xn)があったとき、 ˆy = ˆy1 ! ˆyn ! " # # # # $ % & & & & ,Φ = φ0 (x1) " φ0 (xn ) ! # ! φD (x1) " φD (xn ) ! " # # # # $ % & & & & yの予測値ベクトルは以下のように表せる とおくと x1 xn 19
20.
重みの決め方 [1] 線形回帰とその拡張 最小二乗法による推定 実測値と予測値の二乗誤差を最小化する ˆyi yi 二乗誤差Ewを 以下のように定義: ED (w)
= (yi − ˆyi )2 i=1 n ∑ 20
21.
重みの決め方 [1] 線形回帰とその拡張 最小二乗法による推定 ED (w)
= (yi − ˆyi )2 i=1 n ∑ これは多次元空間で下に凸 つまり「EDを最小化するw*」はこの2次関数の極値とわかる 極値は「EDを微分した結果が0になるw」なので、 ∂ ∂w ED (w) = 0 を解くと、w*=(ΦΦT)-1ΦTyとわかる 「擬似逆行列」と呼ばれる。 多重共線性が無いと仮定すると 列が線形独立なのでこう計算できる 21
22.
[2]過学習と正則化 1. 過学習とは – 多項式回帰の例 –
線形基底関数モデルにおける「複雑さ」とは 2. 正則化 – いろいろな正則化項 – λの推定と交差検定 22
23.
過学習とは [2] 過学習と正則化 サンプル数が少ない状況(n=30)で、 多項式回帰の次数を上げていくと... テストデータに 適合しなくなってきてる 訓練データに とても適合している このような状況を過学習という ちなみにサンプル数が多くなると テストデータのRMSEが上がらずに横ばいだった23
24.
過学習とは [2] 過学習と正則化 複雑すぎるモデルを用いると、 訓練データセットのクセ(ノイズ)を拾いすぎてしまい、 真のモデルの形から遠ざかってしまう 線形基底関数モデルにおける複雑さの定義は 以下に示すものがある(値が大きいほど複雑) L2ノルム w 2 L1ノルム
w w0 w1 w0 w1 24
25.
正則化 [2] 過学習と正則化 ED (w)
= (yi − ˆyi )2 i=1 n ∑最小二乗法においては を最小にした。 これにモデルの複雑度を示す正則化項Ewを加え、 ED (w)+ λEW (w) を最小にするw*を求めることにする。 w0 w1 L2正則化を用いた回帰 (リッジ回帰)の最適点 ちなみに、L2正則化項のときは w* = (λI +ΦΦT )−1 ΦT y と解析的に解ける。 25
26.
正則化 ED (w)+ λEW
(w) [2] 過学習と正則化 パラメータλをどう決める? 交差検定を使ってみる [1] [2] [3] データ [1]学習 [2]学習 [3]評価 [1]評価 [2]学習 [3]学習 [1]学習 [2]評価 [3]学習 λを変えながらそれぞれ試す 26
27.
[3]正則化つき回帰をしてみる 1. テキスト回帰 – 紹介文の単語集合からランキングを予測する –
この失敗から学べること 2. ロジスティック回帰 – ロジスティック回帰でできること – ロジスティック回帰は何モデル? – さっきの例に適用してみた 27
28.
テキスト回帰 [3] 正則化つき回帰をしてみる 紹介文に出てくる単語の出現回数から、 売上順位が推定できないか? ˆy =
xjwj j=0 D ∑ これを線形回帰モデルに当てはめると y : 売上順位 wj : 重み xj : 単語jの出現回数 単語は無数にあるので非常に次元が高くなる 正則化項つきでないと簡単に過学習してしまう 28
29.
テキスト回帰 [3] 正則化つき回帰をしてみる やってみたが... λが大きくなるほど RMSEが下がっている... 29 ランキングは出現単語と関係がない モデルがおかしい
30.
テキスト回帰 [3] 正則化つき回帰をしてみる この様にうまくいかないこともあるので、 適切なモデルを選ぶことが大切 参考 :
AIC(赤池情報量規準) 統計モデルの良さを評価するためのとてもとても有名な指標。 この値が最小のものを選ぶと良いモデルが選択できる。 ちなみにAICのあとにBICとかMDLだとかいろんな規準が 提案されているので、統計屋さんはこれらを使い分ける。 30
31.
テキスト回帰 [3] 正則化つき回帰をしてみる 売上順位の予想をあきらめたくない 「売上順位の予測」ではなく、 「上位50以内に入るかどうか」という分類問題に切り替え ロジスティック回帰に帰着させてみる 31
32.
ロジスティック回帰 [3] 正則化つき回帰をしてみる ロジスティック回帰でできること ロジスティック回帰を使うと、数値の説明変数から 目的変数としてYES/NO(2値分類)の確率が出せる 説明変数x1(数値) ⋮ ロジスティック回帰 目的変数y(確率) 説明変数x2(数値) 説明変数xn(数値) 32
33.
ロジスティック回帰 [3] 正則化つき回帰をしてみる ロジスティック回帰は何モデル? 誤差が正規分布に従わないので実は線形モデルではない! ˆy =
f (w0 + w1x1 +!wD xD ) = f xT w( ) 一般化線形モデルというものに属し、以下で表せる: ロジスティック回帰は関数fがシグモイド関数なので ˆy = 1 1+ exp(−xT w) と表される 33
34.
ロジスティック回帰 [3] 正則化つき回帰をしてみる さっきの例に適用してみた(正則化つきで) どうやら55%の確率で当たる程度にはなったらしい 34
35.
[4]本章のまとめ • [1] 線形回帰とその拡張 –
線形回帰モデルを拡張したものが線形基底関数モデル – 最小二乗法で重みの推定ができる • [2] 過学習と正則化 – 線形基底モデルの複雑さは重みベクトルのノルム – 正則化項には色々な種類がある • [3] 正則化つき回帰をしてみる – 適切な問題設定をしよう 35
36.
• シンプル・イズ・ベター – 過学習を防ぐため、正則化項をつけて パラメータwを推定しよう – 欲しい情報に合わせて問題設定を見直そう 36 [4]本に書いてあるまとめ
Download