SlideShare a Scribd company logo
1 of 136
A.Asano,KansaiUniv.
2015年度秋学期 統計学
浅野 晃
関西大学総合情報学部
データの関係を知る(2)̶回帰分析
第7回
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
回帰分析とは
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法
説明?
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
緯度と気温のデータを例にとると
相関分析
緯度があがると,気温が下がる
傾向がはっきりしている
回帰分析
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
各都市の気温の違いは,緯度によって決まっ
ているという[モデル]を考える
2015年度秋
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
各都市の気温の違いは,緯度によって決まっ
ているという[モデル]を考える
統計学では,
気温(のばらつき)は,緯度によって
[説明]されるという
2015年度秋
A.Asano,KansaiUniv.
説明変数・被説明変数
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
2015年度秋
A.Asano,KansaiUniv.
説明変数・被説明変数
[説明変数]
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
2015年度秋
A.Asano,KansaiUniv.
説明変数・被説明変数
[説明変数]
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
[被説明変数]
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
線形単回帰
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
散布図上で直線の関係がある,と考える
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
y = a + bx
という式で表される関係
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
y = a + bx
という式で表される関係
[線形単回帰]
 という
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2015年度秋
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
a や b (パラメータ)は
どうやって求める?
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx
x = xiのとき
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
差
yi – (a + bxi )
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
差が最小に
なるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
差
yi – (a + bxi )
x = xiのとき
モデルによれば a + bxi
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
,この式の a, b つまりパラメータを決める方法を考えま
します。x と y の間の関係が,y = a + bx というモデル
+ bxi となるはずです。しかし,現実には y = yi となっ
のうちで,この「全ての (xi, yi) についての,yi と a + b
メータをもっとも適切なパラメータとします。差には正
すなわち
L =
n
i=1
{yi − (a + bxi)}2
なるように a と b を決定します(n はデータの組の数です
うな a と b を求める方法は,おもに2つあります。ひとつ
それらを両方とも 0 とおいた方程式を解くものです。
2
2015年度秋
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
,この式の a, b つまりパラメータを決める方法を考えま
します。x と y の間の関係が,y = a + bx というモデル
+ bxi となるはずです。しかし,現実には y = yi となっ
のうちで,この「全ての (xi, yi) についての,yi と a + b
メータをもっとも適切なパラメータとします。差には正
すなわち
L =
n
i=1
{yi − (a + bxi)}2
なるように a と b を決定します(n はデータの組の数です
うな a と b を求める方法は,おもに2つあります。ひとつ
それらを両方とも 0 とおいた方程式を解くものです。
が最小になる
a,bを求める
2
2015年度秋
A.Asano,KansaiUniv.
Lが最小になるa,bを求める
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
bだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
bだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
「偏微分」による方法なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
bだけの関数
と考えて微分
微分?
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
bについても同じ,
底では微分=0
2015年度秋
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
bについても同じ,
底では微分=0
これらから
a,bを求める
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
yの平均
2015年度秋
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
xの平均
yの平均
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2015年度秋
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
[回帰係数]
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2015年度秋
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
2015年度秋
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2015年度秋
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2015年度秋
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2015年度秋
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
(x, y)を通る
回帰直線は
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
決定係数
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
yi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
yi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
xi に対する,回帰直線によるyの推定値
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
それでも残っている,
推定値と実際の差
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
傾きが b で点 (¯x, ¯y) を通る直線」になります。
の値,すなわち a + bxi を ˆyi = a + bxi と表すこと
の差を残差といい,di で表します。残差とは,回帰
,予測によって表現できなかった部分を表してい
の講義参照)とすると
定係数
各 xi に対して,回帰直線上で対応する y の値,
のとき,実際のデータにおける yi と ˆyi の差を残
値を使って,yi の値を ˆyi と予測したとき,予測
ついて,rxy を x と y の相関係数(前回の講義参
d2
= (yi − ˆyi)
2015年度秋
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
それでも残っている,
推定値と実際の差
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
傾きが b で点 (¯x, ¯y) を通る直線」になります。
の値,すなわち a + bxi を ˆyi = a + bxi と表すこと
の差を残差といい,di で表します。残差とは,回帰
,予測によって表現できなかった部分を表してい
の講義参照)とすると
定係数
各 xi に対して,回帰直線上で対応する y の値,
のとき,実際のデータにおける yi と ˆyi の差を残
値を使って,yi の値を ˆyi と予測したとき,予測
ついて,rxy を x と y の相関係数(前回の講義参
d2
= (yi − ˆyi)
[残差]という
図 2: 偏微分と関数の最小値
図上で回帰直線は「傾きが b で点 (¯x, ¯y) を通る直線」
直線上で対応する y の値,すなわち a + bxi を ˆyi = a
タにおける yi と ˆyi の差を残差といい,di で表します。
を ˆyi と予測したとき,予測によって表現できなかった
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
残差について(付録3)
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
決定
係数
2015年度秋
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
決定
係数
決定係数が1に近づくほど
残差の2乗和が0に近づく
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
x
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
=yの分散
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
yの偏差の2乗の平均
(yの分散)
x
y
y
d
i
= y
i
– y
i
[残差]
y
i
y
i
– y
[偏差]
y
i
x
i
図 3: 偏差と残差
x
y
y
[決定係数=
なら残差
[分散]
図 4: 決定係数の意味
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
yの偏差の2乗の平均
(yの分散)
x
y
y
d
i
= y
i
– y
i
[残差]
y
i
y
i
– y
[偏差]
y
i
x
i
図 3: 偏差と残差
x
y
y
[決定係数=
なら残差
[分散]
図 4: 決定係数の意味
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
x
y
y
d
i
= y
i
– y
i
[残差]
y
i
y
i
– y
[偏差]
y
i
x
i
図 3: 偏差と残差
x
y
y
[決定係数=
なら残差
[分散]
図 4: 決定係数の意味
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
回帰直線からの
ばらつきは
こんなに減った
x
y
y
d
i
= y
i
– y
i
[残差]
y
i
y
i
– y
[偏差]
y
i
x
i
図 3: 偏差と残差
x
y
y
[決定係数=
なら残差
[分散]
図 4: 決定係数の意味
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数 =回帰直線によるばらつきの
 減少の度合い
2015年度秋
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数 =回帰直線によるばらつきの
 減少の度合い
=回帰直線によって,
 ばらつきの何%が説明できたか
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
相関係数0.7
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
相関係数0.7 相関係数0.5
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
決定係数0.25
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
決定係数0.25
こちらが中くらいの
相関関係
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
決定係数0.25
こちらが中くらいの
相関関係
回帰直線では
ばらつきの25%
しか説明できない
「統計学入門」(東京大学出版会)より
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
長野∼鹿児島
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
平均付近に密集して
いると不安定
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
平均付近に密集して
いると不安定
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
平均付近に密集して
いると不安定
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
平均付近に密集して
いると不安定
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
平均付近に密集して
いると不安定
平均から離れたデー
タがあると
安定する
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
✢
✢
✢
✢
✢✢✢
✢
✢
✢
✢
✢
✢
✢
✢
✢✢
✢
✢
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)

More Related Content

What's hot

What's hot (20)

2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
 
2014年度秋学期 統計学 第6回 データの関係を知る(1)ー相関係数と因果関係 (2014. 10. 29)
2014年度秋学期 統計学 第6回 データの関係を知る(1)ー相関係数と因果関係 (2014. 10. 29)2014年度秋学期 統計学 第6回 データの関係を知る(1)ー相関係数と因果関係 (2014. 10. 29)
2014年度秋学期 統計学 第6回 データの関係を知る(1)ー相関係数と因果関係 (2014. 10. 29)
 
2018年度春学期 統計学 第9回 確からしさを記述するー確率 (2018. 6. 7)
2018年度春学期 統計学 第9回 確からしさを記述するー確率 (2018. 6. 7)2018年度春学期 統計学 第9回 確からしさを記述するー確率 (2018. 6. 7)
2018年度春学期 統計学 第9回 確からしさを記述するー確率 (2018. 6. 7)
 
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
 
2018年度春学期 統計学 第3回 クロス集計とデータの可視化 (2018. 4. 19)
2018年度春学期 統計学 第3回 クロス集計とデータの可視化 (2018. 4. 19)2018年度春学期 統計学 第3回 クロス集計とデータの可視化 (2018. 4. 19)
2018年度春学期 統計学 第3回 クロス集計とデータの可視化 (2018. 4. 19)
 
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
 
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
 
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
 
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
 
2019年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2019. 10. 29)
2019年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2019. 10. 29)2019年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2019. 10. 29)
2019年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2019. 10. 29)
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
 
2020年度春学期 統計学 第6回 データの関係を知る(1) ー 相関関係と因果関係 (2020. 5. 14)
2020年度春学期 統計学 第6回 データの関係を知る(1) ー 相関関係と因果関係 (2020. 5. 14)2020年度春学期 統計学 第6回 データの関係を知る(1) ー 相関関係と因果関係 (2020. 5. 14)
2020年度春学期 統計学 第6回 データの関係を知る(1) ー 相関関係と因果関係 (2020. 5. 14)
 
2016年度秋学期 統計学 第4回 データを「分布」で知る (2016. 10. 17)
2016年度秋学期 統計学 第4回 データを「分布」で知る (2016. 10. 17)2016年度秋学期 統計学 第4回 データを「分布」で知る (2016. 10. 17)
2016年度秋学期 統計学 第4回 データを「分布」で知る (2016. 10. 17)
 
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
 
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
 
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
2019年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2019. 5. 30)
 
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
 
2019年度秋学期 統計学 第4回 データを「分布」で見る (2019. 10. 15)
2019年度秋学期 統計学 第4回 データを「分布」で見る (2019. 10. 15)2019年度秋学期 統計学 第4回 データを「分布」で見る (2019. 10. 15)
2019年度秋学期 統計学 第4回 データを「分布」で見る (2019. 10. 15)
 
2016年度秋学期 統計学 第5回 分布をまとめる-平均・分散 (2016. 10. 24)
2016年度秋学期 統計学 第5回 分布をまとめる-平均・分散 (2016. 10. 24)2016年度秋学期 統計学 第5回 分布をまとめる-平均・分散 (2016. 10. 24)
2016年度秋学期 統計学 第5回 分布をまとめる-平均・分散 (2016. 10. 24)
 

Viewers also liked

La ecuación de schrödinger
La ecuación de schrödingerLa ecuación de schrödinger
La ecuación de schrödinger
Marco Antonio
 
Erwin schrödinger
Erwin schrödingerErwin schrödinger
Erwin schrödinger
jaredshugart
 
Ma english annual_system_new
Ma english annual_system_newMa english annual_system_new
Ma english annual_system_new
Abdul Hafeez
 

Viewers also liked (13)

2015年度秋学期 統計学 第2回 統計資料の収集と読み方 (2015. 10. 7)
2015年度秋学期 統計学 第2回 統計資料の収集と読み方 (2015. 10. 7) 2015年度秋学期 統計学 第2回 統計資料の収集と読み方 (2015. 10. 7)
2015年度秋学期 統計学 第2回 統計資料の収集と読み方 (2015. 10. 7)
 
2015年度秋学期 統計学 第1回 イントロダクション (2015. 9. 30)
2015年度秋学期 統計学 第1回 イントロダクション (2015. 9. 30) 2015年度秋学期 統計学 第1回 イントロダクション (2015. 9. 30)
2015年度秋学期 統計学 第1回 イントロダクション (2015. 9. 30)
 
Team Talk Football 2
Team Talk Football 2Team Talk Football 2
Team Talk Football 2
 
Kata pengantar
Kata pengantarKata pengantar
Kata pengantar
 
How to use wildcard filter
How to use wildcard filterHow to use wildcard filter
How to use wildcard filter
 
Dario andres rua tovar
Dario andres rua tovarDario andres rua tovar
Dario andres rua tovar
 
CEDA LNG Investment, First Gas & Beyond | Opening Remarks
CEDA LNG Investment, First Gas & Beyond | Opening RemarksCEDA LNG Investment, First Gas & Beyond | Opening Remarks
CEDA LNG Investment, First Gas & Beyond | Opening Remarks
 
Why Digital Engagement is Good For Business
Why Digital Engagement is Good For BusinessWhy Digital Engagement is Good For Business
Why Digital Engagement is Good For Business
 
How to use soap component
How to use soap componentHow to use soap component
How to use soap component
 
La ecuación de schrödinger
La ecuación de schrödingerLa ecuación de schrödinger
La ecuación de schrödinger
 
Erwin schrödinger
Erwin schrödingerErwin schrödinger
Erwin schrödinger
 
Ma english annual_system_new
Ma english annual_system_newMa english annual_system_new
Ma english annual_system_new
 
Vinacafe và sự nỗ lực khai mỏ chiến dịch này!
Vinacafe và sự nỗ lực khai mỏ chiến dịch này!Vinacafe và sự nỗ lực khai mỏ chiến dịch này!
Vinacafe và sự nỗ lực khai mỏ chiến dịch này!
 

Similar to 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)

2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
Akira Asano
 

Similar to 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) (13)

2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
 
2020年度秋学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 11. 10)
2020年度秋学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 11. 10)2020年度秋学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 11. 10)
2020年度秋学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 11. 10)
 
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
 
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
 
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
 
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
 
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
 
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
 
2014年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 10. 22)
2014年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 10. 22)2014年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 10. 22)
2014年度秋学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 10. 22)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
 
2020年度春学期 統計学 第14回 分布についての仮説を検証する ー 検定 (2020. 7. 9)
2020年度春学期 統計学 第14回 分布についての仮説を検証する ー 検定 (2020. 7. 9)2020年度春学期 統計学 第14回 分布についての仮説を検証する ー 検定 (2020. 7. 9)
2020年度春学期 統計学 第14回 分布についての仮説を検証する ー 検定 (2020. 7. 9)
 
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1) 2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
 
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
 

More from Akira Asano

More from Akira Asano (20)

2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) 2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
 
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) 2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
 
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) 2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
 
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) 2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
 
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) 2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
 
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) 2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
 
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) 2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
 
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) 2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
 
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) 2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
 
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) 2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
 
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) 2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
 
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) 2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
 
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) 2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
 
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) 2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
 
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) 2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
 
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) 2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
 

Recently uploaded

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
koheioishi1
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
YukiTerazawa
 

Recently uploaded (7)

生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 

2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)