SlideShare a Scribd company logo
1 of 137
Download to read offline
A.Asano,KansaiUniv.
2014年度春学期 統計学
浅野 晃
関西大学総合情報学部
データの関係を知る(2)̶回帰分析
第7回
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
回帰分析とは
2014
A.Asano,KansaiUniv.
回帰分析とは
多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法
2014
A.Asano,KansaiUniv.
回帰分析とは
多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法
説明?
2014
A.Asano,KansaiUniv.
回帰分析とは
緯度と気温のデータを例にとると
相関分析
緯度があがると,気温が下がる
傾向がはっきりしている
回帰分析
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
2014
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
2014
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
各都市の気温の違いは,緯度によって決まっ
ているという[モデル]を考える
2014
A.Asano,KansaiUniv.
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
各都市の気温の違いは,緯度によって決まっ
ているという[モデル]を考える
統計学では,
気温(のばらつき)は,緯度によって
[説明]されるという
2014
A.Asano,KansaiUniv.
説明変数・被説明変数
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
2014
A.Asano,KansaiUniv.
説明変数・被説明変数
[説明変数]
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
2014
A.Asano,KansaiUniv.
説明変数・被説明変数
[説明変数]
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
(というモデル)
[被説明変数]
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
線形単回帰
2014
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
2014
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
2014
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
2014
A.Asano,KansaiUniv.
線形単回帰
気温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
図 1: 散布図:緯度と気温の関係
気温は緯度によって説明される
どう説明される?
散布図上で直線の関係がある,と考える
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
y = a + bx
という式で表される関係
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
散布図上で直線の関係がある
x
y
y = a + bx
という式で表される関係
[線形単回帰]
 という
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
2014
A.Asano,KansaiUniv.
線形単回帰
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx という式で
表される関係
aやbは
どうやって求める?
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
y = a + bx
x = xiのとき
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
差
yi – (a + bxi )
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
実際は yi
差が最小に
なるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
y = a + bx
差
yi – (a + bxi )
x = xiのとき
モデルによれば a + bxi
2014
A.Asano,KansaiUniv.
パラメータの決定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2014
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2014
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
2
2014
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
,この式の a, b つまりパラメータを決める方法を考えま
します。x と y の間の関係が,y = a + bx というモデル
+ bxi となるはずです。しかし,現実には y = yi となっ
のうちで,この「全ての (xi, yi) についての,yi と a + b
メータをもっとも適切なパラメータとします。差には正
すなわち
L =
n
i=1
{yi − (a + bxi)}2
なるように a と b を決定します(n はデータの組の数です
うな a と b を求める方法は,おもに2つあります。ひとつ
それらを両方とも 0 とおいた方程式を解くものです。
2
2014
A.Asano,KansaiUniv.
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
a,bを決める
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
差
yi – (a + bxi )
,この式の a, b つまりパラメータを決める方法を考えま
します。x と y の間の関係が,y = a + bx というモデル
+ bxi となるはずです。しかし,現実には y = yi となっ
のうちで,この「全ての (xi, yi) についての,yi と a + b
メータをもっとも適切なパラメータとします。差には正
すなわち
L =
n
i=1
{yi − (a + bxi)}2
なるように a と b を決定します(n はデータの組の数です
うな a と b を求める方法は,おもに2つあります。ひとつ
それらを両方とも 0 とおいた方程式を解くものです。
が最小になる
a,bを求める
2
2014
A.Asano,KansaiUniv.
Lが最小になるa,bを求める
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
bだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
「偏微分」による方法
なパラメータとします。差には正負がありますから,実
L =
n
i=1
{yi − (a + bxi)}2
定します(n はデータの組の数です)。
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
数で,a2,b2 の係数がいずれも正ですから,そのグラフは
が最小になる
a,bを求める
a,bの2次関数
a
b
L
★
a
b
L aだけの関数
と考えて微分
bだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
bについても同じ,
底では微分=0
2014
A.Asano,KansaiUniv.
微分?
a
b
L
★
a
b
L aだけの関数
と考えて微分
微分は,傾きを
求める計算
下り(-)
上り(+)
底では微分=0
bについても同じ,
底では微分=0
これらから
a,bを求める
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
yの平均
2014
A.Asano,KansaiUniv.
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に
 よる方法(付録2)
学部の1年生で習うくらいの解析学の知識が
ら,「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
b =
σxy
σ2
x
a = ¯y − b¯x
散,σxy は x, y の共分散です。¯x, ¯y は,前回
x, yの共分散
xの分散
xの平均
yの平均
2014
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
2014
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2014
A.Asano,KansaiUniv.
最小二乗法
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2014
A.Asano,KansaiUniv.
最小二乗法
を最小にしたので
[最小二乗法]
b =
σxy
σ2
x
a = ¯y − b¯x
y は x, y の共分散です。¯x, ¯y は,前回も出て
うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
[回帰係数]
i i i i
ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち
L =
n
i=1
{yi − (a + bxi)}2
になるように a と b を決定します(n はデータの組の数です)。
ような a と b を求める方法は,おもに2つあります。ひとつは,(1) 式を
,それらを両方とも 0 とおいた方程式を解くものです。
b それぞれで偏微分する」とは,次のような意味です。微分とは,関数
傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
ちらについても2次関数で,a2,b2 の係数がいずれも正ですから,その
統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r
です。¯x, ¯y は,前回も出てきたもので
次式 y = a + bx を y の x 上への回帰方
,これを回帰係数といいます。なお,
[回帰方程式]あるいは
[回帰直線]
2014
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
2014
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2014
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2014
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
2014
A.Asano,KansaiUniv.
ところで
温(℃)
8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度) x
y
x
y
1次式 y = a + bx を y の x 上への回帰方程式,
で,これを回帰係数といいます。なお,(2) 式
¯x) (3)
http://racco.mikeneko.jp/  2/9 ページ
b =
σxy
σ2
x
a = ¯y − b¯x
σxy は x, y の共分散です。¯x, ¯y は,前回も出てきたもので,そ
うにして得られる1次式 y = a + bx を y の x 上への回帰方程
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
y − ¯y = b(x − ¯x)
3. 11. 7) http://racco.mikeneko.jp/  2/9 ペ
より
ると
y − ¯y = b(x − ¯x)
学期) 第7回 (2013. 11. 7)
(x, y)を通る
回帰直線は
A.Asano,KansaiUniv.
A.Asano,KansaiUniv.
決定係数
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
yi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y
xi
yi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
xi に対する,回帰直線によるyの推定値
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
それでも残っている,
推定値と実際の差
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
傾きが b で点 (¯x, ¯y) を通る直線」になります。
の値,すなわち a + bxi を ˆyi = a + bxi と表すこと
の差を残差といい,di で表します。残差とは,回帰
,予測によって表現できなかった部分を表してい
の講義参照)とすると
定係数
各 xi に対して,回帰直線上で対応する y の値,
のとき,実際のデータにおける yi と ˆyi の差を残
値を使って,yi の値を ˆyi と予測したとき,予測
ついて,rxy を x と y の相関係数(前回の講義参
d2
= (yi − ˆyi)
2014
A.Asano,KansaiUniv.
残差
a,bが求められて,回帰直線が確定
%
%
%
%
%%%
%
%
%
%
%
%
%
%
%%
%
%
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)x
y a + bxi
xi
yi
それでも残っている,
推定値と実際の差
応する y の値,すなわち a + bxi を ˆyi = a + bxi と
と ˆyi の差を残差といい,di で表します。残差とは
したとき,予測によって表現できなかった部分を表
(前回の講義参照)とすると
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
2
xi に対する,回帰直線によるyの推定値
傾きが b で点 (¯x, ¯y) を通る直線」になります。
の値,すなわち a + bxi を ˆyi = a + bxi と表すこと
の差を残差といい,di で表します。残差とは,回帰
,予測によって表現できなかった部分を表してい
の講義参照)とすると
定係数
各 xi に対して,回帰直線上で対応する y の値,
のとき,実際のデータにおける yi と ˆyi の差を残
値を使って,yi の値を ˆyi と予測したとき,予測
ついて,rxy を x と y の相関係数(前回の講義参
d2
= (yi − ˆyi)
[残差]という
図 2: 偏微分と関数の最小値
図上で回帰直線は「傾きが b で点 (¯x, ¯y) を通る直線」
直線上で対応する y の値,すなわち a + bxi を ˆyi = a
タにおける yi と ˆyi の差を残差といい,di で表します。
を ˆyi と予測したとき,予測によって表現できなかった
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
残差について(付録3)
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
決定
係数
2014
A.Asano,KansaiUniv.
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分
,回帰直線上で対応する y の値,すなわち a + bxi を
のデータにおける yi と ˆyi の差を残差といい,di で表し
i の値を ˆyi と予測したとき,予測によって表現できな
を x と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi
(導出は付録3)。つまり,r2
xy が 1 に近づくほど yi と
となります。すなわち,最小二乗法で求めたモデルに
になります。このことから,r2
xy を決定係数とよびま
味は,次のように説明できます。(4) 式を少し変形し
で対応する y の値,すなわち a + bxi を ˆyi = a + bxi と表す
ける yi と ˆyi の差を残差といい,di で表します。残差とは,
予測したとき,予測によって表現できなかった部分を表し
係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくな
すなわち,最小二乗法で求めたモデルによって,y が x か
このことから,r2
xy を決定係数とよびます。
うに説明できます。(4) 式を少し変形して
残差について(付録3)
残差 相関
係数
決定
係数
決定係数が1に近づくほど
残差の2乗和が0に近づく
2014
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
2014
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
2014
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
i i i
値を ˆyi と予測したとき,予測によって表現できなかった部分を表しています
と y の相関係数(前回の講義参照)とすると
d2
i = (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
出は付録3)。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
なります。このことから,r2
xy を決定係数とよびます。
は,次のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
しています(図 3)。
yi と ˆyi の差を残差といい,di で表します。残差とは,回帰方程式と xi
測したとき,予測によって表現できなかった部分を表しています。残差
数(前回の講義参照)とすると
2
= (yi − ˆyi)2
= (1 − r2
xy) (yi − ¯y)2
(4)
。つまり,r2
xy が 1 に近づくほど yi と ˆyi の差は小さくなり,r2
xy = 1 の
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
ことから,r2
xy を決定係数とよびます。
説明できます。(4) 式を少し変形して
− r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
3)。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
より
。すなわち,最小二乗法で求めたモデル
。このことから,r2
xy を決定係数とよび
ように説明できます。(4) 式を少し変形
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /
(yi − ¯y
端の分母は,y 全体の平均からの各 yi の
しています。一方,分子は,残差の2乗
xy i i
最小二乗法で求めたモデルによって,y が x
ら,r2
xy を決定係数とよびます。
きます。(4) 式を少し変形して
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
全体の平均からの各 yi のへだたり,すなわ
一方,分子は,残差の2乗の平均になってい
ですから,分子は「線形モデルによる予測結
yの偏差の2乗の平均
決定
係数
=yの分散
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
yの偏差の2乗の平均
(yの分散)
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
回帰直線からの
ばらつきは
こんなに減った
2014
A.Asano,KansaiUniv.
決定係数の意味
残差の2乗の平均
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
し,線形モデルで完全に表されたわけではなく,直線から
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
で完全に説明がついているわけではありません。こう考えると
決定
係数
x
y
y
y
i
y
i di = yi – yi
[残差]
yi – y
[偏差]
x
i
y
y
[決定係
なら
[分散]
図 4: 決定係数の意味
yの偏差の2乗の平均
(yの分散)
もともと y はこんなに
ばらついていた
回帰直線からの
ばらつきは
こんなに減った
2014
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
2014
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数
2014
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数 =回帰直線によるばらつきの
 減少の度合い
2014
A.Asano,KansaiUniv.
決定係数の意味
回帰直線からの
ばらつき
す。このことから,rxy を決定係数とよびます。
のように説明できます。(4) 式を少し変形して
1 − r2
xy =
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
端の分母は,y 全体の平均からの各 yi のへだたり,すな
表しています。一方,分子は,残差の2乗の平均になって
からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)。
は「もともとの y のばらつき具合に対する,線形モデルか
とになります。線形単回帰では,「データが散布図上にばら
ついているのではなく,線形モデルで表される直線に沿っ
から,r2
xy を決定係数とよびます。
できます。(4) 式を少し変形して
=
d2
i
(yi − ¯y)2
=
d2
i /n
(yi − ¯y)2/n
(5
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
。一方,分子は,残差の2乗の平均になっています。残差は「線
」ですから,分子は「線形モデルによる予測結果を中心とするば
の y のばらつき具合に対する,線形モデルからのばらつき具合の
。線形単回帰では,「データが散布図上にばらついている」という
ではなく,線形モデルで表される直線に沿ってばらついている
ルで完全に表されたわけではなく,直線から見てもデータはいく
決定
係数
yのもともとの
ばらつき
決定係数 =回帰直線によるばらつきの
 減少の度合い
=回帰直線によって,
 ばらつきの何%が説明できたか
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
相関係数0.7
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
相関係数0.7 相関係数0.5
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
決定係数0.25
2014
A.Asano,KansaiUniv.
「中くらいの相関」とは
決定係数0.49
相関係数0.7 相関係数0.5
決定係数0.25
こちらが中くらいの
相関関係
回帰直線では
ばらつきの25%
しか説明できない
「統計学入門」(東京大学出版会)48ページの,
各相関係数のときの散布図例を使って説明しました。
2014
A.Asano,KansaiUniv.
前回の演習問題の例
長野∼鹿児島
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2014
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2014
A.Asano,KansaiUniv.
前回の演習問題の例
決定係数0.712
長野∼鹿児島
決定係数0.949
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
5
7
9
11
13
15
17
19
21
23
25 27 29 31 33 35 37 39 41 43 45
気温(℃)
緯度(度)
札幌∼那覇
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)
2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)

More Related Content

What's hot

2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)
2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)
2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)Akira Asano
 
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)Akira Asano
 
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」Akira Asano
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)Akira Asano
 
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))Akira Asano
 
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)Akira Asano
 

What's hot (8)

Bayes
BayesBayes
Bayes
 
2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)
2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)
2016年度秋学期 画像情報処理 第12回 画像フィルタとフィルタ定理 (2016. 12. 22)
 
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
 
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」
2013年度春学期 画像情報処理 第13回「CTスキャナ ― 投影からの画像の再構成/Radon変換と投影定理」
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
 
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
 
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)
2016年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2017. 1. 12)
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 

Viewers also liked

2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」
2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」
2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」Akira Asano
 
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)Akira Asano
 
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)Akira Asano
 
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)Akira Asano
 
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)Akira Asano
 
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)Akira Asano
 
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)Akira Asano
 
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」Akira Asano
 
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)Akira Asano
 
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」Akira Asano
 
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)Akira Asano
 
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)Akira Asano
 
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)Akira Asano
 
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)Akira Asano
 
PRML復々習レーン#14
PRML復々習レーン#14PRML復々習レーン#14
PRML復々習レーン#14Takuya Fukagai
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践id774
 
エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方Hiroshi Shimizu
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
Data scientist casual talk in 白金台
Data scientist casual talk in 白金台Data scientist casual talk in 白金台
Data scientist casual talk in 白金台Hiroko Onari
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社Satoru Yamamoto
 

Viewers also liked (20)

2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」
2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」
2013年度秋学期 統計学 第10回「分布の推測とは - 標本調査,度数分布と確率分布」
 
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)
2014年度秋学期 統計学 第9回 確からしさを記述する ― 確率 (2014. 11. 26)
 
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)
2014年度春学期 統計学 第3回 クロス集計とデータの可視化 (2014. 4. 24)
 
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)
2014年度春学期 統計学 第1回 イントロダクション (2014. 4.10)
 
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)
2014年度春学期 統計学 第5回 分布をまとめるー平均・分散 (2014. 5. 15)
 
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)
2014年度春学期 統計学 第2回 統計資料の収集と読み方 (2014. 4.17)
 
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)
2014年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2014. 5. 22)
 
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」
2013年度秋学期 統計学 第14回「分布についての仮説を検証する ― 仮説検定」
 
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)
2014年度春学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2014. 6. 19)
 
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
 
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)
2014年度春学期 統計学 第8回 確からしさを記述するー確率 (2014. 6. 5)
 
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)
2014年度春学期 統計学 第14,15回 分布についての仮説を検証する ― 仮説検定 (2014. 7. 17, 24)
 
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
 
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)
2014年度春学期 統計学 第4回 データを「分布」で見る (2014. 5. 1)
 
PRML復々習レーン#14
PRML復々習レーン#14PRML復々習レーン#14
PRML復々習レーン#14
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践
 
エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方エクセルで統計分析3 回帰分析のやり方
エクセルで統計分析3 回帰分析のやり方
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
Data scientist casual talk in 白金台
Data scientist casual talk in 白金台Data scientist casual talk in 白金台
Data scientist casual talk in 白金台
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
 

Similar to 2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)

2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) Akira Asano
 
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)Akira Asano
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)Akira Asano
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)Akira Asano
 
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)Akira Asano
 
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)Akira Asano
 
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)Akira Asano
 
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析Akira Asano
 
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)Akira Asano
 
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)Akira Asano
 
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)Akira Asano
 
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)Akira Asano
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 

Similar to 2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29) (13)

2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
 
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
 
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
2018年度秋学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 11. 6)
 
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
 
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
 
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
 
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
 
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
 
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
 
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
 
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 

More from Akira Asano

2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) 2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) Akira Asano
 
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) 2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) Akira Asano
 
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) 2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) Akira Asano
 
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) 2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) Akira Asano
 
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) 2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) Akira Asano
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) Akira Asano
 
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) 2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) Akira Asano
 
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) 2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) Akira Asano
 
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) 2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) Akira Asano
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) Akira Asano
 
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) 2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) Akira Asano
 
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) 2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) Akira Asano
 
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) 2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) Akira Asano
 
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) 2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) Akira Asano
 
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) 2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) Akira Asano
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) Akira Asano
 
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) 2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) Akira Asano
 
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) 2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) Akira Asano
 
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) 2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) Akira Asano
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) Akira Asano
 

More from Akira Asano (20)

2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) 2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
 
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) 2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
 
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) 2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
 
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) 2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
 
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) 2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
 
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) 2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
 
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) 2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
 
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) 2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
 
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) 2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
 
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) 2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
 
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) 2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
 
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) 2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
 
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) 2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
 
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) 2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
 
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) 2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
 
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) 2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
 

Recently uploaded

TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドKen Fukui
 
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドKen Fukui
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドKen Fukui
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドKen Fukui
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドKen Fukui
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 

Recently uploaded (10)

TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
 
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 

2014年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2014. 5. 29)