SlideShare a Scribd company logo
1 of 44
Download to read offline
データ解析 第2回
2018年4月19日 八谷 大岳
1
講義内容
5
数学の復習
機械学習の基礎
内容:線形代数の復習
6
 行列の基礎
 行列の定義と応用例
 行列演算の基礎
 行列式、階数、逆行列
 固有値と固有値ベクトル
行列の定義
7
 スカラー値aijを長方形上に配置
第 i 行(row)
第 j 列(column)
i行j列の要素(element)
行:m個
m×n行列(matrix)
列:n個
𝑎𝑎11
⋮
𝑎𝑎𝑖𝑖1
⋮
𝑎𝑎 𝑚𝑚𝑚
⋯
⋯
⋯
𝑎𝑎1𝑗𝑗
⋮
𝑎𝑎𝑖𝑖𝑖𝑖
⋮
𝑎𝑎 𝑚𝑚𝑗𝑗
⋯
⋯
⋯
𝑎𝑎1𝑛𝑛
⋮
𝑎𝑎𝑖𝑖 𝑛𝑛
⋮
𝑎𝑎 𝑚𝑚𝑚𝑚
行列とベクトルの関係
8
 m x n行列は、n個のm次元の列ベクトルを配置
 同様にn x m行列は、m個のn次元の行ベクトルの配置
m次元の列ベクトル:
𝐀𝐀 =
𝑎𝑎11
𝑎𝑎21
⋮
𝑎𝑎 𝑚𝑚𝑚
𝑎𝑎12
𝑎𝑎22
⋮
𝑎𝑎 𝑚𝑚𝑚
⋯
⋯
⋯
𝑎𝑎1𝑛𝑛
𝑎𝑎2𝑛𝑛
⋮
𝑎𝑎 𝑚𝑚𝑚𝑚
= (𝒂𝒂1, 𝒂𝒂2 ⋯ , 𝒂𝒂𝑛𝑛)
𝒂𝒂2
行列の応用例:画像データ
9
 画像は、RGBの3色のチャネルマップで構成
 各チャネルマップは、各ピクセルの強度を表す数値
(0~255)を持つ2次元行列で表現
行列の応用:表データ
10
 行:データ点(例:学生Aのデータ)
 列:属性(例:身長、体重、胸囲)
身長 体重 胸囲
170 60 80
167 52 93
174 57 85
181 70 80
171 62 70
171 66 95
168 54 85
学
生
7
人
分
の
デ
ー
タ
属性が3つである
37
8554168
9566171
7062171
8070181
8557174
9352167
8060170
×






















=A
行列で表現
行列は大文字の太字で表現
内容:線形代数の復習
11
 行列の基礎
 行列の定義と応用例
 行列演算の基礎
 行列式、階数、逆行列
 固有値と固有値ベクトル
正方行列とトレース(Trace)
12
 正方行列:行数と列数が等しいの行列
 トレース(trace):対角要素の和
対角要素
𝑡𝑡𝑡𝑡 𝐀𝐀 = �
𝑖𝑖=1
𝑛𝑛
𝑎𝑎𝑖𝑖𝑖𝑖
𝐀𝐀 =
𝑎𝑎11
𝑎𝑎21
⋮
𝑎𝑎𝑛𝑛𝑛
𝑎𝑎12
𝑎𝑎22
⋮
𝑎𝑎𝑛𝑛2
⋯
⋯
⋯
𝑎𝑎1𝑛𝑛
𝑎𝑎2𝑛𝑛
⋮
𝑎𝑎𝑛𝑛𝑛𝑛
行数:n
列数:n
単位行列(Identity matrix)
13
 単位行列:対角成分が全て1、他の成分が全て0の正方行列
 n次元単位行列のトレースは、n



≠
=
=
)(0
)(1
ji
ji
ijδ
I =
1
0
⋮
0
0
1
⋮
0
⋯
⋱
⋯
⋱
⋯
0
0
⋮
1
=
𝛿𝛿11
𝛿𝛿21
⋮
𝛿𝛿𝑛𝑛𝑛
𝛿𝛿12
𝛿𝛿22
⋮
𝛿𝛿𝑛𝑛𝑛
⋯
⋱
⋯
⋱
⋯
𝛿𝛿𝑛𝑛1
𝛿𝛿𝑛𝑛𝑛
⋮
𝛿𝛿𝑛𝑛𝑛𝑛
ただし、δij は“クロネッカーのデルタ”
行列と行列の積
14
 積:左の行列の列数と、右の行列の行数が等しい場合に可能
23
22
23
10089
6457
2825
10*6*8*59*67*5
10*48*39*47*3
10*28*19*27*1
109
87
,
65
43
21
×
×
×










=










+
++
++
=






=










=
AB
BA
※逆のBAの計算はできない
行ベクトルと列ベクトルの積
15
 行ベクトルと列ベクトルの積(内積):スカラー
 列ベクトルと行ベクトルの積:行列
 つまり、
𝐚𝐚𝚻𝚻 𝒃𝒃 = 𝑎𝑎1 𝑎𝑎2 … 𝑎𝑎𝑛𝑛
𝑏𝑏1
𝑏𝑏2
⋮
𝑏𝑏𝑛𝑛
= 𝑎𝑎1 𝑏𝑏1+ 𝑎𝑎2 𝑏𝑏2+ ⋯ 𝑎𝑎𝑛𝑛 𝑏𝑏𝑛𝑛
𝒃𝒃 𝐚𝐚𝚻𝚻
=
𝑏𝑏1
𝑏𝑏2
⋮
𝑏𝑏𝑛𝑛
𝑎𝑎1 𝑎𝑎2 … 𝑎𝑎𝑛𝑛 =
𝑏𝑏1 𝑎𝑎1
𝑏𝑏2 𝑎𝑎1
⋮
𝑏𝑏𝑛𝑛 𝑎𝑎1
𝑏𝑏1 𝑎𝑎2
𝑏𝑏2 𝑎𝑎2
⋮
𝑏𝑏𝑛𝑛 𝑎𝑎2
⋯
⋯
⋯
𝑏𝑏1 𝑎𝑎𝑛𝑛
𝑏𝑏2 𝑎𝑎𝑛𝑛
⋮
𝑏𝑏𝑛𝑛 𝑎𝑎𝑛𝑛
𝐚𝐚𝚻𝚻
𝒃𝒃 ≠ 𝒃𝒃 𝐚𝐚𝚻𝚻
行列と列ベクトルの積
16
 行列と列ベクトルの積は、列ベクトル
 一方、行ベクトルと行列の積は、行ベクトル
𝐀𝐀𝒃𝒃 =
𝑎𝑎11
𝑎𝑎21
⋮
𝑎𝑎𝑛𝑛𝑛
𝑎𝑎12
𝑎𝑎22
⋮
𝑎𝑎𝑛𝑛𝑛
⋯
⋯
⋯
𝑎𝑎1𝑛𝑛
𝑎𝑎2𝑛𝑛
⋮
𝑎𝑎𝑛𝑛𝑛𝑛
𝑏𝑏1
𝑏𝑏2
⋮
𝑏𝑏𝑛𝑛
=
∑𝑗𝑗=1
𝑛𝑛
𝑎𝑎1𝑗𝑗 𝑏𝑏𝑗𝑗
∑𝑗𝑗=1
𝑛𝑛
𝑎𝑎2𝑗𝑗 𝑏𝑏𝑗𝑗
⋮
∑𝑗𝑗=1
𝑛𝑛
𝑎𝑎𝑛𝑛𝑗𝑗 𝑏𝑏𝑗𝑗
各要素は線形和
𝒃𝒃𝚻𝚻
𝐀𝐀 = ∑𝑖𝑖=1
𝑛𝑛
𝑏𝑏𝑖𝑖 𝑎𝑎𝑖𝑖 𝑖 ⋯ ∑𝑖𝑖=1
𝑛𝑛
𝑏𝑏𝑖𝑖 𝑎𝑎𝑖𝑖 𝑖𝑖
𝐀𝐀’=𝐀𝐀𝚻𝚻
=
𝑎𝑎11
𝑎𝑎12
⋮
𝑎𝑎1𝑛𝑛
𝑎𝑎21
𝑎𝑎22
⋮
𝑎𝑎2𝑛𝑛
⋯
⋯
⋯
𝑎𝑎 𝑚𝑚1
𝑎𝑎 𝑚𝑚2
⋮
𝑎𝑎 𝑚𝑚𝑚𝑚
𝐀𝐀=
𝑎𝑎11
𝑎𝑎21
⋮
𝑎𝑎 𝑚𝑚𝑚
𝑎𝑎12
𝑎𝑎22
⋮
𝑎𝑎 𝑚𝑚𝑚
⋯
⋯
⋯
𝑎𝑎1𝑛𝑛
𝑎𝑎2𝑛𝑛
⋮
𝑎𝑎 𝑚𝑚𝑚𝑚
転置行列
17
 転置:行と列の入れ替え
 転置の記号は、プライム(’)、トランスポーズ(T)と呼ぶ
 対象行列の場合:
n × m行列m × n 行列
転置
𝐀𝐀’= 𝐀𝐀
行列演算のレシピ
18
 和・スカラー倍
 積
交換法則:A + B = B + A
結合法則:(A + B) + C = A + (B + C)
分配法則:(k+l)A = kA + lA
分配法則:k(A + B) = kA + kB
結合法則:(kl)A = k(l)A
結合法則:(AB)C = A(BC)
分配法則:A(B + C) = AB + AC
分配法則:(B + C)A = BD + CD
αはスカラー: (αA)B = α(AB) = A(αB)
行列演算のレシピ 続き
19
 転置
 行列演算の資料としては、「The Matrix Cookbook」が有名
http://coin.wne.uw.edu.pl/pbiernacki/matrix_cookbook.pdf
(A’)’ = A
(A + B)’ = A’ + B’
(kA)’ = kA’
(AB)’ = B’A’
(ABC)’ = C’B’A’
内容:線形代数の復習
20
 行列の基礎
 行列の定義と応用例
 行列演算の基礎
 行列式、階数、逆行列
 固有値と固有値ベクトル
行列式
21
 行列式:正方行列の列ベクトルにより構成される立体の体積
 2次元の行列式の計算式:
𝐀𝐀 = det(𝑨𝑨) =
𝑎𝑎1
𝑎𝑎2
𝑎𝑎3
𝑏𝑏1
𝑏𝑏2
𝑏𝑏3
𝑐𝑐1
𝑐𝑐2
𝑐𝑐3
𝐀𝐀 = det 𝑨𝑨 =
𝑎𝑎
𝑐𝑐
𝑏𝑏
𝑑𝑑
= 𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏
𝑎𝑎
𝑐𝑐
𝑏𝑏
𝑑𝑑
乗算して符号が正
乗算して符号が負
(a1,a2,a3)
(b1,b2,b3)
(c1,c2,c3)
行列式の図形を用いた解釈(2次)
22
 2次正方行列の行列式:
 2つの列ベクトルが張る平行四辺形
 平行四辺形の面積:
 行列式は、列ベクトルが張る平行四辺形の符号付きの面積
 2つの列ベクトルが平行だった場合は、平行四辺形を構成できないので
行列式は0になる
𝐀𝐀 =
𝑎𝑎
𝑐𝑐
𝑏𝑏
𝑑𝑑
= 𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏
𝒗𝒗 =
𝑎𝑎
𝑐𝑐
𝒖𝒖 =
𝑏𝑏
𝑑𝑑
𝑎𝑎
𝑐𝑐
𝑏𝑏
𝑑𝑑
𝑠𝑠 = abs(𝑎𝑎𝑎𝑎 − 𝑏𝑏𝑏𝑏)
abs:絶対値
𝑠𝑠
3次の行列式
23
 3次の行列式の定義:
312213332112322311
322113312312332211
333231
232221
131211
)det(
aaaaaaaaa
aaaaaaaaa
aaa
aaa
aaa
−−−
++=
== AA
3次の行列式の覚え方
24
 サラスの公式
11 12 13
21 22 23
31 32 33
a a a
a a a
a a a
乗算して符号が正
乗算して符号が負
行列式の図形を用いた解釈(3次)
25
 3次正方行列の行列式
 3つの列ベクトルが張る平行6面体
 3次の行列式は平行6面体の符号付きの体積に等しい










=










=










=
3
2
1
3
2
1
3
2
1
,,
c
c
c
b
b
b
a
a
a
cba
333
222
111
cba
cba
cba
A =
(a1,a2,a3)
(b1,b2,b3)
(c1,c2,c3)
行列の階数(ランク)
26
 階数:行または列ベクトルの中で線形独立なベクトルの個数
 単純な線形独立な列ベクトルで構成される行列の例:
 正規直交基底ベクトルで構成される行列
 は線形(1次)独立
 したがって、
x y
z










=
0
0
1
i










=
0
1
0
j










=
1
0
0
k
o
A =
1
0
0
0
1
0
0
0
1
= 𝒊𝒊, 𝒋𝒋, 𝒌𝒌
{𝒊𝒊, 𝒋𝒋, 𝒌𝒌}
𝒂𝒂𝟏𝟏 𝒊𝒊 + 𝒂𝒂𝟐𝟐 𝒋𝒋 + 𝒂𝒂𝟑𝟑 𝒌𝒌 = 𝟎𝟎 𝒂𝒂𝟏𝟏 = 𝒂𝒂𝟐𝟐 = 𝒂𝒂𝟑𝟑 = 𝟎𝟎必要十分条件
rank(𝐀𝐀)
rank(𝐀𝐀)=3
非正方行列の階数
27
 行列の階数は、行と列の数の最小値以下
 表データの例:階数は3以下。属性の線形独立度合いを表す
 階数が行と列の数の最小値より低い場合、「ランク落ち」という
 また、ランク落ちしている場合、行列式は「0」になる
37
8554168
9566171
7062171
8070181
8557174
9352167
8060170
×






















=A
身長 体重 胸囲
170 60 80
167 52 93
174 57 85
181 70 80
171 62 70
171 66 95
168 54 85
3)3,7min(
),min()(
==
≤ mnrank A
演習1:
28
1. 行列Cのトレースと行列式を求めなさい
2. 行列Cの階数(ランク)を求めなさい
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載





 −
=
40
164
C
演習2:
30
1. 行列Cの行列式を求めなさい
2. 行列Cの階数(ランク)を求めなさい
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載






=
41
164
C
逆数と逆行列
32
 スカラーの除算:逆数の乗算
 行列の除算:逆行列の乗算
 逆行列 が存在するとき、 は正則行列という
𝐀𝐀𝐀𝐀−𝟏𝟏
= 𝐈𝐈 =
1
0
0
0
1
0
0
0
1
5 ÷ 5 = 5 ×
1
5
= 5 × 5−1
= 1
𝐀𝐀−𝟏𝟏 𝐀𝐀
𝐀𝐀 ≠ 0
必要十分条件𝐀𝐀が正則行列 の行列式が非ゼロ𝐀𝐀
内容:線形代数の復習
33
 行列の基礎
 行列の定義と応用例
 行列演算の基礎
 行列式、階数、逆行列
 固有値と固有値ベクトル
行列によるベクトルの変換
34
 行列Aと列ベクトルxの積:xをx’に変換
 変換の種類:回転・平行移動・伸縮
0
𝒙𝒙′
= A𝒙𝒙 =
3
4
2
1
1
−1
=
1
3
𝒙𝒙𝒙 = A𝒙𝒙
𝒙𝒙
固有値と固有ベクトルの例
35
 ベクトルxが行列Aの固有ベクトルの場合
 変換後のx’:ベクトルxの大きさだけが変化(方向は変化無し)
 固有値:ベクトルxからx’への拡大または縮小率
: の固有ベクトル
𝒙𝒙𝒙 = A𝒙𝒙
𝒙𝒙′
= A𝒙𝒙 =
3
4
2
1
1
1
=
5
5
= 5
1
1
= 5𝒙𝒙
0
𝒙𝒙 𝒙𝒙 =
1
1
A
5 A: の固有値(スカラー)
固有値問題
36
 正方行列 の固有ベクトル と固有値 の条件:
 固有値問題を解くことにより、固有ベクトルと固有値を求める
 から の逆行列が存在しない(正則行列ではない)
𝐀𝐀𝒙𝒙 = 𝛌𝛌𝒙𝒙
𝐀𝐀
𝒙𝒙 ≠ 𝟎𝟎
𝒙𝒙 𝛌𝛌
𝒙𝒙
𝒙𝒙𝒙 = A𝒙𝒙 = 𝛌𝛌𝒙𝒙
(𝐀𝐀 − 𝛌𝛌𝑰𝑰)𝒙𝒙 = 𝟎𝟎
固有値問題
𝑰𝑰:単位行列
𝒙𝒙 ≠ 𝟎𝟎 𝐀𝐀 − 𝛌𝛌𝑰𝑰
(𝐀𝐀 − 𝛌𝛌𝑰𝑰)−𝟏𝟏(𝐀𝐀 − 𝛌𝛌𝑰𝑰)𝒙𝒙 = 𝒙𝒙 = 𝟎𝟎
固有値問題を解く
37
 は正則行列ではないので、 の行列式はゼロ
 次の手順で固有値問題を解き固有値・ベクトルを求める
1. を について解き固有値 を求める
2. を解き固有ベクトル を求める
𝐀𝐀 ≠ 0
必要十分条件𝐀𝐀が正則行列 の行列式が非ゼロ𝐀𝐀
𝐀𝐀 − 𝛌𝛌𝑰𝑰 𝐀𝐀 − 𝛌𝛌𝑰𝑰
|𝐀𝐀 − 𝛌𝛌𝑰𝑰| = 𝟎𝟎
|𝐀𝐀 − 𝛌𝛌𝑰𝑰| = 𝟎𝟎 𝛌𝛌 𝛌𝛌𝒊𝒊
(𝐀𝐀 − 𝛌𝛌𝒊𝒊 𝑰𝑰)𝒙𝒙 = 𝟎𝟎 𝒙𝒙𝒊𝒊
固有値を求める例
24
0)2)(4(1)3(
31
13
10
01
31
13
31
13
22
==∴
=−−=−−=
−
−
=






−





=−






=
λλ
λλλ
λ
λ
λλ
  
の固有値は正方行列
IA
A
38
固有ベクトルを求める例
( )
0
2
1
2
1
11
1
11
1
1
1
0
0
11
11
10
01
4
31
13
4
22
22
121
21
21
2
1
2
1
11
111
2
1
11
でない任意の数は
   
より公式
はに対するベクトル
c
cxx
xx
xx
x
x
x
x
x
x










=










+
+→





=→=∴






=





−
+−
=











−
−
=




















−





=−
=






==
x
xIA
xAx
x
λ
λ
λ
単位ベクトル化(L2ノルムで割る)
39
cは最終的に単位ベクトル化するための任意の値
固有ベクトルを求める例 続き
( )
2
1
2
1
1
1
0
0
11
11
10
01
2
31
13
,
2
221
21
21
2
1
2
1
22
222
2
1
22
  
より公式同様に
はに対するベクトル
cxx
xx
xx
x
x
x
x
x
x










−
→





−
=→−=∴






=





+
+
=











=




















−





=−
=






==
x
xIA
xAx
x
λ
λ
λ
40
単位ベクトル化(L2ノルムで割る)cは最終的に単位ベクトル化するための任意の値
演習3:
42
1. 固有値を2つを求めなさい
2. 固有ベクトルを求めなさい
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
A =
3
4
2
1
固有値・固有ベクトルの性質1
46
 対称行列の各固有ベクトルはお互いに直交
 各固有ベクトルで作る軸がお互いに独立(相関なし)
)(90
0)
2
1
(*
2
1
2
1
*
2
1
0)1(*11*1
2/1
2/1
1
1
,
2/1
2/1
1
1
2,4
31
13
21
21
21
相関なしお互いに垂直 
内積:
 固有ベクトル 
の固有値確認:対称行列
°=⇔∴∴
=−+⇒=−+=•






−
⇒





−
=





⇒





=
==





=
θ
λλ
xx
xx
A

固有値・固有ベクトルの性質2
47
 固有値の和は、行列のトレースと一致
 トレース:行列の対角成分の和
両者は一致する 
固有値の和は
⇒
=+=+
=+=





=
624
633
31
13
21 λλ
trtrA
固有値・固有ベクトルの性質3
48
 固有値の積は行列式と一致
両者は一致する 
固有値の積は
⇒
=×=×
=−=
824
819
31
13
21 λλ
演習4:
50
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
𝐀𝐀 =
1
0.446
−0.56
0.446
1
−0.239
−0.56
−0.239
1
の固有値は 𝛌𝛌𝟏𝟏 = 1.843, 𝛌𝛌𝟐𝟐 = 0.768 である。
と𝛌𝛌𝟑𝟑 |𝐀𝐀| を求めなさい
課題1
52
 三次元空間上に3点A, B, Cがある。3点A,B,Cの位置ベクトル
a, b, cは、tをパラメータとして次のように表される。
これらをベクトルを各列にもつ行列をMとする。
1. Mの行列式を求めなさい。
2. Mの行列式が0となるtを求めなさい。
3. t=1のとき、平行6面体OABCの体積を求めなさい。
[ ]cbaMcba =










−=










−=









−
=   
1
1,1
2
,
0
3
t
t
t
t
課題2
53
 次の行列に対し、固有値問題を解き、固有値と固有ベクトル
を求めなさい。
𝐀𝐀 =
1
1
2
1
2
1
課題3
54
 以下の4点a, b, c, dの、ベクトル変換後の座標をそれぞれ求め
よ。また、それらの点の関係を述べよ。
' 1 2
' 2 4
x x
y y
     
=     
     
行列によるベクトル変換:
𝒃𝒃 =
1
1
𝒂𝒂 =
1
2
𝒄𝒄 =
2
1
𝒅𝒅 =
2
2
レポートの提出方法
55
 演習レポート:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート :
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる

More Related Content

What's hot

Adversarial Examples 分野の動向 (敵対的サンプル発表資料)
Adversarial Examples 分野の動向(敵対的サンプル発表資料)Adversarial Examples 分野の動向(敵対的サンプル発表資料)
Adversarial Examples 分野の動向 (敵対的サンプル発表資料)cvpaper. challenge
 
固有顔による生体認証
固有顔による生体認証固有顔による生体認証
固有顔による生体認証Hiroyuki Kuromiya
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会Kenyu Uehara
 
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...Yamato OKAMOTO
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎Hirotaka Hachiya
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsTakao Yamanaka
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章weda654
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用Hirotaka Hachiya
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫るKen'ichi Matsui
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 

What's hot (20)

Adversarial Examples 分野の動向 (敵対的サンプル発表資料)
Adversarial Examples 分野の動向(敵対的サンプル発表資料)Adversarial Examples 分野の動向(敵対的サンプル発表資料)
Adversarial Examples 分野の動向 (敵対的サンプル発表資料)
 
固有顔による生体認証
固有顔による生体認証固有顔による生体認証
固有顔による生体認証
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫る
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 

Similar to データ解析2 線形代数の復習

StudyAIラビットチャレンジ 応用数学
StudyAIラビットチャレンジ 応用数学StudyAIラビットチャレンジ 応用数学
StudyAIラビットチャレンジ 応用数学Naoki Nishikawa
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列Katsuhiro Morishita
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学HiroyukiTerada4
 
Rの初歩: 6. グラフィックス
Rの初歩:  6. グラフィックスRの初歩:  6. グラフィックス
Rの初歩: 6. グラフィックスTeiko Suzuki
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半Kazunori Miyanishi
 
VBAで数値計算 07 ベクトル
VBAで数値計算 07 ベクトルVBAで数値計算 07 ベクトル
VBAで数値計算 07 ベクトルKatsuhiro Morishita
 

Similar to データ解析2 線形代数の復習 (9)

StudyAIラビットチャレンジ 応用数学
StudyAIラビットチャレンジ 応用数学StudyAIラビットチャレンジ 応用数学
StudyAIラビットチャレンジ 応用数学
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列VBAで数値計算 10 逆行列と疑似逆行列
VBAで数値計算 10 逆行列と疑似逆行列
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
 
Rの初歩: 6. グラフィックス
Rの初歩:  6. グラフィックスRの初歩:  6. グラフィックス
Rの初歩: 6. グラフィックス
 
【Deep Learning (MIT Press)】線形代数 2.1~2.7
【Deep Learning (MIT Press)】線形代数 2.1~2.7【Deep Learning (MIT Press)】線形代数 2.1~2.7
【Deep Learning (MIT Press)】線形代数 2.1~2.7
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
 
VBAで数値計算 07 ベクトル
VBAで数値計算 07 ベクトルVBAで数値計算 07 ベクトル
VBAで数値計算 07 ベクトル
 

More from Hirotaka Hachiya

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用Hirotaka Hachiya
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎Hirotaka Hachiya
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎Hirotaka Hachiya
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎Hirotaka Hachiya
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズHirotaka Hachiya
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析Hirotaka Hachiya
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法Hirotaka Hachiya
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用Hirotaka Hachiya
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎Hirotaka Hachiya
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析Hirotaka Hachiya
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習Hirotaka Hachiya
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習Hirotaka Hachiya
 
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習データ解析1 ベクトルの復習
データ解析1 ベクトルの復習Hirotaka Hachiya
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデルHirotaka Hachiya
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learningHirotaka Hachiya
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシンHirotaka Hachiya
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデルHirotaka Hachiya
 

More from Hirotaka Hachiya (18)

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

データ解析2 線形代数の復習