SlideShare a Scribd company logo
データ解析 第7回
2018年5月31日 八谷 大岳
1
講義内容
5
数学の復習
機械学習の基礎
内容:
6
 主成分分析の基礎
 主成分分析とは
 主成分分析の定式化
 分散最大化問題への変形
 主成分分析の計算
 ラグランジュ未定乗数法を用いた主成分軸の導出
 主成分軸の計算手順
主成分分析
7
 主成分分析:代表的かつ基本的な次元削減手法
 英語では、Principal Component Analysis (PCA)
 次元削減:データの次元を、人間が目視可能な2次元または
3次元に削減すること
 3次元から2次元に削減する例:データを表す2次元平面を探す
𝑧𝑧1
𝑧𝑧2
3次元空間上に分布するデータ
がある平面の上に乗っている
平面の2次元空間上でデータ
を表現可能
𝑥𝑥1
𝑥𝑥3靴のサイズ
主成分分析による次元削減の例
8
 アイリスのデータの可視化
 3種類のアイリス
 がくと花びらの大きさに関する4次元のデータ
 3種類のアイリスがどのように分布
しているのか確認したい
 しかし、4次元のデータを見ることはできない
 X1 Sepal length(がく長)
 X2 Sepal width(がく幅)
 X3 Petal length(花びら長)
 X4 Petal width(花びら幅)
Setosa versicolor virginica
内容:
9
 主成分分析の基礎
 主成分分析とは
 主成分分析の定式化
 分散最大化問題への変形
 主成分分析の計算
 主成分軸の導出
 主成分軸の計算手順
主成分分析の定式化の準備
10
 定式化のために、データが2次元の場合を考える
 データの中心化:各データ点から平均を引き「平均=原点」にする
 主成分分析:データ 𝒙𝒙𝒊𝒊
𝒊𝒊=𝟏𝟏
𝑵𝑵
を最も表す主成分軸を求める
𝑥𝑥2
𝑜𝑜
i番目に観測された学習データ点
𝒙𝒙𝒊𝒊 = 𝑥𝑥1
𝑖𝑖
, 𝑥𝑥2
𝑖𝑖
𝑥𝑥1
𝑜𝑜 𝑥𝑥1
𝑥𝑥2
中心化
𝒙𝒙𝒊𝒊 = 𝒙𝒙𝒊𝒊- �𝒙𝒙データの中心(平均)
主成分分析の定式化
11
 データの中心(平均、原点)を通る主成分軸𝑍𝑍を考える
 データ点𝒙𝒙𝒊𝒊の主成分軸𝑍𝑍への正射影した軸𝑍𝑍上の点𝑧𝑧𝑖𝑖をモデル化
 目的:誤差𝜀𝜀𝑖𝑖の二乗和を最小化する主成分軸𝑍𝑍を求める
𝒘𝒘∗ = min
𝒘𝒘
�
𝑖𝑖=1
𝑁𝑁
𝜀𝜀𝑖𝑖2
𝑧𝑧𝑖𝑖
= 𝒘𝒘𝚻𝚻
𝒙𝒙𝒊𝒊
= 𝑤𝑤1 𝑥𝑥1
𝑖𝑖
+ 𝑤𝑤2 𝑥𝑥2
𝑖𝑖
𝒘𝒘 = 𝑤𝑤1, 𝑤𝑤2
Τ
:主成分軸𝑍𝑍の正規直交基底ベクトル
主成分軸𝑍𝑍
𝑥𝑥1
𝑥𝑥2
𝑜𝑜
𝒙𝒙𝒊𝒊 = 𝑥𝑥1
𝑖𝑖
, 𝑥𝑥2
𝑖𝑖
誤差𝜀𝜀𝑖𝑖
𝑧𝑧𝑖𝑖
𝒘𝒘𝒘𝒘と𝒙𝒙𝒊𝒊の内積
回帰と主成分の定式化の違い
12
 回帰:目的変数𝑦𝑦を予測することが目的
 変数を説明変数𝑥𝑥と目的変数𝑦𝑦で区別
 誤差は、y軸成分の距離
 主成分分析:データ𝑥𝑥を表す直線を求めることが目的
 変数を説明変数𝑥𝑥と目的変数𝑦𝑦に区別しない
 誤差は、直線に垂直方向の距離
誤差:𝑦𝑦軸成分の距離
𝑥𝑥
𝑦𝑦
𝑜𝑜
【回帰分析】
距離:直線に垂直な方向の距離
𝑜𝑜
【主成分分析】
𝑥𝑥1
𝑥𝑥2
内積の便利な使い方:座標変換
13
 座標変換:任意のベクトルを、異なる座標系で表現
 新しい座標系の正規直交基底ベクトルを用いて、直交展開
 新しい座標系でのベクトル:
𝑎𝑎1
𝒂𝒂
𝒊𝒊
𝒋𝒋
𝒂𝒂
𝒊𝒊𝒊𝒋𝒋𝒋
𝒂𝒂 = 𝒂𝒂 � 𝒊𝒊 𝒊𝒊+ 𝒂𝒂 � 𝒋𝒋 𝒋𝒋 = 𝒂𝒂 � 𝒊𝒊𝒊 𝒊𝒊𝒊+ 𝒂𝒂 � 𝒋𝒋𝒋 𝒋𝒋𝒋
𝑎𝑎2
𝑎𝑎𝑎1
𝑎𝑎𝑎2
𝑎𝑎1 𝑎𝑎2
元の座標系への正射影
𝑎𝑎𝑎1 𝑎𝑎𝑎2
新しい座標系への正射影
𝒂𝒂 � 𝒊𝒊′
, 𝒂𝒂 � 𝒋𝒋𝒋 𝚻𝚻
第1回目の資料から抜粋
演習1
14
 主成分軸𝑍𝑍と軸𝑥𝑥1のなす角を𝜃𝜃として、主成分軸上の点𝑧𝑧𝑖𝑖
を、𝜃𝜃を用いて表しなさい。
 ヒント:
 正規直交基底ベクトル𝒘𝒘を求めて、𝒙𝒙𝒊𝒊を正射影
 回転行列:
𝑐𝑐𝑜𝑜𝑜𝑜𝜃𝜃 −𝑠𝑠𝑠𝑠𝑠𝑠𝜃𝜃
𝑠𝑠𝑠𝑠𝑠𝑠𝜃𝜃 𝑐𝑐𝑜𝑜𝑜𝑜𝜃𝜃
 軸𝑥𝑥1の正規直交基底ベクトル: 𝒊𝒊 =
1
0
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の一番上
に記載
𝑥𝑥1
𝑥𝑥2
主成分の
候補𝑍𝑍
𝑜𝑜
𝜃𝜃
𝒊𝒊
𝒘𝒘 𝑧𝑧𝑖𝑖
𝒙𝒙𝒊𝒊
𝑧𝑧𝑖𝑖 = 𝒘𝒘𝚻𝚻 𝒙𝒙𝒊𝒊 = 𝑤𝑤1 𝑥𝑥1
𝑖𝑖
+ 𝑤𝑤2 𝑥𝑥2
𝑖𝑖
制約付きの二乗誤差和の最小化
16
 パラメータ𝒘𝒘1のL2ノルム:
 主成分析の制約付きの最適化問題:
 ラグランジュ未定乗数法を使って解く
𝒘𝒘 𝟐𝟐 = 𝒘𝒘Τ 𝒘𝒘 = 𝑤𝑤1
2
+ 𝑤𝑤2
2
= 𝑐𝑐𝑜𝑜𝑜𝑜𝜃𝜃2 + 𝑠𝑠𝑠𝑠𝑠𝑠𝜃𝜃2 = 1
𝑧𝑧𝑖𝑖 = 𝑤𝑤1 𝑥𝑥1
𝑖𝑖
+ 𝑤𝑤2 𝑥𝑥2
𝑖𝑖
= 𝑐𝑐𝑜𝑜𝑜𝑜𝜃𝜃𝑥𝑥1
𝑖𝑖
+𝑠𝑠𝑠𝑠𝑠𝑠𝜃𝜃𝑥𝑥2
𝑖𝑖
min
𝒘𝒘
�
𝑖𝑖=1
𝑁𝑁
𝜀𝜀𝑖𝑖2
s.t. 𝒘𝒘Τ
𝒘𝒘 = 1
主成分軸𝑍𝑍
𝑥𝑥1
𝑥𝑥2
𝑜𝑜
𝒙𝒙𝒊𝒊
= 𝑥𝑥1
𝑖𝑖
, 𝑥𝑥2
𝑖𝑖
誤差𝜀𝜀𝑖𝑖
𝑧𝑧𝑖𝑖
𝒘𝒘
内容:
17
 主成分分析の基礎
 主成分分析とは
 主成分分析の定式化
 分散最大化問題への変形
 主成分分析の計算
 主成分軸の導出
 主成分軸の計算手順
二乗誤差と原点(平均)との関係
18
 原点(平均)、データ点𝒙𝒙𝑖𝑖およびのZ軸上のデータ点𝑧𝑧𝑖𝑖
から成る三角形を考える
 ピタゴラスの定理を用いて、二乗誤差𝜀𝜀𝑖𝑖2
を𝑧𝑧𝑖𝑖2
と𝑐𝑐𝑖𝑖2
で表現
原点(平均)
主成分軸𝑍𝑍𝒙𝒙𝒊𝒊
𝑧𝑧𝑖𝑖
𝑐𝑐𝑖𝑖
𝑧𝑧𝑖𝑖
𝜀𝜀𝑖𝑖
𝑐𝑐𝑖𝑖2
= 𝜀𝜀𝑖𝑖2
+𝑧𝑧𝑖𝑖2
演習2
19
 ピタゴラスの定理に基づき、二乗誤差和の最小化問題を、 底辺の長さ𝑧𝑧𝑖𝑖
に関する最適化問題に変形しなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の 一番上に記載
argmin
𝒘𝒘
�
𝑖𝑖=1
𝑁𝑁
𝜀𝜀𝑖𝑖2
?
原点(平均)
主成分軸𝑍𝑍𝒙𝒙𝒊𝒊
𝑧𝑧𝑖𝑖
𝑐𝑐𝑖𝑖2
= 𝜀𝜀𝑖𝑖2
+𝑧𝑧𝑖𝑖2
ピタゴラスの定理
ヒント: 𝜀𝜀𝑖𝑖が小さくなるとき、 𝑧𝑧𝑖𝑖どうなる?
= argm𝑎𝑎𝑎𝑎
𝒘𝒘
1
𝑁𝑁
�
𝑖𝑖=1
𝑁𝑁
𝑧𝑧𝑖𝑖2
制約付き分散最大化問題
21
 主成分分析:制約付きの分散最大化問題
argmin
𝒘𝒘
�
𝑖𝑖=1
𝑁𝑁
𝜀𝜀𝑖𝑖2
= 𝑎𝑎𝑎𝑎𝑎𝑎m𝑎𝑎𝑎𝑎
𝒘𝒘
�
𝑖𝑖=1
𝑁𝑁
𝑧𝑧𝑖𝑖2
平均0と軸𝑍𝑍上の点𝑧𝑧𝑖𝑖との偏差の二乗
軸𝑍𝑍上の点𝑧𝑧𝑖𝑖
の分散
m𝑎𝑎𝑎𝑎
𝒘𝒘
1
𝑁𝑁
�
𝑖𝑖=1
𝑁𝑁
𝑧𝑧𝑖𝑖2
s.t. 𝒘𝒘Τ 𝒘𝒘 = 1
原点(平均)
主成分軸𝑍𝑍𝒙𝒙𝒊𝒊
𝑧𝑧𝑖𝑖
𝑧𝑧2
𝑧𝑧1
内容:
22
 主成分分析の基礎
 主成分分析とは
 主成分分析の定式化
 分散最大化問題への変形
 主成分分析の計算
 主成分軸の導出
 主成分軸の計算手順
分散最大化問題の行列表現
23
 主成分軸𝑧𝑧上の点𝑧𝑧𝑖𝑖を要素に持つ𝑁𝑁次元のベクトル𝒛𝒛を導入
m𝑎𝑎𝑎𝑎
𝒘𝒘
1
𝑁𝑁
�
𝑖𝑖=1
𝑁𝑁
𝑧𝑧𝑖𝑖2
s.t. 𝒘𝒘Τ
𝒘𝒘 = 1
=
𝑥𝑥1
1
𝑥𝑥1
2
⋮
𝑥𝑥1
𝑁𝑁
𝑥𝑥2
1
𝑥𝑥2
2
⋮
𝑥𝑥2
𝑁𝑁
𝑤𝑤1
𝑤𝑤2
= X𝒘𝒘
X
𝒘𝒘
m𝑎𝑎𝑎𝑎
𝒘𝒘
1
𝑁𝑁
𝒛𝒛Τ 𝒛𝒛
s.t. 𝒘𝒘Τ
𝒘𝒘 = 1
max
𝒘𝒘
1
𝑁𝑁
X𝒘𝒘 Τ X𝒘𝒘
s.t. 𝒘𝒘Τ 𝒘𝒘 = 1
max
𝒘𝒘
1
𝑁𝑁
𝒘𝒘ΤXΤX𝒘𝒘
s.t. 𝒘𝒘Τ
𝒘𝒘 = 1
1
𝑁𝑁
XΤ
Xは平均0の時の
分散・共分散行列
max
𝒘𝒘
𝒘𝒘Τ 𝑆𝑆𝒘𝒘
s.t. 𝒘𝒘Τ 𝒘𝒘 = 1
𝑆𝑆 =
1
𝑁𝑁
XΤ
X
𝒛𝒛 =
𝑧𝑧1
𝑧𝑧2
⋮
𝑧𝑧 𝑁𝑁
𝑧𝑧1
= 𝑤𝑤1 𝑥𝑥1
1
+𝑤𝑤2 𝑥𝑥2
1
𝑧𝑧2
= 𝑤𝑤1 𝑥𝑥1
2
+𝑤𝑤2 𝑥𝑥2
2
⋮
X𝒘𝒘 Τ
= 𝒘𝒘Τ
XΤ
分散・共分散の行列表現
24
 𝒙𝒙 = 𝑥𝑥1
, 𝑥𝑥2
, … , 𝑥𝑥 𝑁𝑁 𝚻𝚻
と、𝒚𝒚 = 𝑦𝑦1
, 𝑦𝑦2
, … , 𝑦𝑦 𝑁𝑁 𝚻𝚻
の分散・共分散
 分散共分散行列: 2変数の場合2x2の行列
 対角成分:それぞれの変数の分散
 非対角成分:共分散
𝑺𝑺 =
1
𝑁𝑁
𝑩𝑩𝚻𝚻 𝑩𝑩
=
1
𝑁𝑁
𝒙𝒙 − ̅𝑥𝑥
𝒚𝒚 − �𝑦𝑦
𝒙𝒙 − ̅𝑥𝑥 𝒚𝒚 − �𝑦𝑦
=
1
𝑁𝑁
(𝒙𝒙 − ̅𝑥𝑥)𝚻𝚻(𝒙𝒙 − ̅𝑥𝑥) (𝒙𝒙 − ̅𝑥𝑥)𝚻𝚻(𝒚𝒚 − �𝑦𝑦)
(𝒚𝒚 − �𝑦𝑦)𝚻𝚻
(𝒙𝒙 − ̅𝑥𝑥) (𝒚𝒚 − �𝑦𝑦)𝚻𝚻
(𝒚𝒚 − �𝑦𝑦)
𝑩𝑩 = 𝒙𝒙 − ̅𝑥𝑥 𝒚𝒚 − �𝑦𝑦 =
𝑥𝑥1
− ̅𝑥𝑥
𝑥𝑥2 − ̅𝑥𝑥
⋮
𝑥𝑥 𝑁𝑁 − ̅𝑥𝑥
𝑦𝑦1 − �𝑦𝑦
𝑦𝑦2 − �𝑦𝑦
⋮
𝑦𝑦 𝑁𝑁 − �𝑦𝑦
𝒙𝒙の分散S𝒙𝒙𝒙𝒙
𝒚𝒚の分散S𝒚𝒚𝒚𝒚
𝒙𝒙と𝒚𝒚の共分散S𝒙𝒙𝒙𝒙
N(データ数)×2(変数の数)の行列
第4回目の資料から抜粋
演習3
25
1. 制約付き分散最大化問題のラグランジュ関数を書きなさい。
2. ラグランジュ関数を偏微分して0と置き最適解の式を求めなさい。
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の 一番上
に記載
max
𝒘𝒘
𝒘𝒘Τ 𝑆𝑆𝒘𝒘
s.t. 𝒘𝒘Τ
𝒘𝒘 = 1
内容:
27
 主成分分析の基礎
 主成分分析とは
 主成分分析の定式化
 分散最大化問題への変形
 主成分分析の計算
 主成分軸の導出
 主成分軸の計算手順
主成分軸の計算の手順
28
1. 点数データの平均�𝒙𝒙を計算
2. データの中心化:
3. 分散共分散行列𝑆𝑆を計算
4. 固有値問題を解く
5. 固有値の降順でソート( 𝜆𝜆1 ≥ 𝜆𝜆2 )
6. 第1・第2主成分軸を平均�𝒙𝒙分平行移動して描画
A B C D E F G H I J
数学𝑥𝑥1 2 1 2 3 5 4 8 6 7 4
英語𝑥𝑥2 3 4 2 2 4 4 5 3 6 5
𝒙𝒙𝒊𝒊 = 𝒙𝒙𝒊𝒊- �𝒙𝒙
第1主成分軸𝑍𝑍1の正規直交基底:𝒘𝒘1
数学と英語の点数データの例
𝑆𝑆𝒘𝒘 = 𝜆𝜆𝒘𝒘 𝒘𝒘Τ 𝒘𝒘 = 1
固有値𝜆𝜆1, 𝜆𝜆2と固有ベクトル𝒘𝒘1, 𝒘𝒘2
第2主成分軸𝑍𝑍2の正規直交基底:𝒘𝒘𝟐𝟐
英
語
A
B
C D
E
F
H
GJ
I
0 2 4 6 8 10
10
8
6
4
2
数学 𝑥𝑥1
第2主成分軸𝑍𝑍2
𝒘𝒘2
第1主成分𝑍𝑍1
𝒘𝒘1
平均
課題
29
 英語と数学の点数データに対する主成分分析
1. データの中心化をしなさい。
2. 中心化した点数データの分散共分散行列𝑆𝑆を求めなさい。
3. 行列𝑆𝑆の固有値問題を解き、固有値と固有ベクトルを
求めなさい。
4. 第1・第2主成分軸の式を求めなさい。
5. 点数データと、第1・第2主成分軸をグラフに描きなさい。
A B C D E
数学𝑥𝑥1 50 70 65 60 75
英語𝑥𝑥2 85 75 80 70 90
数学と英語の点数データの例
レポートの提出方法
30
 演習レポート:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート :
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる

More Related Content

What's hot

データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
Hirotaka Hachiya
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
Katsuhiro Morishita
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
Shushi Namba
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
takehikoihayashi
 
統計学基礎
統計学基礎統計学基礎
統計学基礎
Yuka Ezura
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
 
特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙
Satoshi Hara
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
Daichi Kitamura
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
Seiichi Uchida
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
hiroki yamaoka
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
tmtm otm
 
因果推論の基礎
因果推論の基礎因果推論の基礎
因果推論の基礎
Hatsuru Morita
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
 

What's hot (20)

データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
統計学基礎
統計学基礎統計学基礎
統計学基礎
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
 
因果推論の基礎
因果推論の基礎因果推論の基礎
因果推論の基礎
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
 

Similar to データ解析7 主成分分析の基礎

PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
 
Assignment1-3
Assignment1-3Assignment1-3
Assignment1-3
Yasuhiro Kanno
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
Hirotaka Hachiya
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
Hirotaka Hachiya
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
ke beck
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
Hirotaka Hachiya
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
KunihiroTakeoka
 
主成分分析
主成分分析主成分分析
主成分分析
Yasuhiro Kanno
 
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
Akira Asano
 
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
Akira Asano
 
双対性
双対性双対性
双対性
Yoichi Iwata
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
Akihiro Nitta
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
 
主成分分析
主成分分析主成分分析
主成分分析
貴之 八木
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
Kunihiro Hisatsune
 

Similar to データ解析7 主成分分析の基礎 (20)

PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
Assignment1-3
Assignment1-3Assignment1-3
Assignment1-3
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
主成分分析
主成分分析主成分分析
主成分分析
 
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第5回 微分方程式とは・変数分離形 (2018. 10. 23)
 
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
2016年度秋学期 応用数学(解析) 第5回 微分方程式とは,変数分離形 (2016. 10. 27)
 
双対性
双対性双対性
双対性
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
主成分分析
主成分分析主成分分析
主成分分析
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 

More from Hirotaka Hachiya

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
Hirotaka Hachiya
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
Hirotaka Hachiya
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
Hirotaka Hachiya
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
Hirotaka Hachiya
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
Hirotaka Hachiya
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
Hirotaka Hachiya
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
Hirotaka Hachiya
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
Hirotaka Hachiya
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
Hirotaka Hachiya
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
Hirotaka Hachiya
 
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
Hirotaka Hachiya
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
Hirotaka Hachiya
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
Hirotaka Hachiya
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
Hirotaka Hachiya
 

More from Hirotaka Hachiya (15)

人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
データ解析1 ベクトルの復習
データ解析1 ベクトルの復習データ解析1 ベクトルの復習
データ解析1 ベクトルの復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

データ解析7 主成分分析の基礎