SlideShare a Scribd company logo
大規模データ解析応用事例
4. スパース性と
圧縮センシング1
情報工学部 知能情報工学科 田中宏和
講義スケジュール
1. 講義概要 & MATLAB入門
2. 行列分解1:特異値分解、行列近似、最小二乗法、擬逆行列
3. 行列分解2:主成分分析、固有顔、次元打ち切り、ランダム化SVD
4. スパース性と圧縮センシング1:フーリエ変換、圧縮センシング
5. スパース性と圧縮センシング2:スパース回帰、スパース分類、RPCA
6. 回帰分析とモデル選択1:線形回帰、非線形回帰、数値最適化
7. 回帰分析とモデル選択2:モデル選択、交差検証法、情報量基準
8. クラスタリングと分類分析1:特徴抽出、クラスタリング法
9. クラスタリングと分類分析2:教師あり学習、分類分析
10. ニューラルネットワーク1:パーセプトロン、誤差逆伝播法
11. ニューラルネットワーク2:確率勾配法、深層ネットワーク
12. 発展学習:神経データ解析
スパース性と圧縮センシング1
3.1 Sparsity and Compression
3.2 Compressed Sensing
3.3 Compressed Sensing Examples
3.4 The Geometry of Compression
3.5 Sparse Regression
3.6 Sparse Representation
3.7 Robust PCA
3.8 Sparse Sensor Placement
スパース性と圧縮センシング1
% 3.1 Sparsity and Compression
CH03_SEC01_Compress.m
% 3.2 Compressed Sensing Examples
CH03_SEC03_1_Underdetermined.m
CH03_SEC03_2_AudioCS.m
CH03_SEC04_Matrices.m
% 3.5 Sparse Regression
CH03_SEC05_1_RobustRegression.m
CH03_SEC05_1_RobustRegression_production.m
CH03_SEC05_2_LASSO.m
% 3.6 Sparse Representation
CH03_SEC06_SparseRepresentation.m
CH03_SEC06_SparseRepresentation_production.m
% 3.7 Robust PCA
CH03_SEC07_RPCA.m
【本日の内容】スパース性と圧縮センシング1
1. 最適化パッケージCVX
- インストール方法
- 簡単な紹介
2. フーリエ変換
- 時間表現と周波数表現
- 周波数表現での情報圧縮
3. スパース性と圧縮センシング
- スパース性
- ベクトルのLpノルム
- 劣決定系
- 圧縮センシング
【本日の内容】スパース性と圧縮センシング1
1. 最適化パッケージCVX
- インストール方法
- 簡単な紹介
2. フーリエ変換
- 時間表現と周波数表現
- 周波数表現での情報圧縮
3. スパース性と圧縮センシング
- スパース性
- ベクトルのLpノルム
- 劣決定系
- 圧縮センシング
準備:最適化ソルバーとしてCVXを使います 1
準備:最適化ソルバーとしてCVXを使います 1
zipファイルをダウン
ロードして解凍
準備:最適化ソルバーとしてCVXを使います 2
CVXインストールの手順
• 以下のサイトから”cvx-w64.zip”をダウンロードして、解凍しましょう。
http://cvxr.com/cvx/download/
• 解凍してできたフォルダ”cvx”を適当なディレクトリ、例えば、
ユーザー名DocumentsMatlab
の下に移動させましょう。
• MALABを起動して、先ほどの”cvx”フォルダに移動しましょう。MATLABのコマンド
プロンプトで、以下のコマンドを実行しましょう。
>> cvx_setup
分からない場合は、インストール手順の説明を参照してください。
http://web.cvxr.com/cvx/doc/install.html
準備:最適化ソルバーとしてCVXを使います 1
% L1 minimum norm solution s_L1
cvx_begin;
variable s(n);
minimize( norm(s,1) );
subject to
Theta*s == y;
cvx_end;
n
∈s 
1
1
n
i
i
s
=
= ∑s
=Θs y
Minimize
subject to
最適化する変数を定義
最適化する関数(L1ノルム)を定義
拘束条件を定義
【本日の内容】スパース性と圧縮センシング1
1. 最適化パッケージCVX
- インストール方法
- 簡単な紹介
2. フーリエ変換
- 時間表現と周波数表現
- 周波数表現での情報圧縮
3. スパース性と圧縮センシング
- スパース性
- ベクトルのLpノルム
- 劣決定系
- 圧縮センシング
時系列データの二つの表現:時間表現と周波数表現
( ) ( ) ( )
( ) ( )
0
1 2
0
1
1 2
1
sin cos sin 2 cos 2
2
sin cos
2
k k
k k
a
x t a t b t a t b t
a
a kt b kt
∞
=
∞
=
=
=+ + + + +
+ +∑ ∑

フーリエ変換
時系列データは時間表現(時間の関数)と周波数表現(正弦関数の和)の両方で表
すことができる

1−

( )x t時間表現 { } { },k ka b周波数表現
フーリエ変換
逆フーリエ変換
( ) ( )2x t x tπ+ =
ここでx(t)は周期2πの周期関数
時系列データの二つの表現:時間表現と周波数表現
( ) ( ) ( )
( ) ( )
0
1 2
0
1
1 2
1
sin cos sin 2 cos 2
2
sin cos
2
k k
k k
a
x t a t b t a t b t
a
a kt b kt
∞
=
∞
=
=
=+ + + + +
+ +∑ ∑

フーリエ変換
時系列データは時間表現(時間の関数)と周波数表現(正弦関数の和)の両方で表
すことができる
( ) ( )2x t x tπ+ =
ここでx(t)は周期2πの周期関数
= +( ) ( ) ( ) ( ) ( )
1 1
2 2
0
1
1
sin sin 2 cos cos 2
2
a b
a b
a
x t t t t t
         
         
         
         =+ +
         
         
         
         
    
  
  
+
フーリエ変換によるデータ圧縮の原理

1−

フーリエ変換
逆フーリエ変換
高周波成分( )を打ち切り16k ≥
フーリエ変換によるノイズ除去の例
CH02_SEC02_2_Denoise_production
%% create a simple signal with two frequencies
dt = .001;
t = 0:dt:1;
x = sin(2*pi*50*t) + sin(2*pi*120*t); % クリーンデータ
y = x + 2.5*randn(size(t)); % ガウスノイズを付加
%% Compute the Fast Fourier Transform FFT
N = length(t);
Y = fft(y,N); % computes the (fast) discrete Fourier transform
PSD = Y.*conj(Y)/N; % Power spectrum (how much power in each freq)
freq = 1/(dt*N)*(0:N); %create the x-axis of frequencies in Hz
L = 1:floor(N/2); % only plot the first half of freqs
%% Use the PSD to filter out noise
indices = PSD>100; % Find all freqs with large power
PSDclean = PSD.*indices; % Zero out all others
Y = indices.*Y; % zero out small Fourier coefficients in Y
yfilt = ifft(Y); % inverse FFT to get filtered time-domain signal
x: 元のデータ
y: 観測データ
Y: フーリエ級数
yfilt: フィルタデータ
ノイズ付加
フーリエ変換
逆フーリエ変換
フーリエ変換によるノイズ除去の例
CH02_SEC02_2_Denoise_production
%% create a simple signal with two frequencies
dt = .001;
t = 0:dt:1;
x = sin(2*pi*50*t) + sin(2*pi*120*t);
y = x + 2.5*randn(size(t));
%% Compute the Fast Fourier Transform FFT
N = length(t);
Y = fft(y,N);
PSD = Y.*conj(Y)/N;
freq = 1/(dt*N)*(0:N);
L = 1:floor(N/2);
%% Use the PSD to filter out noise
indices = PSD>100;
PSDclean = PSD.*indices;
Y = indices.*Y;
yfilt = ifft(Y);
二次元フーリエ変換
二次元フーリエ変換による画像圧縮
clear all, close all, clc
A = imread('../DATA/dog.jpg');
% A = imread('../../CH01_SVD/DATA/dog.jpg');
B = rgb2gray(A);
%% FFT Compression
Bt=fft2(B); % B is grayscale image from above
Btsort = sort(abs(Bt(:))); % Sort by magnitude
% Zero out all small coefficients and inverse transform
for keep=[.1 .05 .01 .002];
thresh = Btsort(floor((1-keep)*length(Btsort)));
ind = abs(Bt)>thresh; % Find small indices
Atlow = Bt.*ind; % Threshold small
indices
Alow=uint8(ifft2(Atlow)); % Compressed image
figure, imshow(Alow) % Plot Reconstruction
end
CH02_SEC06_2_Compress.m
ここで演習
以下のコードを走らせて、内容を理解してください。
• 1次元フーリエ変換によるノイズ除去
CH02_SEC02_2_Denoise_production
• 2次元フーリエ変換による画像圧縮
CH02_SEC06_2_Compress.m
スパース性(Sparsity)と情報圧縮(Compression):画像の例
スパース性(Sparsity)と情報圧縮(Compression)
スパース性(Sparsity)と情報圧縮(Compression)
元画像 対数パワー 再構成画像対数パワー
 1−
フ
ー
リ
エ
変
換
逆
フ
ー
リ
エ
変
換
打
ち
切
り
• 画像に関する情報のほとんどは対数パワーの大きな値に含まれている。
• 適切な表現(この例ではフーリエ係数)では、データは疎(スパース)である。
CH03_SEC01_Compress.m
フーリエ変換に基づく画像圧縮のMATLABコード(1/2)
CH03_SEC01_Compress.m
%% 画像の読み込みと表示
figure(1);
A = imread('jelly', 'jpeg'); % Load image
Abw = rgb2gray(A); % Convert image to grayscale
imshow(Abw); % Plot image
axis image off
%% fft2関数を用いた二次元フーリエ変換
figure(2);
At = fft2(Abw); % フーリエ変換(FFT=Fast Fourier Transform)
F = log(abs(fftshift(At))+1); % put FFT on log-scale
imshow(mat2gray(F),[]);
axis image off
元画像
フーリエ変換
(の対数をとったもの)

フーリエ変換
打ち切り:小さい係数を0に
して、大きい係数だけ残す
フーリエ変換に基づく画像圧縮のMATLABコード(2/2)
CH03_SEC01_Compress.m
%% Zero out all small coefficients and inverse transform
figure(3);
Bt = sort(abs(At(:)));
keep = 0.05;
thresh = Bt(floor((1-keep)*length(Bt)));
ind = abs(At)>thresh;
Atlow = At.*ind;
Flow = log(abs(fftshift(Atlow))+1); % put FFT on log-
scale
imshow(mat2gray(Flow),[]);
axis image off
%% Plot Reconstruction
figure(4);
Alow=uint8(ifft2(Atlow));
imshow(Alow)
axis image off
フーリエ変換の打ち切り
再構成画像
1−

逆フーリエ変換
【本日の内容】スパース性と圧縮センシング1
1. 最適化パッケージCVX
- インストール方法
- 簡単な紹介
2. フーリエ変換
- 時間表現と周波数表現
- 周波数表現での情報圧縮
3. スパース性と圧縮センシング
- スパース性
- ベクトルのLpノルム
- 劣決定系
- 圧縮センシング
スパース性(Sparsity)とLpノルム
( )2
1
2 2 22
1 22
1
n
n i
i
x xx x
=
= + + =+ ∑x 
( )1 2, , , n
nx x x= ∈x  

( )2
1
1
1
1
n pp p p pp
i
i
np
x x x x
=
 
= + ++ =  
 
∑x 
n次元ベクトル
ユークリッド距離
Lp ノルム(距離)
1
4
1=x 1∞
=x1
2
1=x
1
1=x 3
2
1=x
2
1=x 4
1=x
スパース性(Sparsity)とLpノルム:具体例の図示
( ) 2
1 2,x x= ∈x 

( )1 2,x x
( )1 2,x x
1x 1x
2x2x 2 2
1 22
xx= +x
1 21
x x= +x
( )1 2max ,x x∞
=x
2 1∞
≤ ≤x x x
観測データの生成過程と圧縮センシング
観測データ(低次元)
復元データ(高次元)
圧縮センシング
原信号(高次元)
観測データ(低次元)
生成過程
【復習】劣決定系(under-determined system)
=Ax b
, ,m nn m×
∈ ∈ ∈A x b  
A x b= A x =A =
(# 方程式) > (# 未定変数)
優決定系
(# 方程式) = (# 未定変数) (# 方程式) < (# 未定変数)
劣決定系
bx b
1−
=x A b+
=x A b
スパース解
(講義4,5でやります)逆行列擬逆行列
復習:優決定系(over-determined)と劣決定系(under-determined)
A x b= A x b=
優決定系 (# 方程式) > (# 未定変数) 劣決定系 (# 方程式) < (# 未定変数)
擬逆行列による解法(講義1)
= +
x A b
圧縮センシングによるスパース解
(本講義)
次元縮約と圧縮センシング
0L 0
ˆ arg min subject to=
s
Ψss s y C
スパース性の背後にある考え方
- 観測データは(うまく表現を選べば)低い次元から構成されている。
- したがって、適切な表現の下で、観測データに当てはまる低次元の説明変数を
見つけるべき。
0
s L0 ノルム:ゼロでない要素の数
線形方程式 を満たす解の中で、ベクトル のゼロでない要素の数を最小にす
る解を見つけよ
=y CΨs s
問題点:L0ノルムの最適化には非ゼロの要素数を全探索する必要がある。
考え方としてはよいが、実用的ではない。
解決策:L0ノルムをL1ノルムに置き換えることで、凸最適化問題として効率的に解け
る。
次元縮約と圧縮センシング
0
s L0 ノルム:ゼロでない要素の数
1
1
n
i
i
s
=
= ∑s L1 ノルム:成分の絶対値の和
1 1L
ˆ arg min subject to=
s
Ψss s y C
L1ノルム最小化問題としての圧縮センシング
スパース性(Sparsity)とLpノルム
( )2
1
2 2 22
1 22
1
n
n i
i
x xx x
=
= + + =+ ∑x 
( )1 2, , , n
nx x x= ∈x  

( )2
1
1
1
1
n pp p p pp
i
i
np
x x x x
=
 
= + ++ =  
 
∑x 
n次元ベクトル
ユークリッド距離
Lp ノルム(距離)
1
4
1=x 1∞
=x1
2
1=x
1
1=x 3
2
1=x
2
1=x 4
1=x
劣決定系の一つの解:L1 ノルム最小解
% Solve y = Theta * s for "s"
n = 1000; % dimension of s
p = 200; % number of measurements
Theta = randn(p,n);
y = randn(p,1);
% L1 minimum norm solution s_L1
cvx_begin;
variable s_L1(n);
minimize( norm(s_L1,1) );
subject to
Theta*s_L1 == y;
cvx_end;
% L2 minimum norm solution s_L2
s_L2 = pinv(Theta)*y;
L1ノルム最小解:
L2ノルム最小解:
s_L1
s_L2
CH03_SEC03_1_Underdetermined.m
1L 1
ˆ arg min subject to= =
s
s s y CΨs
2L 2
ˆ arg min subject to= =
s
s s y CΨs
劣決定系の一つの解:L1 ノルム最小解
% Solve y = Theta * s for "s"
n = 1000; % dimension of s
p = 200; % number of measurements
Theta = randn(p,n);
y = randn(p,1);
% L1 minimum norm solution s_L1
cvx_begin;
variable s_L1(n);
minimize( norm(s_L1,1) );
subject to
Theta*s_L1 == y;
cvx_end;
% L2 minimum norm solution s_L2
s_L2 = pinv(Theta)*y;
L1ノルム最小解:
- ほとんどの係数が0
- 0でない係数は大きな値をとる
L2ノルム最小解:
- ほとんどの係数は0でない
- 全体的に中庸な値を取る
s_L1
s_L2
CH03_SEC03_1_Underdetermined.m
劣決定系の一つの解:L1 ノルム最小解
CH03_SEC03_2_AudioCS.m
%% Generate signal, DCT of signal
n = 4096; % points in high resolution signal
t = linspace(0, 1, n);
x = cos(2* 97 * pi * t) + cos(2* 777 * pi * t);
xt = fft(x); % Fourier transformed signal
PSD = xt.*conj(xt)/n; % Power spectral density
%% Randomly sample signal
p = 128; % num. random samples, p=n/32
perm = round(rand(p, 1) * n);
y = x(perm); % compressed measurement
%% Solve compressed sensing problem
Psi = dct(eye(n, n)); % build Psi
Theta = Psi(perm, :); % Measure rows of Psi
% s = cosamp(Theta,y',10,1.e-10,10); % CS via matching pursuit
opts.maxiter = 10;
opts.normTol = 1.e-10;
s = CoSaMP(Theta,y',5,[],opts); % CS via matching pursuit
xrecon = idct(s); % reconstruct full signal
劣決定系の一つの解:L1 ノルム最小解
CH03_SEC03_2_AudioCS.m
>> soundsc(x)
>> soundsc(xrecon)
原信号と再構成信号を聞き比べてみよう
劣決定系の一つの解:L1 ノルム最小解
x sΨ=
==
y xC=
ス
パ
ー
ス
信
号
離
散
コ
サ
イ
ン
変
換
正
弦
波
正
弦
波
ラ
ン
ダ
ム
サ
ン
プ
リ
ン
グ
観
測
デ
ー
タ
正弦波信号の生成過程ランダムサンプリングの観測過程
劣決定系の一つの解:L1ノルム最小解
y sΘ=
=
( )Θ = CΨ
1 1L sˆ arg min ubject to= =
s
Ψss y Cs
2 2L sˆ arg min ubject to= =
s
Ψss y Cs
スパース解の例
CH03_SEC04_Matrices.m
y C
Ψ s
Θ
s
C = eye(n);
perm = randperm(n,p);
C = C(perm,:);
Psi = dct(eye(n));
s = zeros(n,1);
s(3) = 1.4;
s(14) = 0.7;
s(28) = 2.2;
= =
スパース解の例
CH03_SEC04_Matrices.m
sL2 = pinv(Theta)*y;
L2ノルム最小解 L1ノルム最小解
cvx_begin;
variable s2(n);
minimize( norm(s2,1) );
subject to
Theta*s2 == y;
cvx_end;
幾何学的考察:なぜL1ノルム最小解はスパース信号を再構成できるのか
1 1 2 2 0minimize subject top
a s a s a+ =s
二次元信号 s が直線状にあるという拘束条件の下、Lpノルムを最小化せよ。
1p ≤
2p ≥
1 20, 0s s= ≠
1 20, 0s s≠ ≠
疎(スパース)な解
密(デンス, dense)な解
圧縮センシングの数学:再構成に必要なサンプル数
• スパース性と必要な観測サンプル数
スパースな解を再構成できるためには、どれくらいの観測点が必要か?
• 圧縮センシングを特徴づける量 (N, K, P)
N: 信号ベクトル s の次元
K: s の成分のうち、K 個のみが非ゼロの値を取ること
(「K-スパース」という)
P: 観測ベクトル y の次元
• K-スパースベクトル
(2K個の自由度) = (非ゼロであるK個成分の位置) + (そのK個の値)
→ 直感的には観測ベクトルの次元Pがスパースベクトルの自由度2Kより大きければ
再構成可能
=s N
∈
=y P
∈
圧縮センシングの数学:再構成に必要なサンプル数
• スパース性と必要な観測サンプル数
スパースな解を再構成できるためには、どれくらいの観測点が必要か?
• 圧縮センシングを特徴づける量 (N, K, P)
N: 信号ベクトル s の次元
K: s の成分のうち、K 個のみが非ゼロの値を取ること
(「K-スパース」という)
P: 観測ベクトル y の次元
=s N
∈
=y P
∈
log
N
P K
K
 
 
 
 再構成の条件
観測行列の条件 Incoherence
( ) ,
, max ,j k
j k
cnµ ψ=C ΨIncoherence (定義)
• Incoherenceは、観測行列と生成行列の類似度の指標
• Incoherenceはなるべく小さく、つまり観測と生成が独立であるようにする
• 実用的には、観測行列はランダムに取るのがよい(以下参照)。
【まとめ】スパース性と圧縮センシング1
1. 最適化パッケージCVX
- インストール方法
- 簡単な紹介
2. フーリエ変換
- 時間表現と周波数表現
- 周波数表現での情報圧縮
3. スパース性と圧縮センシング
- スパース性
- ベクトルのLpノルム
- 劣決定系
- 圧縮センシング
追加説明 MATLABツールボックスの追加
オプション製品の追加インストールについて
https://jp.mathworks.com/matlabcentral/answers/114068-
手順:
MATLAB のメニューバー「ホーム」内の「アドオン」項目をクリックし、「アドオンの入手」をクリックします。
「アドオン エクスプローラー」が起動しますので、以下の手順にて追加製品の追加インストールを行います。
1. [アドオンの検索] ウィンドウで、ライセンスに関連付いている製品を検索します。
2. 製品が表示されたら、製品名上にクリックし、[サインインしてインストール] ボタンをクリックします。
3. ログイン ウィンドウ上、MathWorks Account にサインインします。
4. [インストール]ボタンをクリックし、「選択した製品をインストールするため、MATLABをシャットダウン しま
す。」メッセージが表示されたら、[続行]ボタンをクリックします。開いているMATLAB が一旦終了し、
MathWorks インストーラーが起動します。
5. インストーラ画面上、追加でインストールされる製品名が表示されますので、よかったら[次へ]ボタンをクリッ
クします。
6. ライセンス許諾文面を確認いただき、同意の[はい]を選択し、[次へ]ボタンをクリックします。
7. [確認]画面上で、製品名、インストールディレクトリを確認し、[インストール]ボタンをクリックします。
8. [インストールが完了]画面が表示されたら[終了]ボタンをクリックすると、追加インストールが完了します。
追加説明 パスの設定 (1/2)
問題:いくつかのスクリプトファイルを実行すると、”cosamp”や”padflip”などといった関数がないとい
うエラーが出ます。
解決策:これらの関数は”CODE”直下の”UTIL”フォルダにありますので、パスを通してください。MATLAB
でのパスの追加はaddpathコマンドを使います。
>> addpath (folder name)
UTILフォルダ
の場所
UTILフォルダ
の中身
追加説明 パスの設定 (2/2)
(注)ダウンロードしたままだと、ファイル名が”CoSAMP.m”となっているかもしれません。MATLABで
はファイル名と関数名が同じでないといけないので、ファイル名”CoSAMP”と関数名”CoSAMP”、もしく
はファイル名”cosamp”と関数名”cosamp”のように、統一してください。
ファイル名
関数名

More Related Content

What's hot

MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Teppei Kurita
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2
hirokazutanaka
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
Takao Yamanaka
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習Masaki Saito
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙
Satoshi Hara
 
1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
京都大学大学院情報学研究科数理工学専攻
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
matsuolab
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
Keisuke Hosaka
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 

What's hot (20)

MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアル
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙特徴選択のためのLasso解列挙
特徴選択のためのLasso解列挙
 
1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 

Similar to 東京都市大学 データ解析入門 4 スパース性と圧縮センシング1

東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
How to study stat
How to study statHow to study stat
How to study statAk Ok
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
Yoshitake Misaki
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
Kenyu Uehara
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
Ryo Nakamura
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
Tatsuya Yokota
 
linhyp.pdf
linhyp.pdflinhyp.pdf
linhyp.pdf
MuiKanarine
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
Miki Katsuragi
 
C02
C02C02
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
Yuki Shimada
 

Similar to 東京都市大学 データ解析入門 4 スパース性と圧縮センシング1 (20)

東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
How to study stat
How to study statHow to study stat
How to study stat
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
脳波信号を対象としたEPIAモデル構造に関する研究 (Study on model structure of EPIA for EEG signals)
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
ma99992006id365
ma99992006id365ma99992006id365
ma99992006id365
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
 
linhyp.pdf
linhyp.pdflinhyp.pdf
linhyp.pdf
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 
C02
C02C02
C02
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
 

More from hirokazutanaka

東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
hirokazutanaka
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
hirokazutanaka
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
hirokazutanaka
 
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
hirokazutanaka
 
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network DynamicsJAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
hirokazutanaka
 
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rulesJAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
hirokazutanaka
 
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron modelsJAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
hirokazutanaka
 
Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course) Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course)
hirokazutanaka
 
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
hirokazutanaka
 
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
hirokazutanaka
 
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
hirokazutanaka
 
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
hirokazutanaka
 
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
hirokazutanaka
 
Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)
hirokazutanaka
 

More from hirokazutanaka (14)

東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
 
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network DynamicsJAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
 
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rulesJAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
 
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron modelsJAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
 
Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course) Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course)
 
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
 
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
 
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
 
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
 
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
 
Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)
 

東京都市大学 データ解析入門 4 スパース性と圧縮センシング1