SlideShare uma empresa Scribd logo
1 de 44
Baixar para ler offline
大規模データ解析応用事例
5. スパース性と
圧縮センシング2
情報工学部 知能情報工学科 田中宏和
講義スケジュール
1. 講義概要 & MATLAB入門
2. 行列分解1:特異値分解、行列近似、最小二乗法、擬逆行列
3. 行列分解2:主成分分析、固有顔、次元打ち切り、ランダム化SVD
4. スパース性と圧縮センシング1:フーリエ変換、圧縮センシング
5. スパース性と圧縮センシング2:スパース回帰、スパース分類、RPCA
6. 回帰分析とモデル選択1:線形回帰、非線形回帰、数値最適化
7. 回帰分析とモデル選択2:モデル選択、交差検証法、情報量基準
8. クラスタリングと分類分析1:特徴抽出、クラスタリング法
9. クラスタリングと分類分析2:教師あり学習、分類分析
10. ニューラルネットワーク1:パーセプトロン、誤差逆伝播法
11. ニューラルネットワーク2:確率勾配法、深層ネットワーク
12. 発展学習:神経データ解析
スパース性と圧縮センシング2
3.1 Sparsity and Compression
3.2 Compressed Sensing
3.3 Compressed Sensing Examples
3.4 The Geometry of Compression
3.5 Sparse Regression
3.6 Sparse Representation
3.7 Robust PCA
3.8 Sparse Sensor Placement
スパース性と圧縮センシング2
% 3.1 Sparsity and Compression
CH03_SEC01_Compress.m
% 3.2 Compressed Sensing Examples
CH03_SEC03_1_Underdetermined.m
CH03_SEC03_2_AudioCS.m
CH03_SEC04_Matrices.m
% 3.5 Sparse Regression
CH03_SEC05_1_RobustRegression.m
CH03_SEC05_1_RobustRegression_production.m
CH03_SEC05_2_LASSO.m
% 3.6 Sparse Representation
CH03_SEC06_SparseRepresentation.m
CH03_SEC06_SparseRepresentation_production.m
% 3.7 Robust PCA
CH03_SEC07_RPCA.m
スパース性と圧縮センシング2
1. スパース回帰(Sparse regression)
回帰における外れ値問題と頑健性
特徴選択とLASSO回帰
2. スパース表現(Sparse representation)
スパース表現に基づく顔分類
3. ロバストPCA(Robust principal component analysis)
PCAのロバスト化
ロバストPCAによる顔画像分解
スパース回帰:回帰における外れ値の問題
最小二乗法:L2ノルム最小化に基づく線形回帰
問題点:少数の外れ値(outlier)で線形回帰の結果が大きく変わる
x = sort(4*(rand(25,1)-.5)); % Random data from [-2,2]
y = .9*x + .1*randn(size(x)); % Line y=.9x with noise
atrue = xy; % Least-squares slope (no outliers)
y(end) = -5.5; % Introduce outlier
acorrupt = xy; % New slope
x = sort(4*(rand(25,1)-.5)); % Random data from [-2,2]
y = .9*x + .1*randn(size(x)); % Line y=.9x with noise
atrue = xy; % Least-squares slope (no outliers)
y(1) = -5.5; % Introduce outlier
acorrupt = xy; % New slope
スパース回帰:回帰における外れ値の問題
L2ノルム(二乗誤差)→ 大きい誤差のデータ点(外れ値)が影響大
L1ノルム(絶対値) → 大きい誤差のデータ点(外れ値)は影響小
L1ノルム最小解は外れ値に対して頑健(ロバスト)であることが期待
スパース回帰:回帰における外れ値問題の解法
cvx_begin;
variable aL1; % aL1 is slope to be optimized
minimize( norm(aL1*x-y,1) ); % minimize L1 error
cvx_end;
1
min k k
a
ax y−
L1ノルム最小解は外れ値に対して頑健(ロバスト)である!
CH03_SEC05_1_RobustRegression_production.m
LASSO回帰:優決定系(n>m)におけるスパース回帰
2
2 1
λ− +x b xA
Least absolute shrinkage and selection operator (LASSO) 解
二乗誤差項
「データへの当てはまり度」
L1ノルム項
「解のスパース度」
• 「データへの当てはまり度」と「解のスパース度」のトレードオフ
• パラメタ λ はそのトレードオフを決める
小さいλ → データによくあてはまるが、密な解
大きいλ → 疎ではあるが、データをうまく説明しない解
• パラメタλ の値を適切に選択する必要がある → 交差検証法(クロスバリデーショ
ン)
LASSO回帰:優決定系(n>m)におけるスパース回帰
Least absolute shrinkage and selection operator (LASSO) 解
LASSOの振る舞いを調べるため、 の場合を考えてみよう。
( ){ }2 2
2 1
1
i
n
i
i
ix b xλ λ
=
+−− + =∑xx b
=A I
2
2 1
λ− +x b xA
=A I
( )
2
i i ib xx λ− +
各変数が分離されている -> 一変数の最小化問題を考えればよい。
LASSO回帰:優決定系(n>m)におけるスパース回帰
( )
( )
( )2
for
2 2
ˆ arg min 0 for
2
for
2 2
sgn
2
x
b b
x J x b
b b
b b
S bλ
λ λ
λ
λ λ
λ
+
 −


= <

+
 
= − 
=
≥
−

≤
( ) ( )
2
b xJ x x λ−= +
一変数の最小化問題
LASSO回帰:優決定系(n>m)におけるスパース回帰
( ) ( )
2
b xJ x x λ−= +
一変数の最小化問題
( )
2
2
2
2
for
4 2
min for
4 2
for
4 2
2 4
x
b b
J x b
b b
b
λ λλ
λ λ
λ λλ
λ λ
λ
+
 −


<

 − −

 
= 
≥
≤
− +
−

 
LASSO回帰:優決定系(n>m)におけるスパース回帰
( ) ( )
2
b xJ x x λ−= +
一変数の最小化問題
Least absolute shrinkage and selection operator
L1ノルムを最小化 解を縮小 非ゼロ成分を選択(疎)
ここで演習
• 一変数のLASSO解を導出してみましょう。
• スパース回帰の例
CH03_SEC05_1_RobustRegression_production.m
外れ値の値を色々変えてみて、L1ノルム最小解とL2ノルム最小解がどのように振舞
うかを調べてみましょう。
( ) ( )
2
b xJ x x λ−= +
LASSO回帰:優決定系におけるスパース回帰
A = randn(100,10); % ランダム観測行列
x = [0; 0; 1; 0; 0; 0; -1; 0; 0; 0]; % 成分3と成分7のみ非ゼロ(疎)
b = A*x + 2*randn(100,1); % 観測値
% 最小二乗解
xL2 = pinv(A)*b;
% LASSOでの解法
[XL1 FitInfo] = lasso(A,b,'CV',10); % LASSO solver
lassoPlot(XL1,FitInfo,‘PlotType’,‘CV’); % 交差検証法による汎化誤差評価
lassoPlot(XL1,FitInfo,‘PlotType’,‘Lambda’); % トレースプロット
xL1 = XL1(:,FitInfo.Index1SE); % 汎化誤差を最小化する最適解
xL1DeBiased = pinv(A(:,abs(xL1)>0))*b;
CH03_SEC05_2_LASSO.m
=Ax b
=
2L
+
=x A b
1
2
L 2 1
arg min λ= − +
x
Ax b xx
LASSO回帰:優決定系におけるスパース回帰
交差検証法(クロスバリデーション、CV)による汎化誤差の評価
・全データを訓練データとテストデータに分ける
・訓練データでモデルを構築し、テストデータで汎化誤差を評価する
(注)CVに関しては、次回「モデル選択」の講義で詳しく説明します。
訓練データ
テストデータ
K-folds
(汎化誤差)1
(汎化誤差)2
(汎化誤差)3
(汎化誤差)4
(汎化誤差)5
(汎化誤差)=
1
𝐾𝐾
∑𝑖𝑖=1
𝐾𝐾
(汎化誤差)𝑖𝑖
LASSO回帰:優決定系におけるスパース回帰
交差検証法(クロスバリデーション、CV)による評価:汎化誤差
(平均+1SD)-最小
(平均)-最小
汎
化
誤
差
λ
over-fit
under-fit
最適値
lassoPlot(XL1,FitInfo,'PlotType','CV'); % Cross-validation error
LASSO回帰:優決定系におけるスパース回帰
交差検証法(クロスバリデーション、CV)による評価:トレースプロット
(平均+1SD)-最小
(平均)-最小
lassoPlot(XL1,FitInfo,'PlotType','Lambda'); % Trace plot
ラ
ム
ダ
が
大
き
い
→
ほ
と
ん
ど
の
成
分
が
0
(
疎
)
ラ
ム
ダ
が
小
さ
い
→
ほ
と
ん
ど
の
成
分
が
非
0
(
密
)
*
*
LASSO回帰:優決定系におけるスパース回帰
LASSO解 と最小二乗解 の比較
2L
+
=x A b
1
2
L 2 1
arg min λ= − +
x
x Ax b x
1Lx 2Lx
• 正解の成分3と8は正しく求められている
• しかし0であるべき他の成分が非ゼロとなる
(密)
• 正解の成分3と8のみ非ゼロ(疎)
• 成分3と8は正解より若干小さく求められる
Least absolute shrinkage and selection operator
L1ノルムを最小化 解を縮小 非ゼロ成分を選択(疎)
成分3
成分7
ここで演習
• LASSO回帰の例
CH03_SEC05_2_LASSO.m
コードを走らせてみましょう。変数XL1, FitInfoの中身を見てみましょう。
スパース表現による分類(Sparse representation for classification)
CH03_SEC06_SparseRepresentation_production.m
%% Build Training and Test sets
Training = zeros(size(faces,1),30*20); % 20名×30枚の訓練データ
Test = zeros(size(faces,1),20*20); % 20名×20枚の訓練データ
% 20 subjects, each having 30 training and 20 test images
for k=1:20 % 20名の顔データを行列として整形する
baseind = 0;
if(k>1) baseind = sum(nfaces(1:k-1)); end
inds = baseind + (1:nfaces(k)); % indices for subject k
Training(:,(k-1)*30+1:k*30) = faces(:,inds(1:30));
Test(:,(k-1)*20+1:k*20) = faces(:,inds(31:50));
end
訓練データ(Training): 20名×30枚の顔画像
テストデータ(Test) : 20名×20枚の顔画像
顔分類問題:訓練データが与えられたとき、テストデー
タがどの被験者なのかを当てる。
データの読み込み
スパース表現による分類(Sparse representation for classification)
CH03_SEC06_SparseRepresentation_production.m
Θ辞書行列
被
験
者
1
被
験
者
2
被
験
者
3
被
験
者
7
被
験
者
2
0
スパース表現による分類(Sparse representation for classification)
「スパース表現による分類」の基本的な考え方
テストデータをなるべく少ない(疎)な成分で
フィットすることで、テストデータがどの被験
者のものかを決める
1
min subject to =
s
Θss y
1 2
min subject to − <
s
s y Θs 
%% L1 SEARCH, TESTCLEAN
b1s = Bsmall(:,1);
eps = .01;
cvx_begin;
variable a1(M);
minimize( norm(a1,1) );
subject to
norm(TrainingSmall*a1 - b1s,2) < eps;
cvx_end;
スパース表現による分類(Sparse representation for classification)
クリーン 外れ値(ヒゲ) ノイズ(Salt-and-Pepper) ノイズ(ガウシアン)
スパース表現を用いることで、外れ値やノイズに対して頑健な分類が可能になる
ロバスト主成分分析(Robust PCA)
特異値分解(復習):ランク-rの行列のうち、データ行列Xとの二乗誤差
を最小にする行列 を求めよ。
問題点:二乗誤差に基づくため、外れ値に弱い(頑健ではない)。
( ) 0,
min rank subject to+ =+
L S
L S X L S
ロバストPCAの方針: データ行列 X を、信号を表す低ランク行列 L とノ
イズを表すスパース行列 S に分解する
( ) Fs.t. rank
arg min
r=
−
X X
X X 

X
ロバスト主成分分析(Robust PCA)
( ) 0,
min rank subject to+ =+
L S
L S X L S
1, *
min subject toλ+ =+
L S
L S X L S
ロバストPCAの理想:行列Lのランクと行列SのL0ノルムを最小化したい。
ロバストPCAの評価関数:行列Lの核ノルムと行列SのL1ノルムを最小化
ランクとL0ノルムの最小化は計算量が膨大。
凸緩和(convex relaxation)
もともとの評価関数に似ている、より扱いやすい評
価関数に置き換えること
ベクトルと行列の凸緩和
・ベクトル の場合
( )0
#=s sの非ゼロ成分
1
1
n
i
i
s
=
= ∑s
n
∈s 
L0ノルム
L1ノルム
・行列 の場合
ランク ( ) ( )rank # iσ=X の非ゼロ成分
核ノルム
( )rank
*
1i
iσ
=
= ∑
X
X
L0ノルム
L1ノルム
( )0
#=X X行列 の非ゼロ成分
1
, j
i
i
jX= ∑X
n m×
∈X 
拡張ラグランジュ法(Augmented Lagrangian Multiplier (ALM) Method)
( ) ( ){ } 2
* 1 F
t, r,
2
µ
λ+ + − −= − + −Y X L S X LL S Y L S S

ロバストPCAで解くべき拘束条件付き最適化問題
1, *
min subject toλ+ =+
L S
L S X L S
(拡張)ラグランジアン
評価関数 拘束条件 拘束条件の二乗
拡張ラグランジュ法(Augmented Lagrangian Multiplier (ALM) Method)
( ) ( ){ } 2
* 1 F
t, r,
2
µ
λ+ + − −= − + −Y X L S X LL S Y L S S

(拡張)ラグランジアン
評価関数 拘束条件 拘束条件の二乗
( ) ( ) ( )
2
1
* F
, ,
2
µ
µ−
+ +− − −L X SL S Y L LY に依らない項
行列Sを固定した時の行列Lの更新式
( )1
1/SVT µ µ−
= − −X S YLSingular-value thresholding
拡張ラグランジュ法(Augmented Lagrangian Multiplier (ALM) Method)
( ) ( ){ } 2
* 1 F
t, r,
2
µ
λ+ + − −= − + −Y X L S X LL S Y L S S

(拡張)ラグランジアン
評価関数 拘束条件 拘束条件の二乗
( ) ( ) ( )1
1
2
F
, ,
2
µ
λ µ−
+ − − +−= S XL LS Y S SY に依らない項
行列Lを固定した時の行列Sの更新式
( )1
/Sλ µ µ−
−= −X L YSSoft thresholding
ロバスト主成分分析(Robust PCA)による画像ノイズ除去
% Example of low-rank matrix from CH01_SEC07_1.m
t = (-3:.01:3)';
N = length(t);
Utrue = [cos(17*t).*exp(-t.^2) sin(11*t)];
Strue = [2 0; 0 .5];
Vtrue = [sin(5*t).*exp(-t.^2) cos(13*t)];
L0 = Utrue*Strue*Vtrue';
% sparse noise of 5% density
S0 = sprandn(N,N,0.05);
% linear superposition of low-rank L0 and sparse S0
X = L0+S0;
% robust PCA
[L, S] = RPCA(X);
X 0L 0S
+=
ロバスト主成分分析(Robust PCA)による画像ノイズ除去
% Example of low-rank matrix from CH01_SEC07_1.m
t = (-3:.01:3)';
N = length(t);
Utrue = [cos(17*t).*exp(-t.^2) sin(11*t)];
Strue = [2 0; 0 .5];
Vtrue = [sin(5*t).*exp(-t.^2) cos(13*t)];
L0 = Utrue*Strue*Vtrue';
% sparse noise of 5% density
S0 = sprandn(N,N,0.05);
% linear superposition of low-rank L0 and sparse S0
X = L0+S0;
% robust PCA
[L, S] = RPCA(X);
X L S
,
RPCA
ロバスト主成分分析と特異値分解の比較(1/2)
% Example of low-rank matrix from CH01_SEC07_1.m
% t = (-3:.01:3)';
t = (-3:.05:3)';
N = length(t);
Utrue = [cos(17*t).*exp(-t.^2) sin(11*t)];
Strue = [2 0; 0 .5];
Vtrue = [sin(5*t).*exp(-t.^2) cos(13*t)];
L0 = Utrue*Strue*Vtrue';
% sparse noise of 5% density
S0 = 3*sprandn(N,N,0.05);
% linear superposition of low-rank L0 and sparse S0
X = L0+S0;
% robust PCA
[L, S] = RPCA(X);
% SVD and rank-2 reconstruction
[U1, S1, V1] = svd(X);
Xapprox = U1(:,1:2)*S1(1:2,1:2)*V1(:,1:2)';
%%
figure(1); clf;
imagesc(X); colormap(gray); axis equal off;
figure(2); clf;
imagesc(L); colormap(gray); axis equal off;
figure(3); clf;
imagesc(reshape(Xapprox,N,N)); colormap(gray); axis
equal off;
ロバスト主成分分析と特異値分解の比較(1/2)
X
% robust PCA
[L, S] = RPCA(X);
% SVD and rank-2 reconstruction
[U1, S1, V1] = svd(X);
Xapprox = ...
U1(:,1:2)*S1(1:2,1:2)*V1(:,1:2)';
L
ロバスト主成分分析(Robust PCA)による顔画像解析
load ../Data/allFaces.mat
X = faces(:,1:nfaces(1)); % 被験者1の64枚
[L,S] = RPCA(X); % ロバストPCA
CH03_SEC07_RPCA.m
function [L,S] = RPCA(X)
[n1,n2] = size(X);
mu = n1*n2/(4*sum(abs(X(:))));
lambda = 1/sqrt(max(n1,n2));
thresh = 1e-7*norm(X,'fro');
L = zeros(size(X)); % low-rank approximation
S = zeros(size(X)); % sparse noise
Y = zeros(size(X)); % Lagrange multiplier
count = 0;
while((norm(X-L-S,'fro')>thresh)&&(count<1000))
% singular-value thresholding
L = SVT(X-S+(1/mu)*Y,1/mu);
% shrinkage
S = shrink(X-L+(1/mu)*Y,lambda/mu);
Y = Y + mu*(X-L-S);
count = count + 1
end
function out = SVT(X,tau)
[U,S,V] = svd(X,'econ');
out = U*shrink(S,tau)*V';
end
function out = shrink(X,tau)
out = sign(X).*max(abs(X)-tau,0);
end
( ) ( ) ( )ax ,0sgn mS x xxλ λ= ⋅ −
① 行列Sの計算 Shrinkage
② 行列Lの計算
Singular-value thresholding
①
②
ロバスト主成分分析(Robust PCA)による顔画像解析
ロバスト主成分分析(Robust PCA)による顔画像解析
ロバストPCAにより、顔画像と照明による変動分を系統的に分離できる。
オリジナル X 低ランク近似 L スパースノイズ S
= +
ロバスト主成分分析(Robust PCA)による顔画像解析
オリジナル X
低ランク近似 L
スパースノイズS
ロバストPCAにより、顔画像と照明による変動分を系統的に分離できる。
ロバスト主成分分析(Robust PCA)による顔画像解析
PCA:外れ値(白飛び・黒潰れ)に弱いPCA:外れ値(白飛び・黒潰れ)に頑健
ロバストPCA PCA
ロバスト主成分分析(Robust PCA)による顔画像解析
オリジナル X
低ランク近似 L
スパースノイズS
• ロバスト主成分分析と特異値分解の比較の例
下記のコードのノイズ強度を変化させて、ロバストPCAとSVDの結果がどのように変化するかを見て
みましょう。
• ロバスト主成分分析による顔画像解析の例
CH03_SEC07_RPCA.m
コードを走らせてみましょう。関数RPCA, SVT, shrinkageの内容を読んでみましょう。
ここで演習
% Example of low-rank matrix from CH01_SEC07_1.m
% t = (-3:.01:3)';
t = (-3:.05:3)';
N = length(t);
Utrue = [cos(17*t).*exp(-t.^2) sin(11*t)];
Strue = [2 0; 0 .5];
Vtrue = [sin(5*t).*exp(-t.^2) cos(13*t)];
L0 = Utrue*Strue*Vtrue';
% sparse noise of 5% density
S0 = 3*sprandn(N,N,0.05);
% linear superposition of low-rank L0 and sparse S0
X = L0+S0;
% robust PCA
[L, S] = RPCA(X);
% SVD and rank-2 reconstruction
[U1, S1, V1] = svd(X);
Xapprox = U1(:,1:2)*S1(1:2,1:2)*V1(:,1:2)';
%%
figure(1); clf;
imagesc(X); colormap(gray); axis equal off;
figure(2); clf;
imagesc(L); colormap(gray); axis equal off;
figure(3); clf;
imagesc(reshape(Xapprox,N,N)); colormap(gray); axis
equal off;
RPCAコードの修正
function [L,S] = RPCA(X)
[n1,n2] = size(X);
mu = n1*n2/(4*sum(abs(X(:))));
lambda = 1/sqrt(max(n1,n2));
thresh = 1e-7*norm(X,'fro');
S = zeros(size(X));
Y = zeros(size(X));
L = zeros(size(X));
count = 0;
while((norm(X-L-
S,'fro')>thresh)&&(count<1000))
L = SVT(X-S+(1/mu)*Y,1/mu);
S = shrink(X-L+(1/mu)*Y,lambda/mu);
Y = Y + mu*(X-L-S);
count = count + 1;
end
【まとめ】スパース性と圧縮センシング2
1. スパース回帰(Sparse regression)
回帰における外れ値問題と頑健性
特徴選択とLASSO回帰
2. スパース表現(Sparse representation)
スパース表現に基づく顔分類
3. ロバストPCA(Robust principal component analysis)
PCAのロバスト化
ロバストPCAによる顔画像分解
参考文献
LASSO回帰
Tibshirani, R. (1996). Regression shrinkage and selection via the lasso. Journal of
the Royal Statistical Society: Series B (Methodological), 58(1), 267-288.
スパース表現による分類
Wright, J., Yang, A. Y., Ganesh, A., Sastry, S. S., & Ma, Y. (2008). Robust face
recognition via sparse representation. IEEE transactions on pattern analysis and
machine intelligence, 31(2), 210-227.
ロバストPCA
Candès, E. J., Li, X., Ma, Y., & Wright, J. (2011). Robust principal component
analysis?. Journal of the ACM (JACM), 58(3), 1-37.

Mais conteúdo relacionado

Mais procurados

変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 

Mais procurados (20)

計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 

Semelhante a 東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2

行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
Tomoshige Nakamura
 

Semelhante a 東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2 (20)

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
 
Prml9
Prml9Prml9
Prml9
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
東京都市大学 データ解析入門 9 クラスタリングと分類分析 2
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2東京都市大学 データ解析入門 3 行列分解 2
東京都市大学 データ解析入門 3 行列分解 2
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
主成分分析
主成分分析主成分分析
主成分分析
 
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 

Mais de hirokazutanaka

Mais de hirokazutanaka (12)

東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
JAISTサマースクール2016「脳を知るための理論」講義04 Neural Networks and Neuroscience
 
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network DynamicsJAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
JAISTサマースクール2016「脳を知るための理論」講義03 Network Dynamics
 
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rulesJAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
JAISTサマースクール2016「脳を知るための理論」講義02 Synaptic Learning rules
 
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron modelsJAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
JAISTサマースクール2016「脳を知るための理論」講義01 Single neuron models
 
Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course) Computational Motor Control: Reinforcement Learning (JAIST summer course)
Computational Motor Control: Reinforcement Learning (JAIST summer course)
 
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
Computational Motor Control: Optimal Control for Stochastic Systems (JAIST su...
 
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
Computational Motor Control: Optimal Estimation in Noisy World (JAIST summer ...
 
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
Computational Motor Control: State Space Models for Motor Adaptation (JAIST s...
 
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
Computational Motor Control: Optimal Control for Deterministic Systems (JAIST...
 
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
Computational Motor Control: Kinematics & Dynamics (JAIST summer course)
 
Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)Computational Motor Control: Introduction (JAIST summer course)
Computational Motor Control: Introduction (JAIST summer course)
 

東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2