SlideShare uma empresa Scribd logo
1 de 26
Baixar para ler offline
An Inverse Power Method for
Nonlinear
Eigenproblems with Applications in
1-Spectral Clustering and Sparse PCA
NIPS 2010, 1133
                              江原 遥
                               @niam
                               12/26


                                   1
全体の流れ
                                選んだ理由:
                                •行列やグラフの話が俯瞰できそう?
• 応用としての目的                      •逆べき乗法だからAlgorithmは複雑
                                じゃないだろう.
   – p-Laplacian法というGraph-cutの方法ではp=1に
     近い方が経験的に良いので効率的な解法欲しい
   – PCAで最大固有ベクトルをSparseにしたい
通常(p=2)どちらもIPM(逆べき乗法)を使用して行
  列の固有値/固有ベクトルを用いる方法で解かれる.
1. 固有値問題自体を一回非線形(p>=1)に拡張する
2. IPMを非線形な場合の固有値問題に拡張
3. 拡張したIPMでこの2つの問題を解く
All proofs had to be omitted due to space restrictions and
    can be found in the supplementary material.
                                                             2
ベキ乗法 (Power Method)

(半正定値)対称行列Aの最大固有値/ベクトル
xk+1 =Axk
を繰り返すと,xkは最大固有値に対応する固有
  ベクトルの定数倍に近づく.理由:




                      3
Courant-Fischerの定理


                                                                         (2)
                                                            レイリー商.
                                                            Courant-Fischerの
                                                            定理は,
                                                            固有値・固有ベクトル
                                                            をレイリー商との
                                                            関係から説明する
                                                            定理.




http://www.math.meiji.ac.jp/~mk/labo/text/generalized-eigenvalue-
problem/node16.html
                                                                        4
レイリー商の非線形拡張
               (2)              (3)

                        関数R,Sに必要な条件を列挙してやる
A:対称n x n
f∈Rn
                        凸 (convex)
            vが固有ベクトル
            ⇒α∈R, αvも
                        偶関数 (even)
            固有ベクトル.     p-homogeneous   あるpに対して
                        S(f)=0 ⇔ f=0
                        Lipschitz連続     なら関数Gは
                                        p-homogeneous.

                        微分不可能な点を含む場合が
                        あってもよい.
                        Lipschitz連続は微分不可能な点が
                        高々測度0であることに使われる.
                        (Rademacherの定理)     5
固有値問題の非線形拡張
        (2)




                  と,おく.



R,Sがquadratic functionなら,通常の(1)の場合に帰着.


簡単に確かめる:R(f)=<f,Bf>, S(f)=<f,Cf>
Bf – λCf = 0⇒Bf=λCf⇒A=C-1Bとおけば(1)
C-1が存在しない⇒f!=0かつ<f,Cf>=0であるようなfが存在する⇒S(f)=0⇔f=0に反す

Fが微分可能なら∇は普通の微分だと思って良い.
Fが微分不可能な点を含む場合,一般化微分を使う.
                                                6
一般化微分 (general differential)

Fがnonconvex, nondifferentialな場合に微分の
 概念を拡張.



Fがconvexの時は,∂Fは劣微分,F0は方向微分
 と一致.




                                  7
Theorem 2.2




通常の線形代数の場合で考えると,
fがF=R(f)/S(f)のcritical point⇔∇F(f)=0
⇔∇(<f,Af>)-λ∇(<f,f>)=0, λ=R(f)/S(f)
⇔Af-λf=0, λ=<f,Af>/<f,f>
定義より,fはAの固有ベクトルで,λがAの固有値.

定理2.2は,一般の場合でも,⇔が⇒なら成り立つよ,さらにSが連続微分可能
なら,⇔が保たれるよ,と言っている.

                                       8
ベキ乗法 (Power Method)

半正定値対称行列Aの最大固有値/ベクトル
xk+1 =Axk
を繰り返すと,xkは最大固有値に対応する固有
  ベクトルの定数倍に近づく.理由:




                       9
Inverse Power Method
Inverse Power Method(逆べき乗法):半正定値対称行列Aの最
小固有値に対応する固有ベクトルを求める方法.


を,fが収束するまで繰り返す.
つまり,各kで次の最適化問題を解くことに相当.


これを一般化すると,




                                    10
Algorithm 1



                                 そうしないと発散してしまう.
                                 2-norm以外でもよい.




necessary to guarantee descent




                                                  11
inner optimization problem (p=1)




                   inner optimization problem
                   •s(fk)をどうやって見つける?
                   •早く解きたい.
                   1-Laplacianの場合は凸性は保たれる
                   ので普通に解いてもよいが,
                   双対問題を考えるともっと効率的.
p>1はこの論文では直接使わ     sparse PCAの場合は,解析解で出る.
ないが,悔しいから書かれて
いるだけなので,省略.

                                        12
収束証明
       更新すると必ず小さい固有値に近づき良くなりますよ.



       Algorithm 1は,下の(5)式のλ*に近づきますよ.




                                        13
Application2: sparse PCA
 データ行列Xに対して,通常のPCAで第一主成分fを求めるとは:



 これは,次の問題と同じ:

目的としては,f*をsparseにしたい.そのためには,1-normの項を導入して,




とし,これに対して,前述のIPMを適用すれば良い.


   論文ではApplication 1(p-Laplacian)とApplication 2(PCA)の順だが,
   Applicaiton2の方がstraight-forwardなので,


                                                            14
再掲:Algorithm 1




                 inner optimization problem




                                              15
Algorithm 4: Sparse PCA




4.でinner optimization problemが閉形式で解けるのがミソ




                                            16
Application 1: p-Laplacian, Graph-
cut
いわゆる普通のGraph laplacian (2-Laplacian)
                  =1/2 fT (D-W) f
                          graph Laplacian
各エッジの重要度×(エッジの両端のノードのスコアの差)2
重要なエッジの両端のスコアは極端に違わないよう
 にして欲しい.通常は,この問題のsecond
 eigenvector (2番目に小さい固有値に対応する固有
 ベクトル)を求め,fとする.(最小固有値=0だから)
p-Laplacian:

                                            17
Cheeger cut
頂点集合がV,weight matrixがWであるようなグラフGの頂点を2つに分け
る.




とすると,h_RCCは次のように書けることが知られている.




                       1-Laplacian



                                       18
提案する問題




つまり,この問題の固有ベクトルはmedian zeroという特性をも
 つ.一方,この問題のsecond eigenvectorはh_RCCに一致する
 が,second eigenvectorを直接求めることは出来ない.
(線形じゃないからGram-Schmidtのようなことが出来ないため?
そこで, Algorithm 1でmedian zero という条件を満たしながら更
 新していくアルゴリズムを提案し,収束を証明する.

                                       19
再掲:Algorithm 1




                 20
Algorithm 3



                 median 0 なので,medianの分を引く
                          vはs(f)に相当.medianを引いても
                          4.の目的関数の値が保たれるように
                                    をみたすように更新



RCCに関して通常のp=2のLaplacianを使った方法より必ず良いことが証明
できる.




                                            21
実験 – Graph cut
two-moonsをどれだけ上手くGraph-cutで分けられるか.




1-Laplacian      2-Laplacian


2000点からなるtwo-moonsを100回描画したときの性能:




                                     22
実験 – Graph-cut 2


で,K=10になるところでGraph-cutした結果,




                              23
実験 – Sparse PCA




3つのData Setでcadinality (非零の要素の数)
 を増やしたときに説明される分散の値.


                               24
まとめ
やりたかったこと:
行列操作による典型的な2つの問題,Graph-cutと
 PCAの第一主成分についてSparse(p=1に近い)解
 を得たい.
 前者はそうすると性能が上がることが経験的に知られてい
  るから.後者は解釈しやすくなるから.
個々の問題でSparseにする方法は色々提案されてい
 るが,元の固有値問題を一般化してp=1の場合を考
 え,IPMも一般化すると両方の問題に対して収束性
 が示された良いアルゴリズムが一気に得られるよ.

                            25
ご清澄ありがとうございました




                 26

Mais conteúdo relacionado

Mais procurados

情報幾何学の基礎 第2章 4.5
情報幾何学の基礎 第2章 4.5情報幾何学の基礎 第2章 4.5
情報幾何学の基礎 第2章 4.5Tatsuki SHIMIZU
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Daiki Shimada
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
非正格関数に対して適用可能な融合変換
非正格関数に対して適用可能な融合変換非正格関数に対して適用可能な融合変換
非正格関数に対して適用可能な融合変換Masahiro Sakai
 
オペアンプにてLTspiceの標準回路図シンボルを採用する場合
オペアンプにてLTspiceの標準回路図シンボルを採用する場合オペアンプにてLTspiceの標準回路図シンボルを採用する場合
オペアンプにてLTspiceの標準回路図シンボルを採用する場合Tsuyoshi Horigome
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
私を SKI に連れてって
私を SKI に連れてって私を SKI に連れてって
私を SKI に連れてってSusisu
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...Yuya Masumura
 
Vanderbiltの擬ポテンシャル
Vanderbiltの擬ポテンシャルVanderbiltの擬ポテンシャル
Vanderbiltの擬ポテンシャルdc1394
 
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4Yoshinari Fujinuma
 
Introduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemNaoya Ito
 

Mais procurados (20)

情報幾何学の基礎 第2章 4.5
情報幾何学の基礎 第2章 4.5情報幾何学の基礎 第2章 4.5
情報幾何学の基礎 第2章 4.5
 
Prml14 5
Prml14 5Prml14 5
Prml14 5
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
ロマ数16 simizut
ロマ数16 simizutロマ数16 simizut
ロマ数16 simizut
 
連結と閉包
連結と閉包連結と閉包
連結と閉包
 
Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
非正格関数に対して適用可能な融合変換
非正格関数に対して適用可能な融合変換非正格関数に対して適用可能な融合変換
非正格関数に対して適用可能な融合変換
 
オペアンプにてLTspiceの標準回路図シンボルを採用する場合
オペアンプにてLTspiceの標準回路図シンボルを採用する場合オペアンプにてLTspiceの標準回路図シンボルを採用する場合
オペアンプにてLTspiceの標準回路図シンボルを採用する場合
 
カーネル法
カーネル法カーネル法
カーネル法
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
私を SKI に連れてって
私を SKI に連れてって私を SKI に連れてって
私を SKI に連れてって
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
Vanderbiltの擬ポテンシャル
Vanderbiltの擬ポテンシャルVanderbiltの擬ポテンシャル
Vanderbiltの擬ポテンシャル
 
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
 
Introduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths Problem
 

Destaque

Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16Yo Ehara
 
Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Yo Ehara
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903Yo Ehara
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰Yo Ehara
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングYo Ehara
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning SurveyYo Ehara
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagationYo Ehara
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo AfricaYo Ehara
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会Yo Ehara
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 

Destaque (11)

Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16
 
Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリング
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning Survey
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagation
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo Africa
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 

Semelhante a Nips yomikai 1226

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke HoriiSuurist
 
Boundary Conditions in OpenFOAM
Boundary Conditions in OpenFOAMBoundary Conditions in OpenFOAM
Boundary Conditions in OpenFOAMFumiya Nozaki
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方wada, kazumi
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2Hiroyuki Kato
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2Computational Materials Science Initiative
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場Daisuke Yoneoka
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 

Semelhante a Nips yomikai 1226 (20)

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
 
Boundary Conditions in OpenFOAM
Boundary Conditions in OpenFOAMBoundary Conditions in OpenFOAM
Boundary Conditions in OpenFOAM
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
Haskell
HaskellHaskell
Haskell
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
What if ch11
What if ch11What if ch11
What if ch11
 
Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方Rでの対称行列の固有値・固有ベクトルの最適な求め方
Rでの対称行列の固有値・固有ベクトルの最適な求め方
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
Icp3.2 takmin
Icp3.2 takminIcp3.2 takmin
Icp3.2 takmin
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A(11) 行列計算における高速アルゴリズム2
 
第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場第四回統計学勉強会@東大駒場
第四回統計学勉強会@東大駒場
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 

Nips yomikai 1226

  • 1. An Inverse Power Method for Nonlinear Eigenproblems with Applications in 1-Spectral Clustering and Sparse PCA NIPS 2010, 1133 江原 遥 @niam 12/26 1
  • 2. 全体の流れ 選んだ理由: •行列やグラフの話が俯瞰できそう? • 応用としての目的 •逆べき乗法だからAlgorithmは複雑 じゃないだろう. – p-Laplacian法というGraph-cutの方法ではp=1に 近い方が経験的に良いので効率的な解法欲しい – PCAで最大固有ベクトルをSparseにしたい 通常(p=2)どちらもIPM(逆べき乗法)を使用して行 列の固有値/固有ベクトルを用いる方法で解かれる. 1. 固有値問題自体を一回非線形(p>=1)に拡張する 2. IPMを非線形な場合の固有値問題に拡張 3. 拡張したIPMでこの2つの問題を解く All proofs had to be omitted due to space restrictions and can be found in the supplementary material. 2
  • 3. ベキ乗法 (Power Method) (半正定値)対称行列Aの最大固有値/ベクトル xk+1 =Axk を繰り返すと,xkは最大固有値に対応する固有 ベクトルの定数倍に近づく.理由: 3
  • 4. Courant-Fischerの定理 (2) レイリー商. Courant-Fischerの 定理は, 固有値・固有ベクトル をレイリー商との 関係から説明する 定理. http://www.math.meiji.ac.jp/~mk/labo/text/generalized-eigenvalue- problem/node16.html 4
  • 5. レイリー商の非線形拡張 (2) (3) 関数R,Sに必要な条件を列挙してやる A:対称n x n f∈Rn 凸 (convex) vが固有ベクトル ⇒α∈R, αvも 偶関数 (even) 固有ベクトル. p-homogeneous あるpに対して S(f)=0 ⇔ f=0 Lipschitz連続 なら関数Gは p-homogeneous. 微分不可能な点を含む場合が あってもよい. Lipschitz連続は微分不可能な点が 高々測度0であることに使われる. (Rademacherの定理) 5
  • 6. 固有値問題の非線形拡張 (2) と,おく. R,Sがquadratic functionなら,通常の(1)の場合に帰着. 簡単に確かめる:R(f)=<f,Bf>, S(f)=<f,Cf> Bf – λCf = 0⇒Bf=λCf⇒A=C-1Bとおけば(1) C-1が存在しない⇒f!=0かつ<f,Cf>=0であるようなfが存在する⇒S(f)=0⇔f=0に反す Fが微分可能なら∇は普通の微分だと思って良い. Fが微分不可能な点を含む場合,一般化微分を使う. 6
  • 7. 一般化微分 (general differential) Fがnonconvex, nondifferentialな場合に微分の 概念を拡張. Fがconvexの時は,∂Fは劣微分,F0は方向微分 と一致. 7
  • 8. Theorem 2.2 通常の線形代数の場合で考えると, fがF=R(f)/S(f)のcritical point⇔∇F(f)=0 ⇔∇(<f,Af>)-λ∇(<f,f>)=0, λ=R(f)/S(f) ⇔Af-λf=0, λ=<f,Af>/<f,f> 定義より,fはAの固有ベクトルで,λがAの固有値. 定理2.2は,一般の場合でも,⇔が⇒なら成り立つよ,さらにSが連続微分可能 なら,⇔が保たれるよ,と言っている. 8
  • 9. ベキ乗法 (Power Method) 半正定値対称行列Aの最大固有値/ベクトル xk+1 =Axk を繰り返すと,xkは最大固有値に対応する固有 ベクトルの定数倍に近づく.理由: 9
  • 10. Inverse Power Method Inverse Power Method(逆べき乗法):半正定値対称行列Aの最 小固有値に対応する固有ベクトルを求める方法. を,fが収束するまで繰り返す. つまり,各kで次の最適化問題を解くことに相当. これを一般化すると, 10
  • 11. Algorithm 1 そうしないと発散してしまう. 2-norm以外でもよい. necessary to guarantee descent 11
  • 12. inner optimization problem (p=1) inner optimization problem •s(fk)をどうやって見つける? •早く解きたい. 1-Laplacianの場合は凸性は保たれる ので普通に解いてもよいが, 双対問題を考えるともっと効率的. p>1はこの論文では直接使わ sparse PCAの場合は,解析解で出る. ないが,悔しいから書かれて いるだけなので,省略. 12
  • 13. 収束証明 更新すると必ず小さい固有値に近づき良くなりますよ. Algorithm 1は,下の(5)式のλ*に近づきますよ. 13
  • 14. Application2: sparse PCA データ行列Xに対して,通常のPCAで第一主成分fを求めるとは: これは,次の問題と同じ: 目的としては,f*をsparseにしたい.そのためには,1-normの項を導入して, とし,これに対して,前述のIPMを適用すれば良い. 論文ではApplication 1(p-Laplacian)とApplication 2(PCA)の順だが, Applicaiton2の方がstraight-forwardなので, 14
  • 15. 再掲:Algorithm 1 inner optimization problem 15
  • 16. Algorithm 4: Sparse PCA 4.でinner optimization problemが閉形式で解けるのがミソ 16
  • 17. Application 1: p-Laplacian, Graph- cut いわゆる普通のGraph laplacian (2-Laplacian) =1/2 fT (D-W) f graph Laplacian 各エッジの重要度×(エッジの両端のノードのスコアの差)2 重要なエッジの両端のスコアは極端に違わないよう にして欲しい.通常は,この問題のsecond eigenvector (2番目に小さい固有値に対応する固有 ベクトル)を求め,fとする.(最小固有値=0だから) p-Laplacian: 17
  • 19. 提案する問題 つまり,この問題の固有ベクトルはmedian zeroという特性をも つ.一方,この問題のsecond eigenvectorはh_RCCに一致する が,second eigenvectorを直接求めることは出来ない. (線形じゃないからGram-Schmidtのようなことが出来ないため? そこで, Algorithm 1でmedian zero という条件を満たしながら更 新していくアルゴリズムを提案し,収束を証明する. 19
  • 21. Algorithm 3 median 0 なので,medianの分を引く vはs(f)に相当.medianを引いても 4.の目的関数の値が保たれるように をみたすように更新 RCCに関して通常のp=2のLaplacianを使った方法より必ず良いことが証明 できる. 21
  • 22. 実験 – Graph cut two-moonsをどれだけ上手くGraph-cutで分けられるか. 1-Laplacian 2-Laplacian 2000点からなるtwo-moonsを100回描画したときの性能: 22
  • 23. 実験 – Graph-cut 2 で,K=10になるところでGraph-cutした結果, 23
  • 24. 実験 – Sparse PCA 3つのData Setでcadinality (非零の要素の数) を増やしたときに説明される分散の値. 24
  • 25. まとめ やりたかったこと: 行列操作による典型的な2つの問題,Graph-cutと PCAの第一主成分についてSparse(p=1に近い)解 を得たい. 前者はそうすると性能が上がることが経験的に知られてい るから.後者は解釈しやすくなるから. 個々の問題でSparseにする方法は色々提案されてい るが,元の固有値問題を一般化してp=1の場合を考 え,IPMも一般化すると両方の問題に対して収束性 が示された良いアルゴリズムが一気に得られるよ. 25