SlideShare uma empresa Scribd logo
1 de 15
Baixar para ler offline
第12回「はじめてのパターン認識」読書会
9.5 カーネル主成分分析
9.6 カーネル部分空間法
2014/2/18(火)

@Prunus1350
9.5 カーネル主成分分析
9.5 カーネル主成分分析
• 学習データ

𝒙 𝑖 ∈ ℛ 𝑑 (𝑖 = 1, ⋯ , 𝑁) を入力空間より次元の大きな 𝑀 次元
非線形特徴空間に写像して、そこで主成分分析を行う。

• うまく非線形写像

𝝋 を選べば、識別能力が上がる。(かもしれない)

• もし、「非線形特徴ベクトルの平均が
1
𝑪=
𝑁

𝟎 」ならば、共分散行列は

𝑁

𝝋(𝒙 𝑖 ) 𝝋(𝒙 𝑖 ) 𝑇
𝑖=1

となり、固有値問題を解けば非線形特徴空間の固有値と固有ベクト
ルが求まり、入力空間で行ったのと同様の方法で主成分分析ができ
る。
9.5 カーネル主成分分析
• 問題点
•

非線形特徴変換を行っているので、非線形特徴ベクトルの平均が 𝟎 になること
1
𝑁

𝑁

𝝋(𝒙 𝑖 ) = 𝟎
𝑖=1

が保証されない。
⇒ 各特徴ベクトル 𝝋(𝒙 𝑖 ) から平均ベクトルを引いてしまえば中心化できる。
𝝋 𝒙𝑖 = 𝝋 𝒙𝑖 −

•

1
𝑁

𝑁

𝝋(𝒙 𝑗 )
𝑗=1

高次元での計算は大変。
⇒ カーネル法を用いることにより 𝑑 次元空間での計算で、高次元非線形特徴
空間における主成分を得ることができる。
(非線形特徴変換後に中心化してもカーネルトリックは使える?)
9.5 カーネル主成分分析
• 平均を
•

𝟎 にした 𝑁 × 𝑁 グラム行列 𝑲 𝑿, 𝑿 の 𝑛, 𝑘 要素は、

𝐾 𝒙 𝑛, 𝒙 𝑘 = 𝝋 𝒙 𝑛
=

=

𝑇

𝝋 𝒙𝑘

𝝋 𝒙𝑛 −

𝑇

𝝋 𝒙𝑛

= 𝝋 𝒙𝑛

= 𝝋 𝒙𝑛

𝑇

𝑇

1
𝑁

−

𝝋(𝒙 𝑗 )

𝝋 𝒙𝑘 −

𝑗=1

1
𝑁

𝝋 𝒙𝑘

𝝋 𝒙𝑘

= 𝐾 𝒙 𝑛, 𝒙 𝑘

𝑇

𝑁

1
−
𝑁

1
𝑁

𝑁

𝝋(𝒙 𝑗 ) 𝑇

𝝋 𝒙𝑘 −

𝑗=1

1
−
𝑁
1
−
𝑁

𝝋 𝒙𝑘

𝑗=1
𝑁

𝝋 𝒙𝑗

𝑇

𝝋 𝒙𝑘

𝑗=1

𝑁

𝐾 𝒙𝑗, 𝒙 𝑘
𝑗=1

𝑇

1
−
𝑁

𝑁

𝑙=1

𝝋(𝒙 𝑙 )
𝑙=1

1
𝑁

𝑁

𝝋 𝒙𝑗

𝑁

𝑁

𝝋(𝒙 𝑙 )
𝑙=1

1
−
𝝋 𝒙𝑛
𝑁

1
−
𝑁

𝑁
𝑇
𝑙=1

𝑁

𝝋 𝒙𝑛
𝑙=1

1
𝐾 𝒙 𝑛, 𝒙 𝑙 + 2
𝑁

𝑇

1
𝝋 𝒙𝑙 + 2
𝑁

1
𝝋 𝒙𝑙 + 2
𝑁
𝑁

𝑁

𝑁

𝑗=1

𝝋 𝒙𝑙
𝑙=1

𝑁

𝑗=1 𝑙=1

𝐾 𝒙𝑗, 𝒙 𝑙

𝑇

𝝋 𝒙𝑗

𝝋 𝒙𝑗

𝑁

𝑗=1 𝑙=1

𝑁

𝑇

𝝋 𝒙𝑙
9.5 カーネル主成分分析

•

𝐾(𝒙 𝑛 , 𝒙 𝑘 ) は 𝐾 𝒙 𝑖 , 𝒙 𝑗 (𝑖, 𝑗 = 1, ⋯ , 𝑁) を用いて表現できることが分かっ
た。

•

⇒カーネルトリックが使えて、𝑑 次元空間での計算で 𝑀 次元非線形特徴空間の
内積を評価できる。
9.5 カーネル主成分分析

• 非線形変換と中心化を行った学習データを
𝑿𝜑=

𝝋 𝒙1 , ⋯ , 𝝋 𝒙 𝑁

∈ 𝑀 𝑀×𝑁 (ℛ)

とする。

• 特異値分解により
•

𝑿 𝜑 = 𝑼𝜦𝑽 𝑇 と分解できる。

𝑼 = 𝑿 𝜑 𝑽𝜦−1 と変形できるので、
9.5 カーネル主成分分析
𝒖1 , ⋯ , 𝒖 𝑟 = 𝑿 𝝋 𝒗1 , ⋯ , 𝒗 𝑟 𝜦−1
1

•

λ1

=

=

𝑿 𝝋 𝒗1 , ⋯ , 𝑿 𝝋 𝒗 𝑟

1
λ1

𝑿 𝝋 𝒗1 , ⋯ ,

• よって、 𝑖 番目の要素は

1
λ𝑟

𝒖𝑖 =

⋮
0

⋯

0

⋱
⋯

⋮

𝑿 𝝋 𝒗𝑟
1
λ𝑖

𝑿 𝝋 𝒗𝑖

1
λ𝑟
9.5 カーネル主成分分析
• 非線形変換と中心化を行った特徴ベクトル
𝑇

𝒖𝑖 𝝋 𝒙 =

•

=

=

•

𝑇

1
λ𝑖

𝑿 𝝋 𝒗𝑖

1
λ𝑖

1
λ𝑖

𝒗𝑖 𝑇

𝒗𝑖

𝑇

𝝋 𝒙 =

𝝋 𝒙1
⋮
𝝋 𝒙𝑁

1
λ𝑖

𝒗𝑖 𝑇 𝑿 𝝋 𝑇 𝝋 𝒙

𝑇

𝝋 𝒙 =
𝑇

𝐾 𝒙1 , 𝒙
⋮
𝐾 𝒙 𝑁, 𝒙

=

𝝋 𝒙 の 𝒖 𝑖 方向への射影は

1
λ𝑖

1
λ𝑖

𝒗𝑖 𝑇

𝑇

𝝋 𝒙1

𝝋 𝒙

𝑇

𝝋 𝒙

⋮
𝝋 𝒙𝑁

𝒗 𝑖 𝑇 𝑲(𝑿, 𝒙)

𝑑 次元空間での内積カーネル計算と 𝑟 回の 𝑁 次元ベクトルの内積計算
で、すべての基底方向への射影を求めることができる。
9.6 カーネル部分空間法
9.6 カーネル部分空間法
• CLAFIC法も、内積カーネルを用いた非線形特徴空間内の部分空間法へ
拡張できる。

• クラス 𝑖 (𝑖 = 1, ⋯ ,
•

•

𝐾) の学習データを 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) とする。

𝑁 𝑖 :クラス 𝑖 のデータ数, 𝑁 =

𝐾
𝑖=1

𝑁𝑖

𝑖 番目のクラスのデータ 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) は、非線形特徴写像に
より 𝑿 𝑖𝝋 =

•

𝝋 𝒙 𝑖1 , 𝝋 𝒙 𝑖2 , ⋯ , 𝝋 𝒙 𝑖𝑁 𝑖

に変換される。

CLAFIC法では相関行列を使うので、 𝑿 𝑖𝝋 が中心化されている必要はない。
9.6 カーネル部分空間法
•
•

𝑿 𝑖𝝋 ∈ 𝑀 𝑀,𝑁 ℛ より、 𝑟𝑖 ≔ rank(𝑿 𝑖𝝋 ) ≤ min(𝑀, 𝑁)
𝑿 𝑖𝝋 の特異値分解は次のように書ける。

𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇
λ 𝑖1

•

=

𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖

0

⋯

0
⋮

λ 𝑖2
⋮

⋯
⋱

0

•

ここで、固有値 λ 𝑖1 ≥ λ 𝑖2 ≥ ⋯ ≥ λ 𝑖𝑑 𝑖 ≥ ⋯ ≥ λ 𝑖𝑟 𝑖 ≥ 0

0
λ 𝑖𝑑 𝑖
⋮
0

⋯
⋱
⋯

0
⋮
λ 𝑖𝑟 𝑖

𝒗 𝑖1 𝑇
𝒗 𝑖2 𝑇
⋮
𝒗 𝑖𝑑 𝑖 𝑇
⋮
𝒗 𝑖𝑟 𝑖 𝑇
9.6 カーネル部分空間法
•

大きい方から 𝑑 𝑖 個の固有値によって 𝑲 𝑿 𝑖 , 𝑿 𝑖 = 𝑿 𝑖𝜑 𝑇 𝑿 𝑖𝜑 のクラス忠実度が
満たされるとする。
𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇

λ 𝑖1

•

=

𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖

0

⋯

0
⋮

λ 𝑖2
⋮

⋯
⋱

0

•

0
λ 𝑖𝑑 𝑖
⋮
0

𝑑 𝑖 次元の非線形部分空間は青枠内の要素で記述できる。

⋯
⋱
⋯

0
⋮
λ 𝑖𝑟 𝑖

𝒗 𝑖1 𝑇
𝒗 𝑖2 𝑇
⋮
𝒗 𝑖𝑑 𝑖 𝑇
⋮
𝒗 𝑖𝑟 𝑖 𝑇
9.6 カーネル部分空間法
𝑙𝑖

2

𝒙 =
=

•

≈
=

•

𝑑𝑖
𝑗=1

𝑇

𝒖 𝑖𝑗 𝝋 𝒙

𝑇

𝑼𝑖 𝝋 𝒙
𝜦𝑖
𝜦𝑖

−1
−1

2

(∵ ピタゴラスの定理)

2

𝑇

2

𝑇

𝑽 𝑖 𝑿 𝑖𝜑 𝝋 𝒙
𝑇

𝑽 𝑖 𝑲 𝑿 𝑖, 𝒙

2

内積カーネルの計算と、𝑁 𝑖 次元ベクトルの内積計算で射影の長さの2乗が得られ
る。

• 識別規則は、
•
•

識別クラス = arg max 𝑙 𝑖 2 𝒙
𝑖

(𝑖 = 1, ⋯ , 𝐾) となる。

リジェクトは9.4節と同様に行えばよい。
ご清聴ありがとうございました。

Mais conteúdo relacionado

Mais procurados

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
tetsuro ito
 
第5回パターン認識勉強会
第5回パターン認識勉強会第5回パターン認識勉強会
第5回パターン認識勉強会
Yohei Sato
 
はじめてのパターン認識4章後編
はじめてのパターン認識4章後編はじめてのパターン認識4章後編
はじめてのパターン認識4章後編
Tanaka Hidenori
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
 

Mais procurados (20)

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
第5回パターン認識勉強会
第5回パターン認識勉強会第5回パターン認識勉強会
第5回パターン認識勉強会
 
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
パーセプトロン型学習規則
パーセプトロン型学習規則パーセプトロン型学習規則
パーセプトロン型学習規則
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
はじめてのパターン認識4章後編
はじめてのパターン認識4章後編はじめてのパターン認識4章後編
はじめてのパターン認識4章後編
 
Icml2018読み会_overview&GANs
Icml2018読み会_overview&GANsIcml2018読み会_overview&GANs
Icml2018読み会_overview&GANs
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 

Mais de Prunus 1350

Rで学ぶデータマイニングI 第8章〜第13章
Rで学ぶデータマイニングI 第8章〜第13章Rで学ぶデータマイニングI 第8章〜第13章
Rで学ぶデータマイニングI 第8章〜第13章
Prunus 1350
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)
Prunus 1350
 

Mais de Prunus 1350 (10)

SAS University EditionでもJupyter Notebookが使えるようになった話
SAS University EditionでもJupyter Notebookが使えるようになった話SAS University EditionでもJupyter Notebookが使えるようになった話
SAS University EditionでもJupyter Notebookが使えるようになった話
 
統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半統計的学習の基礎 第2章後半
統計的学習の基礎 第2章後半
 
Rで学ぶデータマイニングI 第8章〜第13章
Rで学ぶデータマイニングI 第8章〜第13章Rで学ぶデータマイニングI 第8章〜第13章
Rで学ぶデータマイニングI 第8章〜第13章
 
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
 
TokyoR 第36回LT Rで部分空間法
TokyoR 第36回LT Rで部分空間法TokyoR 第36回LT Rで部分空間法
TokyoR 第36回LT Rで部分空間法
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
 
集合知プログラミング 第4章 4.7
集合知プログラミング 第4章 4.7集合知プログラミング 第4章 4.7
集合知プログラミング 第4章 4.7
 
スティーヴ・ライヒを聴こう
スティーヴ・ライヒを聴こうスティーヴ・ライヒを聴こう
スティーヴ・ライヒを聴こう
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)
 

Último

Último (6)

東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 

はじめてのパターン認識 第9章 9.5-9.6

  • 3. 9.5 カーネル主成分分析 • 学習データ 𝒙 𝑖 ∈ ℛ 𝑑 (𝑖 = 1, ⋯ , 𝑁) を入力空間より次元の大きな 𝑀 次元 非線形特徴空間に写像して、そこで主成分分析を行う。 • うまく非線形写像 𝝋 を選べば、識別能力が上がる。(かもしれない) • もし、「非線形特徴ベクトルの平均が 1 𝑪= 𝑁 𝟎 」ならば、共分散行列は 𝑁 𝝋(𝒙 𝑖 ) 𝝋(𝒙 𝑖 ) 𝑇 𝑖=1 となり、固有値問題を解けば非線形特徴空間の固有値と固有ベクト ルが求まり、入力空間で行ったのと同様の方法で主成分分析ができ る。
  • 4. 9.5 カーネル主成分分析 • 問題点 • 非線形特徴変換を行っているので、非線形特徴ベクトルの平均が 𝟎 になること 1 𝑁 𝑁 𝝋(𝒙 𝑖 ) = 𝟎 𝑖=1 が保証されない。 ⇒ 各特徴ベクトル 𝝋(𝒙 𝑖 ) から平均ベクトルを引いてしまえば中心化できる。 𝝋 𝒙𝑖 = 𝝋 𝒙𝑖 − • 1 𝑁 𝑁 𝝋(𝒙 𝑗 ) 𝑗=1 高次元での計算は大変。 ⇒ カーネル法を用いることにより 𝑑 次元空間での計算で、高次元非線形特徴 空間における主成分を得ることができる。 (非線形特徴変換後に中心化してもカーネルトリックは使える?)
  • 5. 9.5 カーネル主成分分析 • 平均を • 𝟎 にした 𝑁 × 𝑁 グラム行列 𝑲 𝑿, 𝑿 の 𝑛, 𝑘 要素は、 𝐾 𝒙 𝑛, 𝒙 𝑘 = 𝝋 𝒙 𝑛 = = 𝑇 𝝋 𝒙𝑘 𝝋 𝒙𝑛 − 𝑇 𝝋 𝒙𝑛 = 𝝋 𝒙𝑛 = 𝝋 𝒙𝑛 𝑇 𝑇 1 𝑁 − 𝝋(𝒙 𝑗 ) 𝝋 𝒙𝑘 − 𝑗=1 1 𝑁 𝝋 𝒙𝑘 𝝋 𝒙𝑘 = 𝐾 𝒙 𝑛, 𝒙 𝑘 𝑇 𝑁 1 − 𝑁 1 𝑁 𝑁 𝝋(𝒙 𝑗 ) 𝑇 𝝋 𝒙𝑘 − 𝑗=1 1 − 𝑁 1 − 𝑁 𝝋 𝒙𝑘 𝑗=1 𝑁 𝝋 𝒙𝑗 𝑇 𝝋 𝒙𝑘 𝑗=1 𝑁 𝐾 𝒙𝑗, 𝒙 𝑘 𝑗=1 𝑇 1 − 𝑁 𝑁 𝑙=1 𝝋(𝒙 𝑙 ) 𝑙=1 1 𝑁 𝑁 𝝋 𝒙𝑗 𝑁 𝑁 𝝋(𝒙 𝑙 ) 𝑙=1 1 − 𝝋 𝒙𝑛 𝑁 1 − 𝑁 𝑁 𝑇 𝑙=1 𝑁 𝝋 𝒙𝑛 𝑙=1 1 𝐾 𝒙 𝑛, 𝒙 𝑙 + 2 𝑁 𝑇 1 𝝋 𝒙𝑙 + 2 𝑁 1 𝝋 𝒙𝑙 + 2 𝑁 𝑁 𝑁 𝑁 𝑗=1 𝝋 𝒙𝑙 𝑙=1 𝑁 𝑗=1 𝑙=1 𝐾 𝒙𝑗, 𝒙 𝑙 𝑇 𝝋 𝒙𝑗 𝝋 𝒙𝑗 𝑁 𝑗=1 𝑙=1 𝑁 𝑇 𝝋 𝒙𝑙
  • 6. 9.5 カーネル主成分分析 • 𝐾(𝒙 𝑛 , 𝒙 𝑘 ) は 𝐾 𝒙 𝑖 , 𝒙 𝑗 (𝑖, 𝑗 = 1, ⋯ , 𝑁) を用いて表現できることが分かっ た。 • ⇒カーネルトリックが使えて、𝑑 次元空間での計算で 𝑀 次元非線形特徴空間の 内積を評価できる。
  • 7. 9.5 カーネル主成分分析 • 非線形変換と中心化を行った学習データを 𝑿𝜑= 𝝋 𝒙1 , ⋯ , 𝝋 𝒙 𝑁 ∈ 𝑀 𝑀×𝑁 (ℛ) とする。 • 特異値分解により • 𝑿 𝜑 = 𝑼𝜦𝑽 𝑇 と分解できる。 𝑼 = 𝑿 𝜑 𝑽𝜦−1 と変形できるので、
  • 8. 9.5 カーネル主成分分析 𝒖1 , ⋯ , 𝒖 𝑟 = 𝑿 𝝋 𝒗1 , ⋯ , 𝒗 𝑟 𝜦−1 1 • λ1 = = 𝑿 𝝋 𝒗1 , ⋯ , 𝑿 𝝋 𝒗 𝑟 1 λ1 𝑿 𝝋 𝒗1 , ⋯ , • よって、 𝑖 番目の要素は 1 λ𝑟 𝒖𝑖 = ⋮ 0 ⋯ 0 ⋱ ⋯ ⋮ 𝑿 𝝋 𝒗𝑟 1 λ𝑖 𝑿 𝝋 𝒗𝑖 1 λ𝑟
  • 9. 9.5 カーネル主成分分析 • 非線形変換と中心化を行った特徴ベクトル 𝑇 𝒖𝑖 𝝋 𝒙 = • = = • 𝑇 1 λ𝑖 𝑿 𝝋 𝒗𝑖 1 λ𝑖 1 λ𝑖 𝒗𝑖 𝑇 𝒗𝑖 𝑇 𝝋 𝒙 = 𝝋 𝒙1 ⋮ 𝝋 𝒙𝑁 1 λ𝑖 𝒗𝑖 𝑇 𝑿 𝝋 𝑇 𝝋 𝒙 𝑇 𝝋 𝒙 = 𝑇 𝐾 𝒙1 , 𝒙 ⋮ 𝐾 𝒙 𝑁, 𝒙 = 𝝋 𝒙 の 𝒖 𝑖 方向への射影は 1 λ𝑖 1 λ𝑖 𝒗𝑖 𝑇 𝑇 𝝋 𝒙1 𝝋 𝒙 𝑇 𝝋 𝒙 ⋮ 𝝋 𝒙𝑁 𝒗 𝑖 𝑇 𝑲(𝑿, 𝒙) 𝑑 次元空間での内積カーネル計算と 𝑟 回の 𝑁 次元ベクトルの内積計算 で、すべての基底方向への射影を求めることができる。
  • 11. 9.6 カーネル部分空間法 • CLAFIC法も、内積カーネルを用いた非線形特徴空間内の部分空間法へ 拡張できる。 • クラス 𝑖 (𝑖 = 1, ⋯ , • • 𝐾) の学習データを 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) とする。 𝑁 𝑖 :クラス 𝑖 のデータ数, 𝑁 = 𝐾 𝑖=1 𝑁𝑖 𝑖 番目のクラスのデータ 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) は、非線形特徴写像に より 𝑿 𝑖𝝋 = • 𝝋 𝒙 𝑖1 , 𝝋 𝒙 𝑖2 , ⋯ , 𝝋 𝒙 𝑖𝑁 𝑖 に変換される。 CLAFIC法では相関行列を使うので、 𝑿 𝑖𝝋 が中心化されている必要はない。
  • 12. 9.6 カーネル部分空間法 • • 𝑿 𝑖𝝋 ∈ 𝑀 𝑀,𝑁 ℛ より、 𝑟𝑖 ≔ rank(𝑿 𝑖𝝋 ) ≤ min(𝑀, 𝑁) 𝑿 𝑖𝝋 の特異値分解は次のように書ける。 𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇 λ 𝑖1 • = 𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖 0 ⋯ 0 ⋮ λ 𝑖2 ⋮ ⋯ ⋱ 0 • ここで、固有値 λ 𝑖1 ≥ λ 𝑖2 ≥ ⋯ ≥ λ 𝑖𝑑 𝑖 ≥ ⋯ ≥ λ 𝑖𝑟 𝑖 ≥ 0 0 λ 𝑖𝑑 𝑖 ⋮ 0 ⋯ ⋱ ⋯ 0 ⋮ λ 𝑖𝑟 𝑖 𝒗 𝑖1 𝑇 𝒗 𝑖2 𝑇 ⋮ 𝒗 𝑖𝑑 𝑖 𝑇 ⋮ 𝒗 𝑖𝑟 𝑖 𝑇
  • 13. 9.6 カーネル部分空間法 • 大きい方から 𝑑 𝑖 個の固有値によって 𝑲 𝑿 𝑖 , 𝑿 𝑖 = 𝑿 𝑖𝜑 𝑇 𝑿 𝑖𝜑 のクラス忠実度が 満たされるとする。 𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇 λ 𝑖1 • = 𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖 0 ⋯ 0 ⋮ λ 𝑖2 ⋮ ⋯ ⋱ 0 • 0 λ 𝑖𝑑 𝑖 ⋮ 0 𝑑 𝑖 次元の非線形部分空間は青枠内の要素で記述できる。 ⋯ ⋱ ⋯ 0 ⋮ λ 𝑖𝑟 𝑖 𝒗 𝑖1 𝑇 𝒗 𝑖2 𝑇 ⋮ 𝒗 𝑖𝑑 𝑖 𝑇 ⋮ 𝒗 𝑖𝑟 𝑖 𝑇
  • 14. 9.6 カーネル部分空間法 𝑙𝑖 2 𝒙 = = • ≈ = • 𝑑𝑖 𝑗=1 𝑇 𝒖 𝑖𝑗 𝝋 𝒙 𝑇 𝑼𝑖 𝝋 𝒙 𝜦𝑖 𝜦𝑖 −1 −1 2 (∵ ピタゴラスの定理) 2 𝑇 2 𝑇 𝑽 𝑖 𝑿 𝑖𝜑 𝝋 𝒙 𝑇 𝑽 𝑖 𝑲 𝑿 𝑖, 𝒙 2 内積カーネルの計算と、𝑁 𝑖 次元ベクトルの内積計算で射影の長さの2乗が得られ る。 • 識別規則は、 • • 識別クラス = arg max 𝑙 𝑖 2 𝒙 𝑖 (𝑖 = 1, ⋯ , 𝐾) となる。 リジェクトは9.4節と同様に行えばよい。