SlideShare uma empresa Scribd logo
1 de 24
Baixar para ler offline
Local Deep Kernel Learning
for Efficient Non-linear SVM Prediction
読み人: 得居 誠也 @beam2d
(Preferred Infrastructure)
2013-07-09
ICML 13読み会
Cijo Jose*, Prasoon Goyal*, Parv Aggrwal*, Manik Varma**
* Indian Institute of Technology Dehli
** Microsoft Research India
目的: 予測がそこそこ速い非線形分類器
線形分類器 欲しい! カーネルSVM
分類速度 速い そこそこ速い 遅い
低次元で
複雑な分類
不可能
そこそこ
できる
可能
(カーネルによる)
• 線形分類器より速く!という話ではない
• anytimeとかではない
既存手法
局所的な分類器: 既存研究あり
• Locally Linear SVM [Ladicky+, ICML 11]
• 複数の線形分類器を, 場所ごとに異なる重み付けで
足し合わせる
• 重み付けはLocal Coordinate Codingなど
(unsupervised)
非線形SVMの分類を速くする話は他にもいろいろ
• サポートベクトルを少なくする
• ランダム埋め込み
Locally Linear SVM [Ladicky+, ICML 11]
min
W 2
kW k2
+
1
|S|
X
k2S
⇠k
s.t. 8k 2 S, ⇠k max(0, 1 yk (xk)t
W xk).
LDKLのアプローチ
局所線形な分類器+二分木による空間分割
• 局所線形な分類器, 目的関数はSVMと同じ
• 各点でどの分類器を使うかは二分木を探索して得る
• 空間分割も一緒に学習する
(LLSVMでは事前に教師なし学習だった)
• 主空間で最適化
• 最適化はSGD
• 特徴写像が高速なカーネルを一緒に学習するSVM,
と思うこともできる
LDKLのカーネル=
局所カーネル 大域カーネル
K(xi, xj) = KL(xi, xj)KG(xi, xj)
Local Kernel
(特徴写像 )L
Global Kernel
(特徴写像 )G
•  の特徴写像は    (クロネッカー積)
• 今回は      とする(線形カーネル)
- 特徴写像を陽に書ければなんでも良い
- e.g.)
K L ⌦ G
G(x) = x
G(x) = x ⌦ x
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
1x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
1x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
2x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
2x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
5x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x sign(✓t
5x)
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
分岐パラメータとの内積の正負で左右に下っていく
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x
Local Kernel: 木構造の特徴写像
+ -
+ +
+ + + +
- -
- - - -
通過した頂点ごとに重みの係数  を計算する
✓1
✓2 ✓3
✓4 ✓5 ✓6 ✓7
入力x ✓0
1
✓0
2 ✓0
3
✓0
4 ✓0
5 ✓0
6 ✓0
7
✓0
8 ✓0
9 ✓0
10 ✓0
11 ✓0
12 ✓0
13 ✓0
14 ✓0
15
Lk
(x) = tanh( ✓0t
k x)Ik(x)
ノードkを通過したら1
Lk
LDKLの目的関数
パラメータの種類ごとに正則化するSVM
min
W,⇥,⇥0
P(W, ⇥, ⇥0
) =
W
2
Tr(Wt
W) +
⇥
2
Tr(⇥t
⇥) +
⇥0
2
Tr(⇥0t
⇥0
)
+
NX
i=1
L(yi, t
L(xi)Wt
xi).
• 損失関数はヒンジ損失
• 大文字のパラメータは, 小文字のパラメータを並べ
た行列
L(y, ˆy) = max(0, 1 yˆy)
LDKLの最適化は主空間でのSGD
rwk
P(xi) = W wk iyi Lk
(xi)xi,
r✓k
P(xi) = ⇥✓k iyi
X
l
tanh( ✓0t
l xi)r✓k
Il(xi)wt
l xi
r✓0
k
P(xi) = ⇥0 ✓0
k iyi (1 tanh2
( ✓0t
k xi))Ik(xi)wt
kxixi.
•  =   のマージンが1未満なら1, そうでなければ0
• 下線部以外は簡単に計算できる
i xi
勾配は次式
空間分割の最適化
sign関数を緩和
Ik(x) =
Y
l2Ancestors(k)
1
2
(sign(✓t
l x) + ( 1)C(l)
).
  を陽に書き下すとIk 右に行くか左に行くか (1 or 0)
signの部分を最適化できるように緩和:
Ik(x) =
Y
l2Ancestors(k)
1
2
(tanh(sI✓t
l x) + ( 1)C(l)
).
r✓l
Ik(x) = Ik(x)(tanh(sI✓t
l x) + ( 1)C(l)
) l2Ancestors(k)sIx.
緩和パラメータを変えながら最適化
(焼きなまし?)
Ik(x) =
Y
l2Ancestors(k)
1
2
(tanh(sI✓t
l x) + ( 1)C(l)
).
•  が小さいと  の値は 0 から遠くなる
- 木の全体を探索しないといけない
- 最初はそうしないと空間分割を最適化できない
• そこで最適化が進むにつれ  を大きくしていく
sI Ik
sI
実験
実験
実験
まとめ
• LDKLは, 分類がそこそこ速い非線形分類器
• LLSVMに似ている
- LDKLでは重み付けも一緒に最適化
- 二分木を使ったモデルで, ノード数Mに対して分類速
度がO(log M)
• 主空間のSGD, オンラインで動く
• 精度はRBF-SVMよりちょい悪い
• 同じ分類速度では他の高速化手法よりも高い精度
その他
• Fastfood [Le+, ICML 13]とは(当然)比較なし
- 乱択埋め込みによるカーネル近似の新しいやつ
- アダマール行列をうまく使う

Mais conteúdo relacionado

Destaque

Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...Koji Matsuda
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5Koji Matsuda
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹Preferred Networks
 
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Hiroshi Tsukahara
 
Overview of Chainer and Its Features
Overview of Chainer and Its FeaturesOverview of Chainer and Its Features
Overview of Chainer and Its FeaturesSeiya Tokui
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来Hidekazu Oiwa
 
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing TrickSeiya Tokui
 
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待Seiya Tokui
 
Introduction to Chainer
Introduction to ChainerIntroduction to Chainer
Introduction to ChainerSeiya Tokui
 
Differences of Deep Learning Frameworks
Differences of Deep Learning FrameworksDifferences of Deep Learning Frameworks
Differences of Deep Learning FrameworksSeiya Tokui
 
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningIntroduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningSeiya Tokui
 
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding ModelNIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding ModelSeiya Tokui
 
Deep Learningの技術と未来
Deep Learningの技術と未来Deep Learningの技術と未来
Deep Learningの技術と未来Seiya Tokui
 
Learning stochastic neural networks with Chainer
Learning stochastic neural networks with ChainerLearning stochastic neural networks with Chainer
Learning stochastic neural networks with ChainerSeiya Tokui
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Towards Chainer v1.5
Towards Chainer v1.5Towards Chainer v1.5
Towards Chainer v1.5Seiya Tokui
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 

Destaque (20)

Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
 
Tprimal agh
Tprimal aghTprimal agh
Tprimal agh
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹
 
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験
 
Overview of Chainer and Its Features
Overview of Chainer and Its FeaturesOverview of Chainer and Its Features
Overview of Chainer and Its Features
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick
 
深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待深層学習フレームワークChainerの紹介とFPGAへの期待
深層学習フレームワークChainerの紹介とFPGAへの期待
 
rinko2010
rinko2010rinko2010
rinko2010
 
Introduction to Chainer
Introduction to ChainerIntroduction to Chainer
Introduction to Chainer
 
Differences of Deep Learning Frameworks
Differences of Deep Learning FrameworksDifferences of Deep Learning Frameworks
Differences of Deep Learning Frameworks
 
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningIntroduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
 
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding ModelNIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
NIPS2013読み会 DeViSE: A Deep Visual-Semantic Embedding Model
 
Deep Learningの技術と未来
Deep Learningの技術と未来Deep Learningの技術と未来
Deep Learningの技術と未来
 
Learning stochastic neural networks with Chainer
Learning stochastic neural networks with ChainerLearning stochastic neural networks with Chainer
Learning stochastic neural networks with Chainer
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Towards Chainer v1.5
Towards Chainer v1.5Towards Chainer v1.5
Towards Chainer v1.5
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 

Mais de Seiya Tokui

Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Seiya Tokui
 
Chainer v2 and future dev plan
Chainer v2 and future dev planChainer v2 and future dev plan
Chainer v2 and future dev planSeiya Tokui
 
Chainer v2 alpha
Chainer v2 alphaChainer v2 alpha
Chainer v2 alphaSeiya Tokui
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural NetworksSeiya Tokui
 
Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+Seiya Tokui
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
Chainer Development Plan 2015/12
Chainer Development Plan 2015/12Chainer Development Plan 2015/12
Chainer Development Plan 2015/12Seiya Tokui
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
Deep Learning技術の今
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今Seiya Tokui
 

Mais de Seiya Tokui (13)

Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)Chainer/CuPy v5 and Future (Japanese)
Chainer/CuPy v5 and Future (Japanese)
 
Chainer v3
Chainer v3Chainer v3
Chainer v3
 
Chainer v2 and future dev plan
Chainer v2 and future dev planChainer v2 and future dev plan
Chainer v2 and future dev plan
 
Chainer v2 alpha
Chainer v2 alphaChainer v2 alpha
Chainer v2 alpha
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+Chainer Update v1.8.0 -> v1.10.0+
Chainer Update v1.8.0 -> v1.10.0+
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
Chainer Development Plan 2015/12
Chainer Development Plan 2015/12Chainer Development Plan 2015/12
Chainer Development Plan 2015/12
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
Deep Learning技術の今
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今
 
rinko2011-agh
rinko2011-aghrinko2011-agh
rinko2011-agh
 

ICML2013読み会 Local Deep Kernel Learning for Efficient Non-linear SVM Prediction