SlideShare uma empresa Scribd logo
1 de 24
KDD2017論文紹介
Group-Keeping Solution Path Algorithm
for Sparse Regression with Automatic
Feature Grouping
データサイエンスグループ
吉永 尊洸
論文概要
論文ジャンル
スパースモデリング、特に特徴量間のグループ構造を自動抽出する手法であるOSCARに関する話
論文の背景・課題
グループ構造を「保ったまま」ハイパーパラメータ調整を行うアルゴリズムが知られていない
論文のメイン内容
グループ構造を「保ったまま」パラメータ調整を行うアルゴリズムを提案:OscarGKPath
注)グループ構造を壊さない方向しか探索しないので、本当に最適値を探索しているわけではありません
結論
全パラメータをグリッドサーチする場合と比較して、精度を損なわずに遥かに高速計算可能な
アルゴリズムを提唱できた スパースモデリング
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
Sparse Modeling
• A machine leaning method for high-dimensional data
 Genetic data, Medical image, ...
Important task : Feature selection
Sparse modeling
features which have non-zero coefficients are called “seleced”
Feature Selection
• Conventional feature selection
 AIC/BIC w/ stepwise
 Equivalent to 𝐿0-norm regularization
1-1
1
1-1
1
min
𝛽
𝑖=1
𝑙
𝑦𝑖 − 𝑥𝑖
𝑇
𝛽
2
+ 𝜆 𝛽 1min
𝛽
𝑖=1
𝑙
𝑦𝑖 − 𝑥𝑖
𝑇
𝛽
2
+ 𝜆
𝑗
𝐼 𝛽𝑗 ≠ 0
• Lasso
 𝐿1-norm : convex cone of 𝐿0-norm in [-1, 1]
𝛽 𝛽
Discontinuous and non-convex Continuous and convexContinuous
Approximation
# of selected features
Variation of Sparse Modeling
• Lasso
• Elastic net
• SCAD
• Adaptive Lasso
• Fused Lasso
• Generalized Lasso
• (Non-overlapping/Overlapping) Group Lasso
• Clustered Lasso
OSCAR Extract Group structure
Generalization of Lasso
Respect the consistency of feature selection
Basic
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
OSCAR(Octagonal Shrinkage and Clustering Algorithm for Regression)
• Formulation
The method of Lagrange multiplier
min
𝛽
1
2
𝑖=1
𝑙
𝑦𝑖 − 𝑥𝑖
𝑇
𝛽
2
𝑠. 𝑡. 𝛽 1 + 𝑐
𝑗>𝑘
max 𝛽𝑗 , 𝛽 𝑘 ≤ 𝑡
𝐹 𝛽, 𝜆1, 𝜆2 = min
𝛽
1
2
𝑖=1
𝑙
𝑦𝑖 − 𝑥𝑖
𝑇
𝛽
2
+ 𝜆1 𝛽 1 + 𝜆2
𝑗>𝑘
max 𝛽𝑗 , 𝛽 𝑘
where 𝑐 ≥ 0 and 𝑡 ≥ 0 are tuning parameters
where 𝜆1 ≥ 0 and 𝜆2 ≥ 0 are regularization parameters
𝐿1-norm 𝐿∞-norm
variables are normalized
and/or standardized
Pictorial Image
• Solutions for correlated data
 ex) two features
Regularization parameters
 𝜆1, 𝜆2
[Zeng and Figueired, 2013]
𝐿1-norm
𝐿∞-norm
𝐿1 + 𝐿∞
Lasso vs OSCAR
• OSCAR : Grouping structure is formulated
Data : Facebook Comment Dataset
Adjustment hyper parameter
• Solution Path
 ex) Lasso
Regularized parameter
Adjustment hyper parameter
• OSCAR
 No group-keeping solution path algorithm
OSCAR Path
?
Regularized parameter
Proposal
• OscarGKPath
 Group-keeping solution path algorithm of OSCAR
OSCAR Path
Regularized parameter
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
OSCAR revisited
• Re-formulation
min
𝜃
1
2
𝑖=1
𝑙
𝑦𝑖 − 𝑥𝑖
𝑇
𝜃
2
+
𝑔=1
𝐺
𝑤𝑔 𝜃𝑔 𝑠. 𝑡. 0 ≤ 𝜃1 < 𝜃2 < ⋯ < 𝜃 𝐺
where 𝑥𝑖 = 𝑥𝑖1 𝑥𝑖2 ⋯ 𝑥𝑖𝐺 and 𝑥𝑖𝑔 = 𝑗∈ℊ 𝑔
sign 𝛽𝑗 𝑥𝑖𝑗,
𝑤𝑔 = 𝑗∈ℊ 𝑔
𝜆1 + 𝑜 𝑗 − 1 𝜆2 , 𝑜 𝑗 ∈ 1, ⋯ , 𝑑 , ℊ 𝑔 ⊆ 1, ⋯ , 𝑑 ,
and we define an active sets:
𝐴 = 𝑔 ∈ 1, ⋯ , 𝐺 𝜃𝑔 > 0 , 𝐴 = 1, ⋯ , 𝐺 − 𝐴
Input parameters
• Direction to the change of 𝜆1,2
 𝑑 =
𝑑1
𝑑2
Δ𝜆 = 𝑑Δ𝜂, Δ𝜂 is determined by algorithm
• Accuracy
 𝜖
The proposed algorithm is approximated one
• Interval of 𝜂
 𝜂, 𝜂
OscarGKPath : Algorithm
using optimality condition for OSCAR (abbreviation)
using “termination condition”
using the dual problem
Any solution in the
solution path can satisfy
the duality gap : proved
Termination condition
1. A regression coefficients become zero : Δ𝜂 𝛢
2. Order of regression coefficients change : Δ𝜂 𝑂
※Optimality condition of OSCAR is based on a given order of coefficients
3. 𝜂 reaches 𝜂 : 𝜂 − 𝜂
Δ𝜂max = min Δ𝜂 𝛢, Δ𝜂 𝑂, 𝜂 − 𝜂
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
Setup
• Data Sets :
• 5-fold cross-validation
• direction : 𝑑 =
1
0.5
,
1
1
,
1
2
• 𝜂 : log2 𝜂 − 4 ≤ log2 𝜂 ≤ 15
 OscarGKPath : 10 trials
 “Batch Search” (search on 20 uniform grid linearly spaced by 0.1) ×400×5
• Duality gap : G 𝜃 𝜂 , 𝑑1 𝜂, 𝑑2 𝜂 ≤ 𝜀 = 0.1 × 𝐹 𝛽∗
, 𝑑1, 𝑑2
At one trial, only limited solution path
is produced by “Batch search”
Batch Search vs OscarGKPath
• Shorter time
• Maintained accuracy
Data : Right Ventricle Dataset
Grid Search
Proposal
Grid Search
Proposal
Contents
• Introduction to sparse modeling
• Review for OSCAR
• Proposal : OscarGKPath
• Results
• Summary and Discussion
Summary and Discussion
論文ジャンル
スパースモデリング、特に特徴量間のグループ構造を自動抽出する手法であるOSCARに関する話
論文の背景・課題
グループ構造を「保ったまま」ハイパーパラメータ調整を行うアルゴリズムが知られていない
論文のメイン内容
グループ構造を「保ったまま」パラメータ調整を行うアルゴリズムを提案:OscarGKPath
注)グループ構造を壊さない方向しか探索しないので、本当に最適値を探索しているわけではありません
結論
全パラメータをグリッドサーチする場合と比較して、精度を損なわずに遥かに高速計算可能な
アルゴリズムを提唱できた
所見(個人的)
どういうグループ化が良いかはアルゴリズムのスコープ外なので、使用条件は限定的かも
スパースモデリング

Mais conteúdo relacionado

Semelhante a Groups-Keeping Solution Path Algorithm For Sparse Regression

SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題健児 青木
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...Kotaro Yamazaki
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi
 
K shapes zemiyomi
K shapes zemiyomiK shapes zemiyomi
K shapes zemiyomikenyanonaka
 
RSA鍵生成脆弱性ROCAの紹介
RSA鍵生成脆弱性ROCAの紹介RSA鍵生成脆弱性ROCAの紹介
RSA鍵生成脆弱性ROCAの紹介MITSUNARI Shigeo
 
Akira Imakura
Akira ImakuraAkira Imakura
Akira ImakuraSuurist
 
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Yuichiroh Matsubayashi
 

Semelhante a Groups-Keeping Solution Path Algorithm For Sparse Regression (11)

SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題
読書会 「トピックモデルによる統計的潜在意味解析」 第6回 4.3節 潜在意味空間における分類問題
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
K shapes zemiyomi
K shapes zemiyomiK shapes zemiyomi
K shapes zemiyomi
 
RSA鍵生成脆弱性ROCAの紹介
RSA鍵生成脆弱性ROCAの紹介RSA鍵生成脆弱性ROCAの紹介
RSA鍵生成脆弱性ROCAの紹介
 
Akira Imakura
Akira ImakuraAkira Imakura
Akira Imakura
 
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
 

Mais de Takahiro Yoshinaga

トポロジカルデータ解析(仮)
トポロジカルデータ解析(仮)トポロジカルデータ解析(仮)
トポロジカルデータ解析(仮)Takahiro Yoshinaga
 
A Deep Reinforcement Learning Chatbot
A Deep Reinforcement Learning ChatbotA Deep Reinforcement Learning Chatbot
A Deep Reinforcement Learning ChatbotTakahiro Yoshinaga
 
「予測にいかす統計モデリングの基本」勉強会 第二章
「予測にいかす統計モデリングの基本」勉強会 第二章「予測にいかす統計モデリングの基本」勉強会 第二章
「予測にいかす統計モデリングの基本」勉強会 第二章Takahiro Yoshinaga
 
「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章Takahiro Yoshinaga
 

Mais de Takahiro Yoshinaga (9)

ICLR 2018
ICLR 2018ICLR 2018
ICLR 2018
 
WSDM2018 presentation
WSDM2018 presentationWSDM2018 presentation
WSDM2018 presentation
 
Rainbow
RainbowRainbow
Rainbow
 
トポロジカルデータ解析(仮)
トポロジカルデータ解析(仮)トポロジカルデータ解析(仮)
トポロジカルデータ解析(仮)
 
A Deep Reinforcement Learning Chatbot
A Deep Reinforcement Learning ChatbotA Deep Reinforcement Learning Chatbot
A Deep Reinforcement Learning Chatbot
 
研究内容
研究内容研究内容
研究内容
 
「予測にいかす統計モデリングの基本」勉強会 第二章
「予測にいかす統計モデリングの基本」勉強会 第二章「予測にいかす統計モデリングの基本」勉強会 第二章
「予測にいかす統計モデリングの基本」勉強会 第二章
 
「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章「予測にいかす統計モデリングの基本」勉強会 第一章
「予測にいかす統計モデリングの基本」勉強会 第一章
 
博士論文審査
博士論文審査博士論文審査
博士論文審査
 

Groups-Keeping Solution Path Algorithm For Sparse Regression