SlideShare uma empresa Scribd logo
1 de 12
Baixar para ler offline
1
「統計的学習の基礎」読書会
3.4.4 最小角回帰 7/26
ベック和穂
おさらい
• 訓練データ に対してあてはまりの良い
線形モデル:
を求めたい
安易な解としては最小二乗推定:
が考えうるが、もう少しパラメータを抑制した中で解を
求めたい、という欲求がある。
(変数選択、縮小推定)
2
1, ,{( , )}i i i Nx y  
y X 
 
1t t
X X X y


最小角回帰
• 残差と相関の高い変数からパラメータを動かしていく手法
• 例(2変数のケース)
3
1. 予測変数は平均0ノルム1に正規化
2. 残差との相関(内積の絶対値)が最大のもの
を選び、モデルに追加する
3. 上記の変数のパラメータをモデルの最小二
乗方向に動かす
4. 残差との内積でモデルに含まれていない変
数がモデルに含まれている変数に追いつい
たらパラメータを動かすのをやめ、その変数
をモデルに追加する
5. p個の変数がモデルに加わるまでこの操作
を続ける
1X 2X
r
2変数からの
等角方向
最小角回帰
• あるステップでの更新方向:
:k回目の操作開始時のモデルの変数集合(追加されたばかりの物も含む)
:現在の残差
とする。このステップでの更新は、
であり(出発点βからモデル変数の最小二乗推定量に向かう)
係数はあるα(0≦α ≦1)によって、
と書くことができる
4
kA
k kA Ay X 
 
 
1
1
k k k
k k k k
T T
k A A A k
T T
A A A A
X X X r
X X X y





 
( )k kA A k    
(3.55)
最小角回帰
• あるステップでの更新幅(演習3.25)
とする。
Akに含まれない全ての変数に対して、 に対する内積が等しくなるような
αを求め、その[0,1]内での最小値が更新幅となる。
αは以下の式により決定する
5
,k i kx A x A 
, ix x
1 1
1
, ,
k
k i k i
k k A k
r x s r x
r r X 
 

 

 
, , , ,k kk i A k i k i i i A k ir x X x s r x s X x     
, ,
( )
, ,k k
i k i k
i i
i A k i A k
s r x r x
s
s X x X x

 



min { (1), ( 1)}ki A i i   
Siは、符号を吸収する
ための変数(1or-1)
1 1, ,k k ir x r x 
最小角回帰
• 図3.15(パラメータ変化の様子)
– 区分的に線形
– 相関係数を減少させながら変数を統合してモデルに組み入れていく
6
Lassoとの比較
• 図3.16(パラメータ変化の様子 vs Lasso)
7
非零の変数が0になる時にだけ、最小角回帰と差が生じる
L1弧長?? または のいずれかでしょうか?
1
1
t
k
 
 
 
 
 
 T
k k  
最小角回帰(Lasso修正)
• 非零係数が0になったとき、その変数をモデルから外して、
現在の結合最小二乗方向を再計算する
⇒これで完全にLassoと全く同じ係数経路が得られる(らしい)
8
最小角回帰がLassoと類似する理由
9
• 最小角回帰のあるステップでの変数集合をAとして、
A内の変数は残差との相関の絶対値が等しく、
jによらない値 と によって
• 一方Lassoは、制約パラメータλでの変数集合をBとして、
これを微分して0とすると、
1 1js or 
(3.56), (3.58)を比較すると、βの符号と内積の符号が一致する場合のみ同一と
なる。したがって、使用済み変数の係数が0をまたぐと差異が生じ始める
少数データでの評価
図3.17 N=100 図3.6 N=300
10
データを減らしたことにより、
• 前向き漸次的回帰が早くから過学習を起こすようになった(黒)
• 収束の遅い、前向き段階的回帰の性能が非常に良い(薄緑)
• Lasso(茶)や最小角回帰(水色)もそれに近い動き
モデルの自由度
• 様々なモデルが存在するが、その複雑さ(自由度)を目に見
える指標として与えたいね、という話。
1. データと無関係にk個の変数が決まっているのならkでいいだろう
2. データごとに最適なk個、となるとkよりも大きいと考えられる
• 定義(モデルの有効自由度)
– 予測値 と、対応する出力値 の共分散の和
– 上記の条件1,2を満たす
– 最小角回帰では、k番目の手順後に自由度kとなる
– Lassoは非零係数の数と近い値になる(詳しくはZou et al 2007)
– 詳しくは7.4~7.6章で扱う
11
2
1
1
ˆ ˆdf( ) ( , )
N
i i
i
y Cov y y
 
 
ˆiy ˆiy
12

Mais conteúdo relacionado

Mais procurados

Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
. .
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
 

Mais procurados (20)

PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML11章
PRML11章PRML11章
PRML11章
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 

Semelhante a カステラ本勉強会 第三回 補足

パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
 

Semelhante a カステラ本勉強会 第三回 補足 (20)

Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
ma92007id395
ma92007id395ma92007id395
ma92007id395
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
 
What if ch11
What if ch11What if ch11
What if ch11
 
Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2
 
論文紹介&実験
論文紹介&実験論文紹介&実験
論文紹介&実験
 
Survival analysis0702
Survival analysis0702Survival analysis0702
Survival analysis0702
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704El text.tokuron a(2019).yoshii190704
El text.tokuron a(2019).yoshii190704
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
 
統計と機械学習
統計と機械学習統計と機械学習
統計と機械学習
 

カステラ本勉強会 第三回 補足