Enviar pesquisa
Carregar
PRML復々習レーン#15 9.3.4-9.4
•
6 gostaram
•
3,407 visualizações
S
sleepy_yoshi
Seguir
PRML復々習レーン#15 9.3.4-9.4発表資料
Leia menos
Leia mais
Tecnologia
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 26
Baixar agora
Baixar para ler offline
Recomendados
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
sleepy_yoshi
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
sleepy_yoshi
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
sleepy_yoshi
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
Recomendados
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
sleepy_yoshi
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
sleepy_yoshi
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
sleepy_yoshi
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
sleepy_yoshi
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
sleepy_yoshi
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
sleepy_yoshi
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
sleepy_yoshi
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
sleepy_yoshi
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
sleepy_yoshi
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
sleepy_yoshi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Hiroshi Tomioka
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Mais conteúdo relacionado
Mais de sleepy_yoshi
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
sleepy_yoshi
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
sleepy_yoshi
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
sleepy_yoshi
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
sleepy_yoshi
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
sleepy_yoshi
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
sleepy_yoshi
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
sleepy_yoshi
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
sleepy_yoshi
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
Mais de sleepy_yoshi
(20)
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
Collaborative Ranking: A Case Study on Entity Ranking (EMNLP2011読み会)
SIGIR2011読み会 3. Learning to Rank
SIGIR2011読み会 3. Learning to Rank
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
Último
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Hiroshi Tomioka
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
Último
(11)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
PRML復々習レーン#15 9.3.4-9.4
1.
PRML復々習レーン#15 9.3.4 ベイズ線形回帰に関するEMアルゴリズム 9.4 一般のEMアルゴリズム 2013-11-09 Yoshihiko
Suhara @sleepy_yoshi
2.
本発表の概要 (ゴール) • ベイズ線形回帰に関するEMアルゴリズム –
やったねEMアルゴリズムで導出した更新式が直 接最大化して得られる更新式と一致したよ (棒 • 一般のEMアルゴリズム – EMアルゴリズムは観測データの対数尤度の下界 を計算し (Eステップ),下界を最大化する (Mス テップ) 処理の繰り返しで最大化を行う ??? / \ / _ノ ヽ、_.\ / (●) (●) \ | (__人__) | / ∩ノ ⊃ / ( \ / _ノ | | .\ “ /__| | \ /___ / | \ __ / _ (m) _ |ミ| / `´ \ ____ /⌒ ⌒\ /( ●) (●)\ /::::::⌒(__人__)⌒::::: \ | |r┬-| | / `ー'´ ∩ノ ⊃ ( \ /_ノ .\ “ ____ノ / \_ ____ /
3.
9.3.4 ベイズ線形回帰に関するEMアルゴリズム EMアルゴリズムで導出した更新式が直接最大化して得られる更新式と 一致することを確認する
4.
ベイズ線形回帰のエビデンス近似 • 目的: エビデンス関数𝑝
𝒕 𝛼, 𝛽 の𝛼, 𝛽に関する最大化 – cf. 対数尤度の 𝝁 𝑘 , 𝚺 𝑘 , 𝜋 𝑘 • 𝐾 𝑘=1 に関する最大化 𝒘を潜在変数とみなして,EMアルゴリズムの適用を考えると,完全データ 対数尤度は, ln 𝑝 𝒕, 𝒘 𝛼, 𝛽 = ln 𝑝 𝒕 𝒘, 𝛽 + ln 𝑝 𝒘 𝛼 • ここで式(3.10), (3.52) より 𝔼 ln 𝑝 𝒕, 𝒘 𝛼, 𝛽 𝑀 𝛼 𝛼 𝑁 𝛽 𝛽 𝑇 𝒘 + = ln − 𝔼 𝒘 ln − 2 2𝜋 2 2 2𝜋 2 • 𝑁 𝔼 𝑡𝑛 − 𝒘𝑇 𝜙𝑛 𝑛=1 𝛼と𝛽に関して微分を0とおくと,Mステップの更新式が得られる – [演習9.20] [演習9.21] • 式(9.64) を式(3.92)に代入して式(9.63)と一致することを確認 2
5.
演習9.20 𝛼の更新式の導出 • 𝜕 𝜕𝛼 • 𝜕 𝜕𝛼 • 𝑀 1 2𝜋 2
2𝜋 𝛼 𝔼 ln 𝑝 𝒕, 𝒘 𝛼, 𝛽 • 𝛼= 𝑀 𝛼 ln 2 2𝜋 − 1 2 𝑀 𝔼 𝒘𝑇 𝒘 − 𝛼 2 =0 𝔼 𝒘𝑇 𝒘 𝔼 𝒘𝑇 𝒘 =0 =0
6.
演習9.21 𝛽の更新式の導出 • 𝜕 𝜕𝛽 • 𝜕 𝜕𝛽 • 𝑀 1 2𝜋 2
2𝜋 𝛽 𝔼 ln 𝑝 𝒕, 𝒘 𝛼, 𝛽 • 𝛽= 𝑁 𝛽 ln 2 2𝜋 − 1 2 − 𝛽 2 𝑁 𝑛=1 𝑀 𝔼 𝑡 𝑛 −𝒘 𝑇 𝜙 𝑛 2 =0 𝑁 𝑛=1 𝔼 𝑡𝑛 − 𝒘𝑇 𝜙𝑛 𝔼 𝑡𝑛 − 𝒘𝑇 𝜙𝑛 2 2 =0 =0
7.
ぼくのかんがえたさいきょうのあるごりずむ RVM再訪 • RVMにおいては周辺対数尤度を直接最大化して𝜶と𝛽の更新式を 導いた • ここではベイズ線形回帰と同様に𝒘を潜在変数とみなしてEMアル ゴリズムを適用する •
期待完全データ対数尤度は,「古い」パラメータ値を使って計算し た𝒘の事後分布について期待値を取る 𝔼 𝒘 [ ln 𝑝(𝒕|𝑿, 𝒘, 𝛽 𝑝 𝒘 𝜶 }] • ベイズ線形回帰と同様に𝜶, 𝛽について最大化すると,直接最大化 して得られるものと等しい – 式(9.67) 式(9.68) [演習9.23]
8.
9.4 一般のEMアルゴリズム
9.
準備 • 記号 – 全ての観測変数:
𝑿 – 全ての潜在変数: 𝒁 – パラメータ組: 𝜽 • 𝒁は離散変数とするが,連続変数でも同様の 議論は成り立つ
10.
目標は観測データの尤度最大化 • 以下の尤度関数を最大化したい 𝑃 𝑿
𝜽 = 𝑝 𝑿, 𝒁 𝜽 𝒁 • ここで以下の仮定をおく – 𝑃 𝑋 𝜃 の最適化は困難であり,完全データ対数 尤度の最適化は容易である
11.
対数尤度の分解 • 天下り的に潜在変数についての分布𝑞(𝒁)を導 入し,以下の分解を行う ln 𝑝
𝑿 𝜽 = ℒ 𝑞, 𝜽 + KL 𝑞 ∥ 𝑝 • ただし, ℒ 𝑞, 𝜽 = 𝒁 𝑝 𝑿, 𝒁 𝜽 𝑞 𝒁 ln 𝑞 𝒁 KL 𝑞 ∥ 𝑝 = − 𝒁 𝑝 𝒁 𝑿, 𝜽 𝑞 𝒁 ln 𝑞 𝒁
12.
演習9.24 式(9.70)の導出 この導出ができれば, EMアルゴリズムをいちから 説明できるようになります • ℒ 𝑞,
𝜽 + KL 𝑞 ∥ 𝑝 • = • = • = • = 𝒁 𝑞 𝒁 ln 𝒁 𝑞(𝒁) ln 𝒁 𝒁 𝑞(𝒁) ln 𝑞(𝒁) ln 𝑝 𝑿,𝒁 𝜽 𝑞 𝒁 𝑝 𝑿,𝒁 𝜽 𝑞 𝒁 − 𝒁 𝑞 𝒁 ln − ln 𝑝 𝒁 𝑿,𝜽 𝑞 𝒁 𝑝 𝒁 𝑿,𝜽 𝑞 𝒁 𝑝 𝑿,𝒁 𝜽 𝑞 𝒁|𝑿,𝜽 (*1) 𝑃 𝑿, 𝒁 𝜽 = 𝑃 𝒁 𝑿, 𝜽 𝑃(𝑿|𝜽) より 𝑃 𝒁 𝑿,𝜽 𝑃(𝑿|𝜽) 𝑃(𝒁|𝑿,𝜽) • = 𝒁 𝑞 𝒁 ln 𝑃 𝑿 𝜽 • = ln 𝑃(𝑿|𝜽) 𝒁 𝑞(𝒁) • = 𝑃(𝑿|𝜽) (*2) 𝑞(𝒁)は総和が1になる確率分布より
13.
ポイント だよ この分解の解釈 (1/2) ln 𝑝
𝑿 𝜽 = ℒ 𝑞, 𝜽 + KL 𝑞 ∥ 𝑝 • 対数尤度を以下の2つに分解 – ℒ(𝑞, 𝜽): 対数尤度の下界 – KL 𝑞 ∥ 𝑝 : 𝑞(𝒁)と事後分布𝑝(𝒁|𝑿, 𝜽) のKLd • 再掲: KL 𝑞 ∥ 𝑝 = − 𝒁 𝑞 𝒁 ln 𝑝 𝒁 𝑿,𝜽 𝑞 𝒁 • KLdは非負 (*1) であるため,ℒ 𝑞, 𝜽 ≤ ln 𝑝(𝑿|𝜽)が常 に成立 – KLdがゼロになるのは𝑞 𝒁 = 𝑝 𝒁 𝑿, 𝜽 のとき – すなわち, ℒ 𝑞, 𝜽 はln 𝑝(𝑿|𝜽)の下界 (*1) 証明例 http://d.hatena.ne.jp/sleepy_yoshi/20110720/p1
14.
ポイント だよ この分解の解釈 (2/2) • 図解をするとこういうこと これが常に非負 ln
𝑝(𝑿|𝜽)の下界 最大化したい対数尤度
15.
ポイント だよ 図解: Eステップ • ℒ
𝑞, 𝜽old + KL 𝑞 ∥ 𝑝 の𝜽old を固定して𝑞(𝒁)について最大化 KL 𝑞 ∥ 𝑝 = 0となるような𝑞(𝒁),すなわち𝑞 𝒁 = 𝑝(𝒁|𝑿, 𝜽old )とする 下界を対数尤度と 同じ値まで持っていく
16.
ポイント だよ 図解: Mステップ • 分布
𝑞(𝒁)を固定し,下界ℒ(𝑞, 𝜽)を𝜽について最大化し,𝜽new を得る – ここで𝑞(𝒁)は固定したままなので,新しい𝑝 𝒁|𝑿, 𝜽new に一致しない – KL 𝑞 ∥ 𝑝 > 0 となる 新たに生まれたKLd 𝜽の最大化によって 下界が増加した量 KLdは非負なので 対数尤度の増加量≥ 下界の増加量
17.
Eステップ再考: Q関数をつくる • 𝑞 𝑍
= 𝑝 𝑍 𝑋, 𝜃 old を以下の(9.71)式に代入 ℒ 𝑞, 𝜽 = 𝒁 = 𝑝 𝑿, 𝒁 𝜽 𝑞 𝒁 ln 𝑞 𝒁 𝑝 𝒁 𝑿, 𝜽 𝒁 old 𝑃 𝑿, 𝒁 𝜽 ln 𝑃 𝒁 𝑿, 𝜽old 𝑝 𝒁 𝑿, 𝜽old ln 𝑃 𝑿, 𝒁 𝜽 − = 𝒁 𝑃 𝒁 𝑿, 𝜽old ln 𝑃 𝒁 𝑿, 𝜽old 𝒁 𝑄関数 𝜽の選び方に非依存 = 𝑄 𝜽 𝜽old + const. 嬉しさのポイント 変数𝜽に依存する関数が対数の中にしか現れない 𝑝 𝑿, 𝒁 𝜽 が指数型分布族やそれらの積の場合, 対数と指数がキャンセルして最適化が容易になる
18.
パラメータ空間におけるEMアルゴリズムの解釈 • 混合要素が指数型分布族の場合,下界は凹関数 – かつ混合ガウス分布の場合には下界の極大値が閉じた解で求まる –
そうじゃない場合には数値計算を用いて最適化する必要あり KLdが0になるからね! 𝜃 old において下界 と対数尤度が一致 Mステップを行うと 新たなKLdが生じる 対数尤度 下界
19.
i.i.d.データ集合の場合 • 独立性の仮定から 𝑝
𝑿, 𝒁 = 𝑛 𝑝 𝒙 𝑛 , 𝒛 𝑛 となり,{𝒛 𝑛 }の周辺化 により𝑝 𝑿 = 𝑛 𝑝 𝒙 𝑛 が得られる • Eステップにおける事後確率は以下のとおり表現できる 𝑁 𝑝 𝒁 𝑿, 𝜽 = (9.75) 𝑝 𝒛 𝑛 𝒙 𝑛; 𝜽 𝑛=1 • ただし,混合ガウス分布の場合は「負担率が𝒙 𝑛 の値と𝜽の混合要 素パラメータだけに依存し,他のデータ点に依存しない」ことを言っ ているだけ – cf. グラフィカルモデルから𝒛 𝑛 の独立性を論じるところ (演習9.5) 𝜋 𝝁 𝑧1 𝑧2 … 𝑧𝑛 … 𝒙1 𝒙2 𝒙𝑛 𝚺
20.
(9.75)式の導出 𝑝 𝑿, 𝒁
𝜽 𝑝 𝒁 𝑿, 𝜽 = = 𝑝 𝑿 𝜽 = 𝑁 𝑛=1 𝑝 𝑁 𝑛=1 𝒁 𝑁 𝑛=1 𝒙 𝑛, 𝒛 𝑛 𝜽 𝑝 𝒙 𝑛, 𝒛 𝑛 𝜽 𝑁 𝑛=1 𝑁 𝑛=1 𝑝 𝑁 𝑛=1 = = 𝑝 𝒙 𝑛, 𝒛 𝑛 𝜽 𝒛 𝑛 𝑝 𝒙 𝑛, 𝒛 𝑛 𝜽 𝒙 𝑛, 𝒛 𝑛 𝜽 𝑝 𝒙𝑛 𝜽 𝑁 = 𝑝 𝒛 𝑛 𝒙 𝑛, 𝜽 𝑛=1 𝑝 𝑿, 𝒁 𝜽 𝒁 𝑝 𝑿, 𝒁 𝜽 ※ 和と積の交換
21.
ちょいまとめ • 「EMアルゴリズムのEステップとMステップはともに 対数尤度関数の正しく定義された下界の値を増加 させることと,EMアルゴリズムの1サイクルは,対数 尤度が増加する方向にモデルのパラメータを変化さ せることとを見てきた」 (p.169)
22.
事後分布𝑝(𝜽|𝑿)の最大化 • EMアルゴリズムは,事前分布𝑝(𝜽)を利用した事後分布𝑝(𝜽|𝑿)の 最大化にも利用可能 – 復習:
MAP推定 ≒ 正則化項つき尤度最大化 • 𝑝 𝜽 𝑿 = 𝑝 𝜽,𝑿 𝑝 𝑿 より,以下を導出できる ln 𝑝(𝜽|𝑿) = ln 𝑝(𝜽, 𝑿) − ln 𝑝(𝑿) = ln 𝑝 𝑿 𝜽 + ln 𝑝(𝜽) − ln 𝑝(𝑿) ln 𝑝 𝑿 𝜽 = ℒ 𝑞, 𝜽 + KL 𝑞 ∥ 𝑝 より = ℒ 𝑞, 𝜽 + KL 𝑞 ∥ 𝑝 + ln 𝑝(𝜽) − ln 𝑝(𝑿) KL 𝑞 ∥ 𝑝 ≥ 0 より ≥ ℒ 𝑞, 𝜽 + ln 𝑝(𝜽) − ln 𝑝(𝑿) 定数 ln 𝑝(𝜽)は𝑞(𝒁)に依存しないため,Mステップのみ変更が生じるが, 観測データが多ければ影響はわずか
23.
EMアルゴリズムの発展手法 • Eステップ and/or
Mステップがの計算が困難な場合には, たとえば下記の方法が利用可能 – (1) 一般化EMアルゴリズム (GEM) • Mステップにおいてℒ 𝑞, 𝜽 の最大化を諦め,少しでも増加するように 変化させる – たとえば共役勾配法のような非線形最適化手法を利用 – (2) ECM法 (Expectation Conditional Maximization) • パラメータをグループに分割し,あるイテレーションにおけるMステップ では一部のパラメータ組以外の値を固定した制限付き最適化を行う – (3) [Neal and Hinton 1999] • Eステップにおいてℒ 𝑞, 𝜽 の𝑞(𝒁)に関する最適化を部分的に行う
24.
オンラインEMアルゴリズム • オンラインEMアルゴリズム – 各イテレーションにおいて,1データ点のみ用いる逐次型のEMア ルゴリズム –
Eステップ • 1データのみを用いて負担率を再計算 – Mステップ • 混合ガウスの場合,新旧の負担率があれば十分統計量の更新が可能 • 平均パラメータの例 – 𝝁new 𝑘 = 𝝁old 𝑘 + 𝛾 new 𝑧 𝑚𝑘 −𝛾old 𝑧 𝑚𝑘 𝑁new 𝑘 – 𝑁 new = 𝑁 old + 𝛾 new 𝑧 𝑘 𝑘 𝑚𝑘 − 𝛾 old 𝑧 (𝒙 𝑚 − 𝝁old ) 𝑘 𝑚𝑘 • 残りの更新式は @shuyo さんのブログ記事をご覧ください 参考: オンラインEMアルゴリズムで混合ガウス分布推論 – Mi manca qualche giovedi? http://d.hatena.ne.jp/n_shuyo/20100426/online_em
25.
[再掲] まとめ • ベイズ線形回帰に関するEMアルゴリズム –
やったねEMアルゴリズムで導出した更新式が直 接最大化して得られる更新式と一致したよ (棒 • 一般のEMアルゴリズム – EMアルゴリズムは観測データの対数尤度の下界 を計算し (Eステップ),下界を最大化する (Mス テップ) 処理の繰り返しで最大化を行う
26.
おまけ • 混合ガウス分布だからEMじゃなきゃダメということはない – パラメータ探索手法はなんでもよい. –
たとえば,「全ての組み合わせを調べる」ことも可能 • データ数𝑁,混合数𝐾とすると,𝐾 𝑁 通りの対数尤度を調べる必要あり 全探索でも見つけられそうな 対数尤度最大化の例 𝑥2 10個のデータ点,混合数2だったら 210 = 1024通り これくらいならできそう? 𝑥1 最適化手法の中でEMがうれしい理由は 対数尤度の単調増加が保証されていること
Baixar agora