SlideShare uma empresa Scribd logo
1 de 7
Baixar para ler offline
PRML 復々習レーン




     4.3.6 正準連結関数


                    @urapon_1
                         2012/9/23
誤差関数の微分
ガウス分布の対数尤度関数の勾配
                           N
     ∇ ln p (t∣w , β)=β∑ n=1 {t n−w ϕ( x n )}ϕ( x n )
                                      T               T
                                                             (3.13)

ロジスティック回帰誤差関数の勾配
                     N
      ∇ E (w)=∑n=1 ( y n −t n)ϕn            (4.91)

多クラスロジスティック回帰誤差関数の勾配
                                 N
      ∇ w E (w 1,. .. ,w K )=∑ n=1 ( y nj −t nj )ϕn
          j
                                                          (4.109)



                  → 誤差と特徴ベクトルϕn の積
正準連結関数

 正準連結関数 (canonical link function) として知られている
 関数を活性化関数に選び、指数型分布族の中から目的変数に
 対する条件付き確率分布を選択する。




誤差と特徴ベクトル     ϕn の積の形式で誤差関数の勾配を表現できる
目的変数 t の分布
目的変数 t の分布が指数型分布族であると仮定する

                    1 t
        p (t∣η , s)= h
                    s s     ()
                        g ( η)exp
                                  ηt
                                  s           { }        (4.118)


                                                   t
上式と (2.195) 式より、 g (η)∫   { ( ) ( )} ( )
                          h
                            t
                            s
                              exp η
                                    t
                                    s
                                        d
                                          t
                                          s
                                            =1 となり、 =x
                                                   s
と置き直して、 (2.226) と同様の導出をすると、

                          d
            y≡E (t∣η)=−s    ln g (η)                     (4.119)
                         dη
対数尤度関数
パラメータ    η の対数尤度関数
                 N                    N
 ln p (t∣η , s)=∑n=1 ln p(t n∣η , s)=∑n=1
                                            {
                                            ln g (ηn)+
                                                        s  }
                                                       ηn t n
                                                              +Const


                                                               (4.121)


                            → これを w について微分する
w    について微分すると
                         N
    ∇ w ln p (t∣η, s)=∑n=1
                             { d
                             d ηn
                                   ln g (ηn)+
                                               }
                                              t n d ηn dy n
                                               s d y n da n
                                                               ∇ an

                             N    1         d ηn dy n
                       =∑n=1 {t n− y n}                  ∇ an
                                  s         d y n da n
                           N    1
                      =∑ n=1 {t n− y n } ψ' ( y n ) f ' (a n )ϕn (4.122)
                                s

ただし、
                 d
         y n=−s      ln g (ηn)      (4.119)
                d ηn
         ηn=ψn( y )

          y n= f (a n)
          a n=w T ϕn
連結関数の選択による簡略化
(4.123) 式で与えられるような連結関数を用いれば、
(4.122) 式は簡略化される。
            −1
        f        ( y )=ψ( y)          (4.123)


簡略化された誤差関数の勾配は

                1 N
        ∇ E (w)= ∑n=1 ( y n−t n )ϕn      (4.124)
                s

            → 誤差      y n−t n   と特徴ベクトルϕ n の積

Mais conteúdo relacionado

Mais procurados

PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族hiroki yamaoka
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”Kota Matsui
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120Hayato K
 
PRML読書会#2,#3資料
PRML読書会#2,#3資料PRML読書会#2,#3資料
PRML読書会#2,#3資料Hiromasa Ohashi
 
ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)医療IT数学同好会 T/T
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークKokiTakamiya
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 

Mais procurados (20)

Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120Prml 1.2,4 5,1.3|輪講資料1120
Prml 1.2,4 5,1.3|輪講資料1120
 
PRML読書会#2,#3資料
PRML読書会#2,#3資料PRML読書会#2,#3資料
PRML読書会#2,#3資料
 
ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 

Semelhante a Prml 4.3.6

PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理t2tarumi
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理Joe Suzuki
 
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)Akira Asano
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)Akira Asano
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 

Semelhante a Prml 4.3.6 (20)

Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
120919 kyushu
120919 kyushu120919 kyushu
120919 kyushu
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
統計概論 isseing333
統計概論 isseing333統計概論 isseing333
統計概論 isseing333
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
Moig 05
Moig 05Moig 05
Moig 05
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
ndwave1.pdf
ndwave1.pdfndwave1.pdf
ndwave1.pdf
 
積分と漸化式
積分と漸化式積分と漸化式
積分と漸化式
 
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
2015年度春学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2015. 4.22)
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 

Mais de Satoshi Kawamoto

20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slideSatoshi Kawamoto
 
第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)Satoshi Kawamoto
 
マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)Satoshi Kawamoto
 
マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)Satoshi Kawamoto
 

Mais de Satoshi Kawamoto (15)

20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide20211115 jsai international_symposia_slide
20211115 jsai international_symposia_slide
 
第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1第5章 マルコフ連鎖モンテカルロ法 1
第5章 マルコフ連鎖モンテカルロ法 1
 
マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)マンガで分かるベイズ統計学勉強会(第3章その2)
マンガで分かるベイズ統計学勉強会(第3章その2)
 
マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)マンガで分かるベイズ統計学勉強会(第3章その1)
マンガで分かるベイズ統計学勉強会(第3章その1)
 
マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)マンガでわかるベイズ統計学第二章実装Tips(C#)
マンガでわかるベイズ統計学第二章実装Tips(C#)
 
マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)マンガで分かるベイズ統計学勉強会(第1章+α)
マンガで分かるベイズ統計学勉強会(第1章+α)
 
統計検定3級 5
統計検定3級 5統計検定3級 5
統計検定3級 5
 
統計検定3級 4
統計検定3級 4統計検定3級 4
統計検定3級 4
 
統計検定3級 3
統計検定3級 3統計検定3級 3
統計検定3級 3
 
統計検定3級 2
統計検定3級 2統計検定3級 2
統計検定3級 2
 
統計検定3級 1
統計検定3級 1統計検定3級 1
統計検定3級 1
 
Prml7 7.1
Prml7 7.1Prml7 7.1
Prml7 7.1
 
Prml 4.1.2
Prml 4.1.2Prml 4.1.2
Prml 4.1.2
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 
Prml 4
Prml 4Prml 4
Prml 4
 

Prml 4.3.6

  • 1. PRML 復々習レーン 4.3.6 正準連結関数 @urapon_1 2012/9/23
  • 2. 誤差関数の微分 ガウス分布の対数尤度関数の勾配 N ∇ ln p (t∣w , β)=β∑ n=1 {t n−w ϕ( x n )}ϕ( x n ) T T (3.13) ロジスティック回帰誤差関数の勾配 N ∇ E (w)=∑n=1 ( y n −t n)ϕn (4.91) 多クラスロジスティック回帰誤差関数の勾配 N ∇ w E (w 1,. .. ,w K )=∑ n=1 ( y nj −t nj )ϕn j (4.109) → 誤差と特徴ベクトルϕn の積
  • 3. 正準連結関数 正準連結関数 (canonical link function) として知られている 関数を活性化関数に選び、指数型分布族の中から目的変数に 対する条件付き確率分布を選択する。 誤差と特徴ベクトル ϕn の積の形式で誤差関数の勾配を表現できる
  • 4. 目的変数 t の分布 目的変数 t の分布が指数型分布族であると仮定する 1 t p (t∣η , s)= h s s () g ( η)exp ηt s { } (4.118) t 上式と (2.195) 式より、 g (η)∫ { ( ) ( )} ( ) h t s exp η t s d t s =1 となり、 =x s と置き直して、 (2.226) と同様の導出をすると、 d y≡E (t∣η)=−s ln g (η) (4.119) dη
  • 5. 対数尤度関数 パラメータ η の対数尤度関数 N N ln p (t∣η , s)=∑n=1 ln p(t n∣η , s)=∑n=1 { ln g (ηn)+ s } ηn t n +Const (4.121) → これを w について微分する
  • 6. w について微分すると N ∇ w ln p (t∣η, s)=∑n=1 { d d ηn ln g (ηn)+ } t n d ηn dy n s d y n da n ∇ an N 1 d ηn dy n =∑n=1 {t n− y n} ∇ an s d y n da n N 1 =∑ n=1 {t n− y n } ψ' ( y n ) f ' (a n )ϕn (4.122) s ただし、 d y n=−s ln g (ηn) (4.119) d ηn ηn=ψn( y ) y n= f (a n) a n=w T ϕn
  • 7. 連結関数の選択による簡略化 (4.123) 式で与えられるような連結関数を用いれば、 (4.122) 式は簡略化される。 −1 f ( y )=ψ( y) (4.123) 簡略化された誤差関数の勾配は 1 N ∇ E (w)= ∑n=1 ( y n−t n )ϕn (4.124) s → 誤差 y n−t n と特徴ベクトルϕ n の積