SlideShare uma empresa Scribd logo
1 de 14
Baixar para ler offline
PRML 
4.3 確率的識別モデル 
1
Agenda 
✓ 確率的識別モデル 
✓ ロジスティック回帰(ほとんどコレ) 
✓ プロビット回帰 
2
確率的識別モデル 
生成モデル(Generative Model) 
✓ 周辺分布p(x)から人口データを生成できる 
✓ 外れ値検出などができる点で有利 
識別モデル(Discriminative Model) 
✓ まずp(Ck|x)の形を決めてそのパラメータを求める 
✓ パラメータが少ない 
3
ロジスティック回帰 
✓ 回帰という名前が付いているが分類のためのモデル 
(紛らわしい...) 
✓ ロジスティックシグモイド関数を活性化関数に選ん 
でいる 
✓ 誤差関数を求め,最小化するパラメータを求める 
✓ 解析的に解けないためNewton-Raphson法を用いる 
4
ロジスティックシグモイド関数 
微分すると, 
5 
(a) = 
1 
1 + exp(a)
事後確率 
✓ ロジスティック回帰でそれぞれのクラスの事後確率を求めた 
い 
✓ 2クラス分類を考える 
✓ 事後確率はロジスティックシグモイド関数を用いて表される 
➡ 最尤推定でパラメータを決定する 
6 
p(C1|x) 
p(C2|x) 
識別関数 
(識別関数に関して)
最尤推定 
✓ データ集合(t=0:C2, t=1:C2 , Φ:基底関数) 
✓ 尤度関数 
✓ 誤差関数を尤度関数の負の対数とする(交差エントロピー誤差関数) 
✓ この誤差関数を最小化するパラメータwを求める 
✓ ロジスティックシグモイド関数の非線形性により解析的に解を求められない 
➡ 数値的解法を用いる(Newton-Raphson法) 
7 
C1 C2 
t 1 0 
p(Ck |x) y 1-y
Newton-Raphson法 
✓ 関数f(x)のゼロ点を求める解法 
xn+1 = xn  f0(xn)−1f(xn) 
✓ 適当な値から出発して値を更新し 
ていき,最終的に解が求まる 
8 
f0(xn)−1f(xn) 
f(xn) 
ここを求めたい
Newton-Raphson法 
✓ ロジスティック回帰の誤差関数∇E(w)のゼロ点をNewton-Raphson法で求める 
✓ f(x)→∇E(w)として更新の式が求められる 
✓ ベクトル表記(Rはy(1-y)を要素とする対角行列) 
✓ Rは定数でなくステップごとにを計算し直すので反復重み付き最小二乗法 
(IRLS)という 
9 
where
最小解の唯一性 
✓ ヘッセ行列Hが正定値行列 
✓ よってEは凸関数 
✓ よってEは唯一の最小解を持つ 
✓ (時間があったら証明...) 
10
過学習 
✓ 線形分離可能なデータに対して,交差エントロピー 
誤差関数の最小化は過学習を起こしてしまう 
✓ ∵wの大きさが無限大のときに尤度関数が最大にな 
るため 
✓ このときロジスティックシグモイド関数は 
Heaviside-step関数になる 
✓ つまり,全てのデータに対してp(C|x)が1になって 
しまう.(確率的識別ではなく単なる判別関数と同 
義) 
✓ この問題は正則化項の付与で回避できる 
11 
p(C1|x) 
p(C2|x) 
Heaviside-step function 
(a) = 
1 
1 + exp(a)
パラメータ数 
✓ 識別モデルでは生成モデルに比べてパラメータ数が少なくて済む 
✓ M次元特徴空間で調整可能なパラメータ数を考える 
✓ 生成モデルではクラス条件付き密度p(x|Ck)をガウス分布で表し 
た 
➡ 共分散行列のパラメータの決定を含むのでパラメータの数は 
O(M^2) 
✓ 一方,ロジスティック回帰で必要なパラメータ数はO(M)(実際 
にはM個ちょうど) 
12
プロビット回帰 
✓ ロジスティック回帰とかなり似ている(実際に分類をすると似た結果となる) 
✓ ロジスティックシグモイド関数の代わりにプロビット関数(の逆関数)を活性化関数に選ぶ 
(分散1,平均0のガウス分布の累積分布関数) 
✓ 外れ値に関しては若干異なる振るまいをする 
✓ ロジスティックシグモイド関数:exp(-x)で減衰 
✓ ブロビット関数:exp(-x^2)で減衰 
13 
p(C1|x) 
p(C2|x) 
青い点線はプロビット関数の逆関数
他の形の活性化関数 
✓ クラス条件付き分布はロジスティックシグモイド関数やブロ 
ビット関数で表せるとは限らない 
✓ 活性化関数をクラス条件付き分布の累積確率分布とする 
✓ プロビット回帰のより一般的な場合である 
クラス条件付き分布がガウス混合分布の場合 
14

Mais conteúdo relacionado

Mais procurados

PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデルTakeshi Sakaki
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)Itaru Otomaru
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
Back propagation
Back propagationBack propagation
Back propagationT2C_
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう Junpei Tsuji
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 

Mais procurados (20)

PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
Back propagation
Back propagationBack propagation
Back propagation
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 

Destaque

PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2Hiroyuki Kato
 
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-Takahiro Kubo
 
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Eiji Sekiya
 
[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介Takeru Miyato
 
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaTakanori Nakai
 
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617Jun Okumura
 

Destaque (10)

PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
医療データ解析界隈から見たICLR2017
医療データ解析界隈から見たICLR2017医療データ解析界隈から見たICLR2017
医療データ解析界隈から見たICLR2017
 
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
 
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
 
[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介
 
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
 
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
 
170614 iclr reading-public
170614 iclr reading-public170614 iclr reading-public
170614 iclr reading-public
 
Q prop
Q propQ prop
Q prop
 

Semelhante a Prml 4.3

パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2Nobuaki Oshiro
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半Atsushi Hayakawa
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 
続わかりやすいパターン認識8章
続わかりやすいパターン認識8章続わかりやすいパターン認識8章
続わかりやすいパターン認識8章Akiyoshi Hara
 
A sequential recommendation approach for interactive personalized story gener...
A sequential recommendation approach for interactive personalized story gener...A sequential recommendation approach for interactive personalized story gener...
A sequential recommendation approach for interactive personalized story gener...nkazuki
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 
Data assim r
Data assim rData assim r
Data assim rXiangze
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習Kenta Ishii
 

Semelhante a Prml 4.3 (16)

パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
Survival analysis0702
Survival analysis0702Survival analysis0702
Survival analysis0702
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
GANの基本
GANの基本GANの基本
GANの基本
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
続わかりやすいパターン認識8章
続わかりやすいパターン認識8章続わかりやすいパターン認識8章
続わかりやすいパターン認識8章
 
A sequential recommendation approach for interactive personalized story gener...
A sequential recommendation approach for interactive personalized story gener...A sequential recommendation approach for interactive personalized story gener...
A sequential recommendation approach for interactive personalized story gener...
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
PRML1.5
PRML1.5PRML1.5
PRML1.5
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
Data assim r
Data assim rData assim r
Data assim r
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
 

Prml 4.3