SlideShare uma empresa Scribd logo
1 de 12
Baixar para ler offline
PRML 3章 線形回帰モデル
 3.1 ∼ 3.1.2
pp. 135-141

PRML復復習レーン #3
2012/07/16                                   yag_ays



 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
3.1∼3.1.2のあらすじ


• 線形回帰
 • 入力変数から目標変数を予測
 • 入力変数に関して非線形な関数を導入する   (xn )

• 最尤推定と最小二乗法
 • パラメータを推定する
• 最小二乗法の幾何学
3.1 線形基底関数モデル

最も単純な線形回帰モデルを考える
        y(x, w) = w0 + w1 x1 + · · · + wD xd


  入力変数: x = (x1 , . . . xD )T
 パラメータ: w = (w0 , . . . wD )T



  入力変数に関して線形関数に                           基底関数の
なっているため,表現能力に乏しい                            導入
入力変数に関して非線形な関数                      j (x) を噛ませる

                         M 1
                         X
        y(x, w) = w0 +         wj   j (x)
                         j=1



バイアスパラメータ w0 を整理して
              M 1
              X
                              T
    y(x, w) =     wj j (x) = w (x)
                                     ただし
               j=0
                                            0 (x)   =1

         関数 y(x, w) : 非線形
      パラメータ w       : 線形
       基底関数 j (x) : 非線形
よく用いられる基底関数の例
多項式              ガウス基底関数                               シグモイド関数
                                 ⇢                 2
                                                                   ✓                ◆
             j                       (x     µj )                       x       µj
j (x)   =x       j (x)   = exp
                                          2s2
                                                       j (x)   =
                                                                           s




   • その他
    • スプライン関数で範囲を区切る
    • フーリエ基底やウェーブレットも
3.1.1 最尤推定と最小二乗法

目的変数 が関数    とノイズ で与えられる時
    t   y(x, w) ✏
    t = y(x, w) + ✏


ノイズがガウス分布に従うとすると
  p(t|x, w, ) = N (t|y(x, w), 1 )


入力ベクトルと目標値が与えられた時の尤度関数は
                 N
                 Y
                           T       1
   p(t|X, w, ) =   N (tn |w (xn ),   )
                      n=1
両辺対数を取って N
                  X
                            T               1
 ln p(t|X, w, ) =   N (tn |w (xn ),             )
                 n=1
                 N           N
               =   ln          ln 2⇡       ED (w)
                 2           2

このとき,二乗和誤差関数は
                XN
              1                     T            2
     ED (w) =       {tn         w       (xn )}
              2 n=1


尤度関数の最大化 = 二乗和誤差関数の最小化 なので
                    N
                    X
                           T             T
 r ln p(t|X, w, ) =   {tn w (xn )} (xn )
                       n=1
勾配を0とおいて w について解く
        N                                N
                                                                 !
        X                T
                                         X                   T
                                     T
   0=         tn (xn )           w             (xn ) (xn )
        n=1                              n=1
                                                     (展開しただけ)

w について解く
  wML = ( T )      1     T
                             t




         計画行列
バイアスパラメータw0 の解釈
バイアスパラメータを残したまま
  二乗和誤差関数を求めると
            XN               M 1
                             X
          1                                     2
 ED (w) =       {tn   w0           wj   j (xn )}
          2 n=1              j=1



w0 について解くと
                      M 1
                      X
                  ¯
             w0 = t          wj    j
                       j=1

                      N                           XN
                   1 X                          1
            ただし, =
                ¯
                t        tn               j   =         j (xn )
                   N n=1                        N n=1
バイアスパラメータw0 の解釈
                     M 1
                     X
                ¯
           w0 = t          wj    j
                     j=1

    目標変数の平均 ー 基底関数の平均
             N
       ¯  1X                     1X
                                     N
       t=       tn         j   =         j (xn )
          N n=1                  N n=1




また,ノイズの精度パラメータ について
                XN
       1      1                  T                 2
            =       {tn         wM L        (xn )}
       ML     N n=1

     これは回帰関数周りでの目標値との残差分散
3.1.2 最小二乗法の幾何学



幾何学なんて無かった...
3.1.2 最小二乗法の幾何学(補足)
•   皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ
    のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ
    ば幸い.

•   図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正
    射影したものがy.この図ではM=2,N=3.

•   tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表
    すことができる.基底関数の数MをNと同じにすればtを正確に表現
    することができるが,それでは過学習のような状態になってしまうた
    め,Nより少ない数(M<N)で何とか表現したい.

•   そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト
    ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和
    誤差の幾何学的な関係.

•   「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが
    作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない
    次元数でtを上手く表現できていることになって嬉しい)

•   このような幾何学的解釈は,この後もPRML下巻などで出てくるらし
    い

Mais conteúdo relacionado

Mais procurados

PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
kurotaki_weblab
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
Hiromasa Ohashi
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
 

Mais procurados (20)

PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
 
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 

Destaque (6)

NICOMI
NICOMINICOMI
NICOMI
 
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
 
Spotfire_8
Spotfire_8Spotfire_8
Spotfire_8
 
Prml
PrmlPrml
Prml
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisited
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 

Semelhante a Re revenge chap03-1

13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
show you
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
 

Semelhante a Re revenge chap03-1 (20)

PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
Prml07
Prml07Prml07
Prml07
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
 
PRML5
PRML5PRML5
PRML5
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 

Mais de 裕樹 奥田 (8)

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub
 
bmb2010_g86
bmb2010_g86bmb2010_g86
bmb2010_g86
 
Tsukubar8
Tsukubar8Tsukubar8
Tsukubar8
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*
 
Ajacs17
Ajacs17Ajacs17
Ajacs17
 
ESS
ESSESS
ESS
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる
 

Re revenge chap03-1

  • 1. PRML 3章 線形回帰モデル 3.1 ∼ 3.1.2 pp. 135-141 PRML復復習レーン #3 2012/07/16 yag_ays 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
  • 2. 3.1∼3.1.2のあらすじ • 線形回帰 • 入力変数から目標変数を予測 • 入力変数に関して非線形な関数を導入する (xn ) • 最尤推定と最小二乗法 • パラメータを推定する • 最小二乗法の幾何学
  • 3. 3.1 線形基底関数モデル 最も単純な線形回帰モデルを考える y(x, w) = w0 + w1 x1 + · · · + wD xd 入力変数: x = (x1 , . . . xD )T パラメータ: w = (w0 , . . . wD )T 入力変数に関して線形関数に 基底関数の なっているため,表現能力に乏しい 導入
  • 4. 入力変数に関して非線形な関数 j (x) を噛ませる M 1 X y(x, w) = w0 + wj j (x) j=1 バイアスパラメータ w0 を整理して M 1 X T y(x, w) = wj j (x) = w (x) ただし j=0 0 (x) =1 関数 y(x, w) : 非線形 パラメータ w : 線形 基底関数 j (x) : 非線形
  • 5. よく用いられる基底関数の例 多項式 ガウス基底関数 シグモイド関数 ⇢ 2 ✓ ◆ j (x µj ) x µj j (x) =x j (x) = exp 2s2 j (x) = s • その他 • スプライン関数で範囲を区切る • フーリエ基底やウェーブレットも
  • 6. 3.1.1 最尤推定と最小二乗法 目的変数 が関数    とノイズ で与えられる時 t y(x, w) ✏ t = y(x, w) + ✏ ノイズがガウス分布に従うとすると p(t|x, w, ) = N (t|y(x, w), 1 ) 入力ベクトルと目標値が与えられた時の尤度関数は N Y T 1 p(t|X, w, ) = N (tn |w (xn ), ) n=1
  • 7. 両辺対数を取って N X T 1 ln p(t|X, w, ) = N (tn |w (xn ), ) n=1 N N = ln ln 2⇡ ED (w) 2 2 このとき,二乗和誤差関数は XN 1 T 2 ED (w) = {tn w (xn )} 2 n=1 尤度関数の最大化 = 二乗和誤差関数の最小化 なので N X T T r ln p(t|X, w, ) = {tn w (xn )} (xn ) n=1
  • 8. 勾配を0とおいて w について解く N N ! X T X T T 0= tn (xn ) w (xn ) (xn ) n=1 n=1 (展開しただけ) w について解く wML = ( T ) 1 T t 計画行列
  • 9. バイアスパラメータw0 の解釈 バイアスパラメータを残したまま 二乗和誤差関数を求めると XN M 1 X 1 2 ED (w) = {tn w0 wj j (xn )} 2 n=1 j=1 w0 について解くと M 1 X ¯ w0 = t wj j j=1 N XN 1 X 1 ただし, = ¯ t tn j = j (xn ) N n=1 N n=1
  • 10. バイアスパラメータw0 の解釈 M 1 X ¯ w0 = t wj j j=1 目標変数の平均 ー 基底関数の平均 N ¯ 1X 1X N t= tn j = j (xn ) N n=1 N n=1 また,ノイズの精度パラメータ について XN 1 1 T 2 = {tn wM L (xn )} ML N n=1 これは回帰関数周りでの目標値との残差分散
  • 12. 3.1.2 最小二乗法の幾何学(補足) • 皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ ば幸い. • 図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正 射影したものがy.この図ではM=2,N=3. • tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表 すことができる.基底関数の数MをNと同じにすればtを正確に表現 することができるが,それでは過学習のような状態になってしまうた め,Nより少ない数(M<N)で何とか表現したい. • そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和 誤差の幾何学的な関係. • 「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが 作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない 次元数でtを上手く表現できていることになって嬉しい) • このような幾何学的解釈は,この後もPRML下巻などで出てくるらし い