SlideShare a Scribd company logo
PRML 3章 線形回帰モデル
 3.1 ∼ 3.1.2
pp. 135-141

PRML復復習レーン #3
2012/07/16                                   yag_ays



 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
3.1∼3.1.2のあらすじ


• 線形回帰
 • 入力変数から目標変数を予測
 • 入力変数に関して非線形な関数を導入する   (xn )

• 最尤推定と最小二乗法
 • パラメータを推定する
• 最小二乗法の幾何学
3.1 線形基底関数モデル

最も単純な線形回帰モデルを考える
        y(x, w) = w0 + w1 x1 + · · · + wD xd


  入力変数: x = (x1 , . . . xD )T
 パラメータ: w = (w0 , . . . wD )T



  入力変数に関して線形関数に                           基底関数の
なっているため,表現能力に乏しい                            導入
入力変数に関して非線形な関数                      j (x) を噛ませる

                         M 1
                         X
        y(x, w) = w0 +         wj   j (x)
                         j=1



バイアスパラメータ w0 を整理して
              M 1
              X
                              T
    y(x, w) =     wj j (x) = w (x)
                                     ただし
               j=0
                                            0 (x)   =1

         関数 y(x, w) : 非線形
      パラメータ w       : 線形
       基底関数 j (x) : 非線形
よく用いられる基底関数の例
多項式              ガウス基底関数                               シグモイド関数
                                 ⇢                 2
                                                                   ✓                ◆
             j                       (x     µj )                       x       µj
j (x)   =x       j (x)   = exp
                                          2s2
                                                       j (x)   =
                                                                           s




   • その他
    • スプライン関数で範囲を区切る
    • フーリエ基底やウェーブレットも
3.1.1 最尤推定と最小二乗法

目的変数 が関数    とノイズ で与えられる時
    t   y(x, w) ✏
    t = y(x, w) + ✏


ノイズがガウス分布に従うとすると
  p(t|x, w, ) = N (t|y(x, w), 1 )


入力ベクトルと目標値が与えられた時の尤度関数は
                 N
                 Y
                           T       1
   p(t|X, w, ) =   N (tn |w (xn ),   )
                      n=1
両辺対数を取って N
                  X
                            T               1
 ln p(t|X, w, ) =   N (tn |w (xn ),             )
                 n=1
                 N           N
               =   ln          ln 2⇡       ED (w)
                 2           2

このとき,二乗和誤差関数は
                XN
              1                     T            2
     ED (w) =       {tn         w       (xn )}
              2 n=1


尤度関数の最大化 = 二乗和誤差関数の最小化 なので
                    N
                    X
                           T             T
 r ln p(t|X, w, ) =   {tn w (xn )} (xn )
                       n=1
勾配を0とおいて w について解く
        N                                N
                                                                 !
        X                T
                                         X                   T
                                     T
   0=         tn (xn )           w             (xn ) (xn )
        n=1                              n=1
                                                     (展開しただけ)

w について解く
  wML = ( T )      1     T
                             t




         計画行列
バイアスパラメータw0 の解釈
バイアスパラメータを残したまま
  二乗和誤差関数を求めると
            XN               M 1
                             X
          1                                     2
 ED (w) =       {tn   w0           wj   j (xn )}
          2 n=1              j=1



w0 について解くと
                      M 1
                      X
                  ¯
             w0 = t          wj    j
                       j=1

                      N                           XN
                   1 X                          1
            ただし, =
                ¯
                t        tn               j   =         j (xn )
                   N n=1                        N n=1
バイアスパラメータw0 の解釈
                     M 1
                     X
                ¯
           w0 = t          wj    j
                     j=1

    目標変数の平均 ー 基底関数の平均
             N
       ¯  1X                     1X
                                     N
       t=       tn         j   =         j (xn )
          N n=1                  N n=1




また,ノイズの精度パラメータ について
                XN
       1      1                  T                 2
            =       {tn         wM L        (xn )}
       ML     N n=1

     これは回帰関数周りでの目標値との残差分散
3.1.2 最小二乗法の幾何学



幾何学なんて無かった...
3.1.2 最小二乗法の幾何学(補足)
•   皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ
    のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ
    ば幸い.

•   図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正
    射影したものがy.この図ではM=2,N=3.

•   tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表
    すことができる.基底関数の数MをNと同じにすればtを正確に表現
    することができるが,それでは過学習のような状態になってしまうた
    め,Nより少ない数(M<N)で何とか表現したい.

•   そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト
    ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和
    誤差の幾何学的な関係.

•   「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが
    作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない
    次元数でtを上手く表現できていることになって嬉しい)

•   このような幾何学的解釈は,この後もPRML下巻などで出てくるらし
    い

More Related Content

What's hot

Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
 

What's hot (20)

PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 

Viewers also liked (6)

NICOMI
NICOMINICOMI
NICOMI
 
Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1Osaka prml reading_3.2-3.3.1
Osaka prml reading_3.2-3.3.1
 
Spotfire_8
Spotfire_8Spotfire_8
Spotfire_8
 
Prml
PrmlPrml
Prml
 
Kdd 2014 Tutorial - the recommender problem revisited
Kdd 2014 Tutorial -  the recommender problem revisitedKdd 2014 Tutorial -  the recommender problem revisited
Kdd 2014 Tutorial - the recommender problem revisited
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 

Similar to Re revenge chap03-1

13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
show you
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
t2tarumi
 

Similar to Re revenge chap03-1 (20)

PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
Prml07
Prml07Prml07
Prml07
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう 「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
「3.1.2最小二乗法の幾何学」PRML勉強会4 @筑波大学 #prml学ぼう
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
お披露目会05/2010
お披露目会05/2010お披露目会05/2010
お披露目会05/2010
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML5
PRML5PRML5
PRML5
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
ndwave5.pdf
ndwave5.pdfndwave5.pdf
ndwave5.pdf
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 

More from 裕樹 奥田 (8)

Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
20110602labseminar pub
20110602labseminar pub20110602labseminar pub
20110602labseminar pub
 
bmb2010_g86
bmb2010_g86bmb2010_g86
bmb2010_g86
 
Tsukubar8
Tsukubar8Tsukubar8
Tsukubar8
 
Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*Rを用いた解析の実例 Project *ぶろったん*
Rを用いた解析の実例 Project *ぶろったん*
 
Ajacs17
Ajacs17Ajacs17
Ajacs17
 
ESS
ESSESS
ESS
 
Diagramパッケージを使ってみる
Diagramパッケージを使ってみるDiagramパッケージを使ってみる
Diagramパッケージを使ってみる
 

Re revenge chap03-1

  • 1. PRML 3章 線形回帰モデル 3.1 ∼ 3.1.2 pp. 135-141 PRML復復習レーン #3 2012/07/16 yag_ays 図は全てhttp://research.microsoft.com/en-us/um/people/cmbishop/prml/webfigs.htmより
  • 2. 3.1∼3.1.2のあらすじ • 線形回帰 • 入力変数から目標変数を予測 • 入力変数に関して非線形な関数を導入する (xn ) • 最尤推定と最小二乗法 • パラメータを推定する • 最小二乗法の幾何学
  • 3. 3.1 線形基底関数モデル 最も単純な線形回帰モデルを考える y(x, w) = w0 + w1 x1 + · · · + wD xd 入力変数: x = (x1 , . . . xD )T パラメータ: w = (w0 , . . . wD )T 入力変数に関して線形関数に 基底関数の なっているため,表現能力に乏しい 導入
  • 4. 入力変数に関して非線形な関数 j (x) を噛ませる M 1 X y(x, w) = w0 + wj j (x) j=1 バイアスパラメータ w0 を整理して M 1 X T y(x, w) = wj j (x) = w (x) ただし j=0 0 (x) =1 関数 y(x, w) : 非線形 パラメータ w : 線形 基底関数 j (x) : 非線形
  • 5. よく用いられる基底関数の例 多項式 ガウス基底関数 シグモイド関数 ⇢ 2 ✓ ◆ j (x µj ) x µj j (x) =x j (x) = exp 2s2 j (x) = s • その他 • スプライン関数で範囲を区切る • フーリエ基底やウェーブレットも
  • 6. 3.1.1 最尤推定と最小二乗法 目的変数 が関数    とノイズ で与えられる時 t y(x, w) ✏ t = y(x, w) + ✏ ノイズがガウス分布に従うとすると p(t|x, w, ) = N (t|y(x, w), 1 ) 入力ベクトルと目標値が与えられた時の尤度関数は N Y T 1 p(t|X, w, ) = N (tn |w (xn ), ) n=1
  • 7. 両辺対数を取って N X T 1 ln p(t|X, w, ) = N (tn |w (xn ), ) n=1 N N = ln ln 2⇡ ED (w) 2 2 このとき,二乗和誤差関数は XN 1 T 2 ED (w) = {tn w (xn )} 2 n=1 尤度関数の最大化 = 二乗和誤差関数の最小化 なので N X T T r ln p(t|X, w, ) = {tn w (xn )} (xn ) n=1
  • 8. 勾配を0とおいて w について解く N N ! X T X T T 0= tn (xn ) w (xn ) (xn ) n=1 n=1 (展開しただけ) w について解く wML = ( T ) 1 T t 計画行列
  • 9. バイアスパラメータw0 の解釈 バイアスパラメータを残したまま 二乗和誤差関数を求めると XN M 1 X 1 2 ED (w) = {tn w0 wj j (xn )} 2 n=1 j=1 w0 について解くと M 1 X ¯ w0 = t wj j j=1 N XN 1 X 1 ただし, = ¯ t tn j = j (xn ) N n=1 N n=1
  • 10. バイアスパラメータw0 の解釈 M 1 X ¯ w0 = t wj j j=1 目標変数の平均 ー 基底関数の平均 N ¯ 1X 1X N t= tn j = j (xn ) N n=1 N n=1 また,ノイズの精度パラメータ について XN 1 1 T 2 = {tn wM L (xn )} ML N n=1 これは回帰関数周りでの目標値との残差分散
  • 12. 3.1.2 最小二乗法の幾何学(補足) • 皆様から教えてもらったことを自分なりに解釈してみる(ほとんどそ のまま).普通に間違ったこと書いてると思うので,指摘して頂けれ ば幸い. • 図3.2の見方としては,tが手前に伸びている.それを部分空間Sに正 射影したものがy.この図ではM=2,N=3. • tのベクトルの要素はデータ点の数N個あるので,tはN次元空間で表 すことができる.基底関数の数MをNと同じにすればtを正確に表現 することができるが,それでは過学習のような状態になってしまうた め,Nより少ない数(M<N)で何とか表現したい. • そのときにM次元空間で扱える範囲でtに一番似せようとしたベクト ルがyであり,これはtの正射影ベクトルになる.これがtとyと二乗和 誤差の幾何学的な関係. • 「二乗和誤差はyとtの二乗ユークリッド距離に等しい」は,yとtが 作る三角形のもう一つの辺のこと(これが小さくなるとNより少ない 次元数でtを上手く表現できていることになって嬉しい) • このような幾何学的解釈は,この後もPRML下巻などで出てくるらし い