More Related Content
Similar to 正則化つき線形モデル(「入門機械学習第6章」より)
Similar to 正則化つき線形モデル(「入門機械学習第6章」より) (20)
More from Eric Sartre (11)
正則化つき線形モデル(「入門機械学習第6章」より)
- 2. 6章の構成
• 6.1 列の非線形関係 : 直線の先にあるもの
– 6.1.1 多項式回帰の紹介
• 6.2 過学習を防ぐ方法
– 6.2.1 正則化を用いて過学習を防ぐ
• 6.3 テキスト回帰
– 6.3.1 救いの手、ロジスティック回帰
2
- 9. 単純な線形回帰を考える
[1] 線形回帰とその拡張
ˆy = w0 + w1x1 + w 2 x2 +!+ wD xD
ˆyl = ax + b
ˆyml = ax1 + bx2 +cx3 + d
!
"
#
上記の2式をにらめっこすると、次のように一般化できる:
x0=1とすれば ˆy = xjwj
j=0
D
∑ となる。
9
- 10. 単純な線形回帰を考える
[1] 線形回帰とその拡張
ˆy = xjwj
j=0
D
∑
先程求めた式で表せるものを線形回帰モデルと呼ぶ。
実際の値には誤差εが乗っていて、これはN(0, σ2)に従う
y = xjwj
j=0
D
∑ +ε
y : 独立変数, 被説明変数,目的変数
wj : 重み
xj : 従属変数, 説明変数
等分散正規分布
10
- 15. さらに一般化してみる
[1] 線形回帰とその拡張
ˆy = φj (x)wj
j=0
D
∑
以下の式で表せるものを線形基底関数モデルと呼ぶ。
なお、Φ0(x)=1とする。
y : 独立変数, 被説明変数,目的変数
wj : 重み
xj : 従属変数, 説明変数
Φ : 基底関数, リンク関数(RD→R1)
注意! R1→R1ではない
ここでyについてわかることは、
・入力xに対して非線形
・重みwに対して線形
・「入力xをΦにかけた値と重みwの積」の和
15
- 16. さらに一般化してみる
[1] 線形回帰とその拡張
ˆy = φj (x)wj
j=0
D
∑
基底関数には以下の関数がよく使われる(人間が選ぶ)
Φの形 名前 用途
xj 多項式 多項式フィッティング
exp{-(x-μ)2/2s2} ガウス基底関数 非線形SVM
σ((x-μj)/2) ロジット関数
ニューラルネット
ロジスティック回帰
16
- 17. ˆy = φj (x)wj
j=0
D
∑
重みの決め方
[1] 線形回帰とその拡張
どうやって決めるのか?
最小二乗法による推定
最尤法による推定
今回はこちらだけ
17
- 19. 重みの決め方
[1] 線形回帰とその拡張
最小二乗法による推定...の前に
ˆy = ΦT
w
n個の独立な観測データ(x1, ..., xn)があったとき、
ˆy =
ˆy1
!
ˆyn
!
"
#
#
#
#
$
%
&
&
&
&
,Φ =
φ0 (x1) " φ0 (xn )
! # !
φD (x1) " φD (xn )
!
"
#
#
#
#
$
%
&
&
&
&
yの予測値ベクトルは以下のように表せる
とおくと
x1 xn
19
- 21. 重みの決め方
[1] 線形回帰とその拡張
最小二乗法による推定
ED (w) = (yi − ˆyi )2
i=1
n
∑ これは多次元空間で下に凸
つまり「EDを最小化するw*」はこの2次関数の極値とわかる
極値は「EDを微分した結果が0になるw」なので、
∂
∂w
ED (w) = 0 を解くと、w*=(ΦΦT)-1ΦTyとわかる
「擬似逆行列」と呼ばれる。
多重共線性が無いと仮定すると
列が線形独立なのでこう計算できる
21
- 25. 正則化
[2] 過学習と正則化
ED (w) = (yi − ˆyi )2
i=1
n
∑最小二乗法においては を最小にした。
これにモデルの複雑度を示す正則化項Ewを加え、
ED (w)+ λEW (w) を最小にするw*を求めることにする。
w0
w1
L2正則化を用いた回帰
(リッジ回帰)の最適点
ちなみに、L2正則化項のときは
w*
= (λI +ΦΦT
)−1
ΦT
y
と解析的に解ける。
25
- 26. 正則化
ED (w)+ λEW (w)
[2] 過学習と正則化
パラメータλをどう決める?
交差検定を使ってみる
[1]
[2]
[3]
データ
[1]学習
[2]学習
[3]評価
[1]評価
[2]学習
[3]学習
[1]学習
[2]評価
[3]学習
λを変えながらそれぞれ試す
26
- 35. [4]本章のまとめ
• [1] 線形回帰とその拡張
– 線形回帰モデルを拡張したものが線形基底関数モデル
– 最小二乗法で重みの推定ができる
• [2] 過学習と正則化
– 線形基底モデルの複雑さは重みベクトルのノルム
– 正則化項には色々な種類がある
• [3] 正則化つき回帰をしてみる
– 適切な問題設定をしよう
35