SlideShare a Scribd company logo
1 of 42
劣微分
Shinta Urakami
今回の目標
•劣微分というものについて,最低限のイ
メージとそのメリット(使用場所:Lasso)
について発表する.
• 数理的な最適化の話(共役関数とか)は今後勉強しながら
やっていく.
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
• まず,劣微分とは,,,
劣微分とは(ざっくりversion)
集合である
この確認はすごく大事である
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
なぜ,この確認が必要なのか(ざっくり)
• 微分と劣微分の関係性を見ていこう
劣微分は,微分の一般化
微分とは(一変数のとき)
ある関数 に対して,
導関数
この導関数を求めることを
「微分する」という.
微分とは(一変数のとき)
ある関数 に対して,
導関数
劣微分いつ使うの?
微分とは(一変数のとき)
ある関数 に対して,
導関数
微分と連続性の関係性
より必要になる.
微分と連続性の関係
• この世の関数なんでもかんでも,微分できるわけじゃない.
<微分可能性の定義>
微分可能性→関数のグラフがなめらか
数式でいうと,,
が, で微分可能のとき
が存在する
微分可能 連続
連続 微分可能
→
→
微分可能じゃない関数
連続であるが,微分可能
ではない(ノットなめらか)
例)
のとき,
右極限のときは1
左極限のときは-1
極限が一致せず,
微分不可能となる.
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>
L1ノルム(微分不可能)を
含む関数を微分したい...
でも微分したい,,,,
基本的に絶対値は微分不可能
L1ノルム???絶対値 Lassoやん
<Lassoの目的関数>劣微分
劣微分とは(定義ベースで)
と凸関数 に関して,条件
を満たす, を点 における の劣勾配という.
劣勾配全体の集合を劣微分 と呼ぶ.
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
劣微分とは(定義ベースで)
と凸関数 に関して,条件
?
一変数における図的理解を行う
一変数関数における劣微分
• 一変数における凸関数 の のときの劣微分
傾き
関数 が. を通る傾き の直線より上側にあるような を
劣勾配という.
この列勾配の集合を劣微分という
なぜならこの条件を満たすものは複数あるから
要は,多変量に拡張しただけ
一変数
多変量
要は,多変量に拡張しただけ
一変数
多変量
n次元からスカラーに写像している
要は,多変量に拡張しただけ
一変数
多変量
計算結果はスカラーになる
劣微分とは
条件
要素
イメージ的にも,定義的にも劣微分が集合であることがわかる.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
劣微分については
イメージできた.
で考えてみよう
傾き
条件を満たす は,複数ある.
Ex.). = -0.2 も, = 0.7も劣勾配
Lassoと劣微分の関係を
知りたい
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
Lasso
データ行列:
L1ノルム: L2ノルム:
正則化パラメータ:
回帰係数:
目的変数:
目的関数
どうやって求めるのか.
結論
で求める
軟閾値作要素
結論
で求める
軟閾値作要素
??????
結論
で求める
軟閾値作要素
なぜこの形になるか,
劣微分を使って説明
Lasso
L1ノルム=絶対値の和
微分不可能
劣微分使用
各列が直交で,長さが全て
を仮定.
微分していくぅ!(cv.金子)
で微分
に関しての微分
と同じ考え方
= 0のとき,微分不可能
もう一度再確認
のとき
劣微分
同様に
劣微分
まとめよう
劣微分の要素を とする.
について解く
まとめよう
の条件に当てはめると
正則化項の強さの話
ハイパーパラメータ
ここを強くすると,スパース
度合いも大きくなる
さきほどの式から明らか!
正則化項の強さの話
固定されてない値は であり,この
値が大きくなると,範囲も大きくなる
軟閾値作要素
さっきの条件分岐を関数にしただけ
軟閾値作用素
関数に置き換えているだけ
終わりに
• 劣微分,軟閾値作要素のイメージはつかめた.
• 今後はlasso含めての最適化を勉強していく.

More Related Content

What's hot

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会shima o
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則koba cky
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙Deep Learning JP
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Kohta Ishikawa
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 

What's hot (20)

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題1次式とノルムで構成された最適化問題とその双対問題
1次式とノルムで構成された最適化問題とその双対問題
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 

劣微分