SlideShare uma empresa Scribd logo
1 de 35
Baixar para ler offline
Variational Dropout and the Local
Reparameterization Trick
Diederik P.Kingma, Tim Salimans and Max Welling
発表者  鈴鈴⽊木雅⼤大
本論論⽂文について
¤  発表学会不不明
¤  Submitted on 8 Jun 2015(arXiv)
¤  7/17現在まだ書き終わってないっぽい(結構説明が抜けてたりする)
¤  最近よく名前を聞く「変分オートエンコーダー」シリーズの新作
¤  要約すると「Dropout = local reparameterization trickだった!!」っ
ていう論論⽂文
¤  当然ながら論論⽂文には図がほとんどありません!
¤  抽象的な議論論なのでほとんど数式な上、難解
¤  今回は元となる確率率率的勾配変分ベイズ(SGVB)の説明から始めます
¤  EMや変分ベイズは⼤大体わかっている前提で話します
※この資料料は誤解と偏⾒見見であふれています(変なとこあったら訂正お願いします)
⽬目次
¤  EMアルゴリズムと変分ベイズ
¤  確率率率的勾配変分ベイズ(SGVB)の説明
¤  Variational Dropout and the Local Reparameterization Trick
⽬目次
¤  EMアルゴリズムと変分ベイズ
¤  確率率率的勾配変分ベイズ(SGVB)の説明
¤  Variational Dropout and the Local Reparameterization Trick
EMアルゴリズムと変分ベイズ
¤  EMアルゴリズム
¤  尤度度                            を最⼤大化
¤  最尤推定(パラメータ推定)
¤  下界を求めて、q(z)とθについて最⼤大化
¤  変分ベイズ
¤  周辺尤度度(エビデンス)                      を最⼤大化
¤  ベイズ推定(分布推定)
¤  q(z)について平均場近似(因⼦子分解)
¤  下限を求めて、それぞれのq(z)について最⼤大化
⽬目次
¤  EMアルゴリズムと変分ベイズ
¤  確率率率的勾配変分ベイズ(SGVB)の説明
¤  Variational Dropout and the Local Reparameterization Trick
問題設定
¤  データセットからこの分布を学習する
¤  zは潜在変数、θは分布のパラメータ
¤  p(z)とp(x|z)は微分可能
¤  ただし分布の形は限定しない
x
z
問題点
¤  周辺分布p(x)が扱いづらい
¤  p(x)=∫p(z)p(z|x)dz
¤  これだけなら、割とよくある問題
¤  p(z|x)も困難
¤  p(z|x)=p(x|z)p(z)/p(x)
¤  EMアルゴリズムが使えない!
¤  データがたくさんあるので、サンプリングだと時間がかかる!
¤  解析的に求めたい
→これらを解決する、より⼀一般的なアルゴリズムを作りたい!
「認識識モデル」の導⼊入
¤  q(x|z)という分布を考える
¤  p(x|z)は困難なので、別の分布で置いて真の分布に近づける
¤  この考え⽅方は変分ベイズでもあるが、因⼦子分解の仮定を置かない
¤  求める分布パラメータはφとθ
下限の導出
¤  ⼀一般的な下限の導出の流流れと同じ
を下限、もしくは変分下限とよぶ
下限の計算
¤  下限部分は次のように計算できる
期待値部分は解析解を求めることができない!
モンテカルロサンプリング
⼀一般的にサンプリングによって期待値            は次のように求まる
¤  サンプリング              が微分可能な関数        から決定論論的
に求まると考える
¤  よって、期待値は次のように求まる
reparameterization trick
reparameterization trick
1. qφ(z|x) からサンプリングして {z(l)
}L
l=
2. z(l)
を使って, 次のように期待値を求め
Eqφ(z|x)
ここで,z ∼ qφ(z|x) が, 微分可能な関数 g(ϵ
だし ϵ は任意のノイズで,p(ϵ) から生成される
よって, 式 (7) は次のようになる.
Eq(z|x,φ)[f(z)] = q(z|x
= p(ϵ)f
= p(ϵ)f
ただし      は      から⽣生成されるノイズ
下界の期待値部分は解析解を求めることが困難なので, サンプリングによっ
待値 Eqφ(z|x)[f(z)] をサンプリングで置き換える場合, 一般的に次のように求
1. qφ(z|x) からサンプリングして {z(l)
}L
l=1 を得る.
2. z(l)
を使って, 次のように期待値を求める.
Eqφ(z|x)[f(z)] ≃
1
L
L
l=1
f(z(l)
)
ここで,z ∼ qφ(z|x) が, 微分可能な関数 g(ϵ, x) から決定論的に求まると考
だし ϵ は任意のノイズで,p(ϵ) から生成される.
よって, 式 (7) は次のようになる.
Eq(z|x,φ)[f(z)] = q(z|x, φ)f(z)dz
= p(ϵ)f(z)dϵ (∵ q(z|x, φ)dz = p(ϵ)d
= p(ϵ)f(g(ϵ, x))dϵ
= Ep(ϵ)[f(g(ϵ, x))] ≃
1
L
L
l=1
f(g(ϵ(l)
, x))
(l)
確率率率的勾配変分ベイズ(SGVB)
¤  よって下限の推定量量は次のようになる
この推定量量を確率率率的勾配変分ベイズ(SGVB)推定量量と呼ぶ
¤  第1項が負のreconstruction error、第2項を正規化項と⾒見見なせる
確率率率的勾配変分ベイズ(SGVB)
¤  全データ(データ数N)からランダムに抽出したミニバッチ(データ
数M)が与えられたとき、全データの下限はSGVB推定量量から次のよ
うに求まる
¤  ミニバッチ数が多いとき(M=100)、サンプル数Lは1でいいことが実験によ
りわかっている
¤  よってバッチあたりのサンプル数は1回でよい
¤  この式は微分可能なので、通常の最適化⼿手法(SGDとか)θやφを最
⼤大化することができる
確率率率的勾配変分ベイズ(SGVB)のアルゴリズム
¤  全体の流流れ:
1.  データセットからM個のミニバッチをランダムに抽出
2.  ノイズをランダムにサンプリング
3.  勾配                    を求める
4.  勾配によってθとφを更更新(エンコードとデコードを同時に学習できる)
5.  収束するまで繰り返し
SGVBの例例:変分オートエンコーダー
エンコーダーやデコーダーがニューラルネット
¤  事前分布
¤  デコーダー
¤  ガウス分布
¤  エンコーダー
¤  ガウス分布(上の式のzの部分をxにする)
¤  よってエンコーダのreparamaterization trickは次のようになる
ただし
SGVBの利利点
¤  ベイズ推定なので、⾮非常にロバスト
¤  ⽣生成・認識識を同時に学習
¤  推論論が⾃自在
¤  Hintonのヘルムホルツマシンが近い
¤  推論論が⾮非常に⾼高速
¤  MCMC等がいらない。分布からのサンプリング(しかも1回)のみ
¤  従来の最適化の⽅方法をそのまま使える
¤  既存の⽣生成モデルに適⽤用可能
¤  従来の⽣生成モデルより深い知識識を獲得できる
¤  明⽰示的にモデル化できる+Deep Learningの深さ
¤  時系列列モデルへの応⽤用(動的ベイジアンネット:⼈人の注意のモデル化な
ど)
⽬目次
¤  EMアルゴリズムと変分ベイズ
¤  確率率率的勾配変分ベイズ(SGVB)の説明
¤  Variational Dropout and the Local Reparameterization Trick
ベイズ的な識識別モデル
¤  データセット      が与えられたとき、識識別モデル          のパラ
メータ    を学習する
¤  ベイズ的なアプローチでは、あらかじめ信念念として事前分布      が与え
られ、データによって信念念が更更新されると考える
¤  しかしこの事後分布は扱いづらいので、      という分布を考え、この分
布を事後分布に近づけることを考える
¤  つまりKLダイバージェンス                  を最⼩小化する
¤  この計算は変分下限を最⼤大化することで求まる(詳しい話は省省略略)
識識別モデルのSGVB
¤  SGVBの⼿手法によって、下限の期待値部分(期待対数尤度度)は次のよ
うに計算できる
¤  よって、これを含めた下限をφについて偏微分することで計算できる
ただし
SGDにおける分散の影響
¤  確率率率的勾配降降下法(SGD)は勾配の分散が⼤大きすぎると、いくら時間
をかけてもよい解にならない
¤  ここで期待値対数尤度度                  の分散の上限を確認する
¤  ノイズεは、ミニバッチの各データ毎にサンプリングしているわけで
はないので、共分散の部分は正になる
→分散はバッチ数が⼤大きくても共分散部分、すなわちεに影響される!
ミニバッチ数Mの影響 データ間の対数尤度度の共分散
ただし
local reparameteraization trick
¤  結局問題は、εを直接サンプリングしていたこと
¤  解決策:εをサンプリングするのではなく、各データに依存するf(ε)で
サンプリングすればいい
¤  そうすれば、データ全体でのグローバルな曖昧さをデータ毎のローカルな
曖昧さに落落とし込めるので、共分散は0になる!
¤  このように、グローバルなノイズをローカルなノイズに落落とし込むこ
とをlocal reparameterization trickと呼ぶ
¤  すごく分かり⾟辛いので、論論⽂文に載っている例例を説明します・・・
•  事前分布                         から普通の
reparameteraization trickをするとつぎのようになる
  
•  もし共分散を0にしたかったら、全てのバッチで全ての重みをサン
プリングしなければならない
すなわち1000✖1000✖M回!!
•  実際のネットワークはもっと複雑なので、分散処理理も難しい
local reparameteraization trickの例例
¤  次のような単純なニューラルネットを考える
B
1000
1000 = A
1000
M W
1000
1000
出⼒力力 ⼊入⼒力力バッチ 重み
local reparameteraization trickの例例
¤  次のような単純なニューラルネットを考える
B
1000
M = A
1000
M W
1000
1000
出⼒力力 ⼊入⼒力力バッチ 重み
•  今度度は、Bからサンプリングすることを考える
•  このようなlocalなreparameteraization trickは次のようになる
•  この場合、共分散を0にするためのサンプル数はM✖1000回で済む!!
→localであることによって計算が少なくてすみ、分散も⼩小さくなる
ただし
ただし
変分ドロップアウト
¤  ドロップアウト:ニューラルネットの汎化性能を上げるテクニック
¤  最適化の際に、次のように各層にノイズを加える
¤  ノイズの分布としてベルヌーイ分布が知られている(ノイズが0または1)
¤  また、ガウス分布による⽅方法も同等以上となる
¤  ドロップアウトを今回の変分アプローチの元で再解釈
変分ドロップアウト
¤  応⽤用例例として、データに適応するようなドロップアウトの割合pを決定で
きたりする
ただし
ただし
independent weight noise
¤  ノイズξがガウス分布N(1,α)から独⽴立立に⽣生成されるとすると、bの周辺
分布もガウス分布となる
¤  Wang and Manning (2013) と同じ
¤  ただしこの場合、Bの異異なる要素の依存関係を無視している
¤  先ほどのようにB=AWを考え、Wの事後分布を                      
とすると、上の式はlocal reparameterizaiton trickの応⽤用例例であるこ
とがわかる
correlated weight noise
¤  今度度は、もともとの定義のように、Bの依存関係を考慮したノイズを
考える
¤                の重み          を                と考えて
ノイズを次のように考える
¤  ノイズは縦ベクトルに対するスケール変数になっている
¤  このノイズもlocal reparameterizaiton trickと考えることができる
W
変分ドロップアウトの下限
¤  これまで考えた事後分布はパラメータθとノイズ項αに分解できる
→dropout posterior
¤  Dropoutの訓練時はθを期待対数尤度度            のパラメータとす
る。すると最⼤大化する下限は次のようになる。
¤  KLダイバージェンスの部分については、いろいろ計算すると次のよう
になる
※scale invariant log-uniform priorという事前分布を考えて、かなり⻑⾧長い計
算をしていますが省省略略します
ドロップアウト率率率の最適化
¤  通常、ドロップアウト率率率αは固定したハイパーパラメータとして扱わ
れる
¤  今回の場合、変分ドロップアウトの下限をαについて最⼤大化すれば、
簡単に求められる
¤  ベイズ推定なので、パラメータに対してロバストだが、それでも効果があ
る
¤  ただし、αは最⼤大値を1とした(ノイズが⼤大きくなることを防ぐため)
実験
¤  つぎの⼿手法で⽐比較
¤  standard binary dropout
¤  Gaussian dropout type A (Aにノイズ)
¤  Gaussian dropout type B (Bにノイズ)
¤  variational dropout type A
¤  variational dropout type B
¤  MNISTで実験
¤  fully connectedなニューラルネット(隠れ層3)
¤  rectified linear units(ReLUs)
¤  dropout rate: input layer p=0.2, hidden layers p=0.5
¤  early stopping
実験結果(分散)
¤  variational dropout type Bで学習
¤  他のdropoutの結果と⽐比べて分散が抑えられていることがわかる
¤  ただし、dropoutしない場合に⽐比べるとまだ⼤大きい
実験結果(速度度)
¤  通常のSGVB(ただしデータごとに全ての重みについてサンプルした
場合)とlocal reparameterizationによるSGVBをepochごとの経過
時間で⽐比較
¤  通常のSGVB:1635sec
¤  今回のSGVB:7.4sec
¤  local reparameterizaitonによって200倍以上経過時間が速くなった
実験結果(クラス分類のエラー率率率)
¤  他の⼿手法と⽐比べると同等以上の精度度
¤  隠れ層が⼩小さい場合、特に顕著
¤  ⼩小さい場合は、
¤  A2はダウンスケールしたKLダイバージェンスを使⽤用
¤  詳細は不不明、書いてない
まとめ
¤  local reparameterization trickを提案した
¤  globalな不不確かさをlocalに
¤  計算の複雑さを抑える
¤  簡単に並列列化
¤  分散を⼩小さくできる
¤  ドロップアウトはlocal reparameterization trickの例例
¤  variational dropout
¤  ドロップアウト率率率を最初に固定するのではなくて、データから推定する

Mais conteúdo relacionado

Mais procurados

[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−Deep Learning JP
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf幸太朗 岩澤
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningssuserca2822
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from PixelsDeep Learning JP
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior NetworksDeep Learning JP
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...Deep Learning JP
 

Mais procurados (20)

[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
[DL輪読会]Estimating Predictive Uncertainty via Prior Networks
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
 

Destaque

(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi DivergenceMasahiro Suzuki
 
(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target Propagation(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target PropagationMasahiro Suzuki
 
(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning
(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning
(研究会輪読) Facial Landmark Detection by Deep Multi-task LearningMasahiro Suzuki
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...Masahiro Suzuki
 
(研究会輪読) Weight Uncertainty in Neural Networks
(研究会輪読) Weight Uncertainty in Neural Networks(研究会輪読) Weight Uncertainty in Neural Networks
(研究会輪読) Weight Uncertainty in Neural NetworksMasahiro Suzuki
 
(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot LearningMasahiro Suzuki
 
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Yukiyoshi Sasao
 
(DL Hacks輪読) How transferable are features in deep neural networks?
(DL Hacks輪読) How transferable are features in deep neural networks?(DL Hacks輪読) How transferable are features in deep neural networks?
(DL Hacks輪読) How transferable are features in deep neural networks?Masahiro Suzuki
 
(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural Network(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural NetworkMasahiro Suzuki
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...Masahiro Suzuki
 
(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel Learning(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel LearningMasahiro Suzuki
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural NetworksMasahiro Suzuki
 
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...Kimikazu Kato
 
Large-Scale Object Classification Using Label Relation Graphs
Large-Scale Object Classification Using Label Relation GraphsLarge-Scale Object Classification Using Label Relation Graphs
Large-Scale Object Classification Using Label Relation GraphsTakuya Minagawa
 
(DL hacks輪読) Deep Kalman Filters
(DL hacks輪読) Deep Kalman Filters(DL hacks輪読) Deep Kalman Filters
(DL hacks輪読) Deep Kalman FiltersMasahiro Suzuki
 
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De... Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...Ohsawa Goodfellow
 
Iaetsd deblurring of noisy or blurred
Iaetsd deblurring of noisy or blurredIaetsd deblurring of noisy or blurred
Iaetsd deblurring of noisy or blurredIaetsd Iaetsd
 
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...Kaoru Nasuno
 

Destaque (20)

(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence
 
(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target Propagation(DL hacks輪読) Difference Target Propagation
(DL hacks輪読) Difference Target Propagation
 
(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning
(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning
(研究会輪読) Facial Landmark Detection by Deep Multi-task Learning
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
 
(研究会輪読) Weight Uncertainty in Neural Networks
(研究会輪読) Weight Uncertainty in Neural Networks(研究会輪読) Weight Uncertainty in Neural Networks
(研究会輪読) Weight Uncertainty in Neural Networks
 
(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning(DL輪読)Matching Networks for One Shot Learning
(DL輪読)Matching Networks for One Shot Learning
 
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
 
(DL Hacks輪読) How transferable are features in deep neural networks?
(DL Hacks輪読) How transferable are features in deep neural networks?(DL Hacks輪読) How transferable are features in deep neural networks?
(DL Hacks輪読) How transferable are features in deep neural networks?
 
(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural Network(DL hacks輪読)Bayesian Neural Network
(DL hacks輪読)Bayesian Neural Network
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...
(DL hacks輪読) Seven neurons memorizing sequences of alphabetical images via sp...
 
(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel Learning(DL hacks輪読) Deep Kernel Learning
(DL hacks輪読) Deep Kernel Learning
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...
【論文紹介】Approximate Bayesian Image Interpretation Using Generative Probabilisti...
 
Large-Scale Object Classification Using Label Relation Graphs
Large-Scale Object Classification Using Label Relation GraphsLarge-Scale Object Classification Using Label Relation Graphs
Large-Scale Object Classification Using Label Relation Graphs
 
(DL hacks輪読) Deep Kalman Filters
(DL hacks輪読) Deep Kalman Filters(DL hacks輪読) Deep Kalman Filters
(DL hacks輪読) Deep Kalman Filters
 
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De... Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 
Iaetsd deblurring of noisy or blurred
Iaetsd deblurring of noisy or blurredIaetsd deblurring of noisy or blurred
Iaetsd deblurring of noisy or blurred
 
Deblurring in ct
Deblurring in ctDeblurring in ct
Deblurring in ct
 
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
 

Semelhante a (DL hacks輪読) Variational Dropout and the Local Reparameterization Trick

関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01goony0101
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告Hiroyuki TOKUNAGA
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日Atsushi Hashimoto
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 

Semelhante a (DL hacks輪読) Variational Dropout and the Local Reparameterization Trick (13)

関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
KDD2014 勉強会
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 

Último

新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Último (7)

新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 

(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick