SlideShare uma empresa Scribd logo
1 de 68
Baixar para ler offline
BAYESIAN NEURAL NETWORK
不確実性の重要性と近似推論の研究動向について
July 3 2019
関西学院大学大学院 岡留研究室
M1 太田 真人
はじめに
¡ 深く数式を追わず,ベイジアンニューラルネットワークの世界を概観する.
¡ 紹介できなかった論文を含め参考文献にトピック名付きでのせたので興味があればどうぞ.
¡ 前提知識:VAE,GAN,Normalizing Flow,変分推論,予測分布,事後分布,エントロピー,相互情報量,
正則化.
¡ 動機:NN+ベイズ推論に興味があり, BNNって需要があるのか疑問だったから.
2
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
3
¡ NNの出力に不確実性を持たせるため,決定的なNNから確率的なNNへ.
BNN:ベイジアンニューラルネットワーク
NN (ex: RNN, CNN, GNN)
[Charles+ 15]
BNNNN
確率的に出力が変化.
モデル
事前確率
に対する事前の信念.
4
BNNにおける事後確率と予測分布
事後分布
尤度関数
事前確率
周辺尤度(計算不可)
BNNでは,高次元かつ解析不可
(未観測な入力を含む)新しい入力に対するNNの出力の不確実性を示す分布.
事後分布
予測分布
訓練データが与えられたもとでのモデルパラメータの確からしさ.
(モンテカルロ近似)
5
BNNにおけるQ &A 1/3
¡ NNをベイズ化することは何が嬉しい?
¡ 正則化,アンサンブル,不確実性の推定,モデル選択,逐次学習
¡ BNNの応用問題って何があるの?
¡ 能動学習,敵対的サンプルの検出,OOD検出,モデル圧縮,転移学習[Lacoste 18],強化学習[Gal 16]
¡ モデルパラメータの事前分布は標準ガウス分布でいいの?
¡ 学習データに事前知識があっても,モデルパラメータに事前知識がないため,正則化として使われがち.
¡ Implicitな確率分布[Lacoste 17]やスパース性を意識した事前 分布[Ghosh 17]もある.
¡ GPの事前分布と対応づけようとする研究[Flam-Shepherd 17]もある.
¡ BNNの事前確率のまとめ[Nalisnick 18].
6
BNNにおけるQ &A 2/3
¡ 事後分布は解析的にもとまるの?
¡ NO,そのためサンプリングか変分推論がおこなわれる. (後者が近年は人気.)
¡ Deep Generative Modelの方で,確率的なNNの近似推論系の話は良くまとめられている.スライド[61,62]
¡ 近似事後分布はガウス分布でいいの?
¡ ELBOのKL項の計算が解析的にもとまるから利用されがち.
¡ NNのパラメータ間の相関を捉えたり,分布の多峰性を捉えるような表現力を高める研究が多い.
¡ 例:Normalizing Flowによる簡単な分布の変形[Krueger 17]やGANを用いたimplicitな分布[Adler 18].
¡ 各重みパラメータの近似事後分布はそれぞれ独立でいいの?
¡ 予測性能と不確かさが悪くなるから微妙.各重みパラメータの相関も考慮する研究がある.
¡ 例:重みパラメータに潜在変数を導入するか[Karaletsos 18], Hyper Network[Pawlowski 18]を導入し実現.
7
BNNにおけるQ &A 3/3
¡ 活性化関数の選択は予測に影響しないの?
¡ 関数の概形が大きく影響する.実験で色々な活性化関数で条件を変えて関数をサンプリングした.
¡ [Gal 16]の4章Uncertainty Quality にも図付きでたくさん実験結果がのっている.
¡ GPのカーネルを設定するのと 似ている部分についても言及されている[Pearce 19].
¡ 計算時間はかかるの?
¡ サンプリングすると計算時間はかかる.サンプル数を多く取らないと予測分散が過小評価される.
¡ テスト時の計算時間を減らす知識蒸留[Balan 15]がある.
¡ 予測分布は不確かさを表現しているの?
¡ 近似はどうしても精度と不確かさが犠牲になる. 比較した実験をスライド[57-59]紹介.
¡ 分類問題において不確かさを示すベイズ推論を用いない研究[Sensoy 18][Thulasidasan 18]がある.
8
アジェンダ
n BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
n 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
n 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
9
不確実性の種類
n ノイズの多いデータ(偶然性の不確実性:Aleatoric uncertainty )
n モデルパラメータの不確実性(認識の不確実性:Epistemic uncertainty )
n 予測の不確実性=偶然性の不確実性+認識の不確実性
n 不確実性を知る利点
p 意思決定プロセス内で意図しない行動を防ぐ鍵となる可能性がある.
p 医療の画像診断,車の自動運転,時系列データの異常検知 [Zhu 17]
[Kendall & Gal 17]
10
偶然性の不確実性
¡ 多くのデータを観測しても不確実性は減少しない.
¡ 測定精度が向上すると不確実性は減少する.
ü 偶然性の不確実性の捉え方( 特に不均一な不確実性)
¡ 入力に依存する出力のノイズ変数
¡ シンプルな入力ノイズ(潜在変数)BNN+LVモデル
[Depeweg 17]
[Kendall and Gal 17]
[Depeweg 17]
観測されていない確率的特徴をz が捉える.
観測ノイズが大きい
小 小
入力によってノイズ量が違うとき
Heteroscedastic uncertainty(不均一な不確実性)
11
認識(モデル)の不確実性
¡ 多くのデータを観測すると不確実性は減少する.
¡ 回帰の予測分散
,
偶然の不確実性(均一) 認識の不確実性
[Pearce 18]
認識の不確実性大
偶然の不確実性小
12
画像における偶然と認識(モデル)の不確実性の比較
[Kendall and Gal 17]
偶然 認識
n 偶然性の不確実性:物体の境界やカメラから遠いところで不確実性が増大.
n 認識の不確実性:モデルが過去のデータから判断できない領域で不確実性が増大.
セグメンテーションの失敗例
画像のノイズが原因ではなく,
学習データに似たような画像が
なかったのが原因.
13
偶然性の不確実性の均一性と不均一性を仮定した場合の比較
観測ノイズを小さく均一と仮定 観測ノイズが大きく均一と仮定 観測ノイズを不均一と仮定
詳しい詳細は[Gal 16]の4.6節
n [左] 訓練データに適合しており,予測分散が小さい.
n [中央] 予測平均が平滑化されている.データのあるところでも分散が大きくなっている.
n [右] 予測平均は平滑化され,予測分散は位置に応じて異なる.
14
認識(モデル)の不確実性と予測の不確実性の違い
¡ ある犬猫のクラス分類を学習したBNNが,テストデータに対して3つの出力パターンを示した.
詳細:事後確率からサンプルしたモデルパラメータの10個の出力確率の結果.
1. 全て犬の予測確率が1の場合 { (1, 0), (1, 0),…,(1, 0)}
2. 全ての予測確率が0.5 の場合 { (0.5, 0.5), (0.5, 0.5),…,(0.5, 0.5)}
3. 半分1で半分0の場合 { (1, 0), (0, 1),…, (0, 1), (1, 0)}
問
¡ モデル不確実性が高いのは何番? Ans. 3
¡ 予測の不確実性が高いのは何番? Ans. 2, 3
2, 3の違いはなんだろう?そのための指標を紹介.
M = 10
15
[Gal 16]
n 予測分布がモード周りにどの程度広がっているかを表す非ベイズ向け指標.
n 2値クラス分類において,両クラスから同等のサンプルが得られた場合,変動率は0.5.
n 一番多く分類されるクラスの全体の比率が小さいほど予測不確実性が大きく,変動率が大きい.
VARIATION RATIOS(変動率)
ただし, ,
BNN
同じ入力に対して
T回サンプル
Tサンプル中の比率最大のクラス一番多いクラスのサンプル数
出力
入力
16
予測エントロピー
¡ 予測分布の情報量の平均:BNN向けの予測の不確実性を表す指標.
¡ 全てのクラスが等確率のとき,エントロピー最大値をとる.予測の不確実性が大きい.
¡ あるクラスの確率が1のとき,エントロピー最小値0をとる.予測の不確実性が小さい.
変分推論の場合.
予測分布
17
相互情報量
予測エントロピー
¡ 予測分布とモデルパラメータの事後分布との相互情報量の大きさは認識の不確実性を意味する.
データの不確実性
[Depeweg 18]
生データ xの生成の確率密度 予測分布
学習データがない領域
生データのばらつきが大きい箇所
予測エントロピー データの不確実性 相互情報量
18
再度3つを比較する
犬猫分類の予測確率 変動率 予測エントロピー 相互情報量
犬の確率が全て1
{(1,0),..,(1,0)}
0 0 0
50%の場合
{(0.5, 0.5),…,(0.5, 0.5)}
0.5 0.5 0
犬の確率1が半々
{ (1, 0), …,(0, 1)}
0.5 0.5 0.5
予測の不確かさ 認識の不確かさ
1
2
3
¡ 2はデータの不確実性が高く,予測の不確実性が大きくなっている.
¡ 3はデータがない領域の予測だったために,予測の不確実性が大きくなっている.
19
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
20
能動学習
背景:ラベル付きデータの収集に専門知識が必要な場合、少ないラベルデータでどう学習するか?
対策:ラベルなしデータの中で最も有益なデータにラベルをつけ, モデルを学習(能動学習)する.
n 有益なデータの選定方法
¡ 例:ラベルなしデータの中でモデルの不確実性が一番大きいデータを選び,ラベルをつける.
= 平均的に事後分布のエントロピーが減少するようなデータを選ぶ.
ü 良好なモデル性能を維持しながら,必要なデータ量を桁違いに減らすことができる.
21
相互情報量基準の能動学習
¡ 新しいデータを観測した場合に,モデルの不確実性を減らしたい.
¡ 予測分布とパラメータの事後分布との相互情報量が最大となるデータ点を探す.
¡ 新しい入力とその予測分布からの出力を加えた事後分布のエントロピーの期待値は,
新しい入力に対するデータの不確実性が大きいと2項目は極端に小さくならない.
22
敵対的例の検出
¡ 背景:敵対的サンプルを検出するのは誤検知で重要になる.
¡ 対策:敵対的サンプルを予測モデルに入力した場合,予測の不確実性が大きくなることで検出.
[Feinman 17]不確実性
頻
度
敵対的サンプル
右図:MNINSTデータを用いて, LeNet convnetをMC dropoutで学習.
テストデータのモデルの不確かさをプロット
normal
noizy
adversarial (BIM)
23
OUT OF DISTRIBUTION 検出
¡ 背景: 学習データの分布と異なるデータ分布からのサンプルに対してモデルは知らないと返さない.
¡ 対策: BNNを用いて,学習データと分布が異なることを不確実性を高くして示す.
ü 一般的に,OODや訓練とテストデータの違いは,認識の不確実性を利用することが多い.
https://github.com/brendenlake/omniglot/blob/master/omniglot_grid.jpg
MNISTOMNIGLOT
データ分布異なる
24
OOD検出の研究
¡ OOD専用の不確実性 Prior Networksの提案 [Malinin 18]
¡ データの入出力関係の不確実性 Data priorsの提案 [Hafner 18]
¡ パラメータに分布を仮定せず,OODの不確実性を計算する手法 [Sensoy 18]
[Sensoy 18]の手法
単純なソフトマックスを使ったクラス分類 OOD
25
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
26
モデル圧縮(モデル選択)
¡ 背景
¡ 膨大なパラメータ数を持つNNは,メモリ・エネルギー消費に強い制限があるモバイル機器上
の用途に実用的でない.
¡ 対策
¡ NNを圧縮させる.事前確率に工夫を加えたり,小さなモデルを用意する.
圧縮
27
圧縮の思想の紹介
混合ガウス分布を用いた経験ベイズ法 スキップ接続やマスクを確率変数にしたベイズアプローチ
Horseshoe priorを用いて疎にする手法.
[Dikov 19]
[Ghosh 17]
[Ullrich 17]
知識蒸留
層ごと
ユニットごと
ハーフ
コーシー
[Balan 15]
[Vadera 19]
再学習時,w=0
多くなるように
x y
28
BAYESIAN DARK KNOWLEDGE
¡ 予測分布のモンテカルロ近似を生徒モデルに蒸留する.
¡ パラメータを格納するメモリも消費せず,計算時間も削減される.
近似予測分布 生徒モデルxの条件付けに注意!
SGDで学習
29
GMMを用いたモデル再学習による圧縮方法
n パラメータ数の大幅削減とモデルパラメータの量子化をおこなう.
¡ 学習済みモデルを再学習する際に,モデルパラメータの事前確率にGMMを使用する.
ü パラメータ総数の削減方法
GMMの平均0のクラスターを用意し,その混合率を0.999に固定する.大部分が0へ.
ü 量子化方法
クラスタ数を にし,再学習後にパラメータを一番近いクラスタ平均で量子化.
POST-PROCESSING :KLDの小さいクラスタを1つのクラスタに結合し,クラスタ数も削減.
30
どのくらい圧縮されたのか実験結果
再学習前の重みパラメータ
再
学
習
後
の
重
み
パ
ラ
メ
|
タ
¡ LeNet-300-100 ( MNINST:入力784 出力10 )
1層目96%カット(235Kパラメータ)
2層目90%カット(30Kパラメータ)
3層目18%カット(10Kパラメータ)
エラー率1.89→1.94 少し増えた.
圧縮率は64.2%
31
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
32
逐次学習
¡ 背景:事後分布を簡単な分布で近似するBNNの場合,逐次学習がうまくいかない.
¡ 対策:Prior-focused Continual Learning [Nguyen 17] , Likelihood-focused Continual Learning [Shin 17]
事前確率(一期前の事後確率)
逐次学習
Multi-headed Split MNIST.
0/1 2/3 4/5 6/7 8/9
右図:近年の手法だと過去の状態を保持し,性能が極端に落ちていない.
[Farquhar 19]
逐次のメリット:過去のデータを保持し続ける必要がない.
例えば,患者のデータなど永遠に保持したくない場合がある.
33
逐次学習の近似推論手法
¡ Prior-focused Continual Learning
¡ Likelihood-focused Continual Learning
一期前の事後分布に近づける
一期前+今
xの生成NN+y出力NN過去のデータを破棄させるため,過去データ生成器作る.
34
LIKELIHOOD-FOCUSED CONTINUAL LEARNING の補足
¡ [Shin 17]はGeneratorに過去のデータを記憶させようとしている.
¡ 一期前のパラメータの近似事後分布を近似しなくなったが, Generator の学習がうまくいくのか疑問.
の生成方法
[Shin 17]
35
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
36
ベイジアンニューラルネットワークの近似推論
¡ 事後確率の近似推論がしょぼいと先ほどの応用例が上手くいかない.
パラメータ
複雑な分布
画像のような高次元データが数万データ.
もしくは,データが極端に少ない.
生成モデル:約
識別モデル:約
BNNの特徴:モデルパラメータが高次元,事後分布が複雑な形,データが大量に与えられる.
37
全推論手法の比較
推論手法 パラメータ間の
相関関係
事後分布の
多峰性
備考
BBB × × VI (RT)
MC dropout × × VI (Dropout)
HMC ○ ○ MCMC系
SGLD ○ × Stochastic Gradient
MCMC系
MNF ○ ○ VI(NF)
Ensemble ○ ▲ 正則化NN複数
Hyper Net ○ ○ VI(Hyper Net)
w1
w2
近似ガウス分布
真の事後分布
パラメータ空間
38
STOCHASTIC GRADIENT LANGEVIN DYNAMICS(SGLD)
n 変分推論ではなく,SGMCMCの代表的な手法.
n 尤度関数のSGDに事前分布の勾配を加えてMAP解の周りからサンプリングする手法.
利点:ミニバッチで学習ができる. (Big n 問題)
:近似分布を仮定しておらず,重みの相関を捉えることができる.
欠点:真の事後分布の単峰のみ捉える.
:相関サンプルを生成するため,多くのサンプルが必要.
アニーリング
39
¡ 各モデルパラメータに独立に近似分布を仮定する.
¡ 予測精度と予測分散がMCMC系より悪くなる.
¡ 真の事後分布が確率密度を持たないところに近似分布が密度をおくため.
¡ 近似分布がパラメータ間の相関関係を捉えられないため.
分解された変分推論
最小化
解析的に計算可能
40
BAYES BY BACKPROP
¡ Gaussian reparameterisation trick を用いて近似事後分布の変分パラメータを学習.
分解された近似事後分布
ELBOを最適化
詳しい式は [Blundell 15]
41
MC DROPOUT
:変分パラメータ
:期待値
¡ NNの正則化手法のドロップアウトが変分推論としてみることができる.
ELBO
[Gal 16]
42
¡ マスクのサンプリングは近似事後分布 からのサンプリングとみなせる.
MC DROPOUT
予測の期待値
予測の分散
この予測分布をMC dropoutと呼ぶ.
ベルヌーイ分布からサンプリングしたマスク集合
43
MULTIPLICATIVE NORMALIZING FLOWS (MNF)
¡ 各ユニットごとに与える潜在変数z を用いて重みパラメータ間の非線形な依存関係と
分布の多峰性をを捉える.
近似事後分布
階層モデル
…
例
FactorizedVIモデル
[Louizos 17]
44
MNFの目的関数
積分消去できない.
ベイズの定理を用いる.
補助事後分布の近似
ELBO (1)
(1)に代入.
[Ranganath 16]
学習するパラメータ
補助事後分布のパラメータ
のNFパラメータ
の平均と分散
45
HYPER NETWORK
FactorizedVI の弱点
¡ 近似分布を各モデルパラメータで独立にすると,モデルパラメータの相関を捉えられない.
¡ 近似分布をガウス分布に固定すると単峰性になり,真の事後分布の多峰性を捉えられない.
Hyper network:main netのパラメータを出力するNN.
¡ 近似分布にHyper Net を使用することで,パラメータ間の相関と多峰性を捉える.
¡ Main Network のパラメータ数が高次元になるとメモリを食う上にHyper Netの学習に苦しむ.
[Pawlowski 17]
46
IMPLICIT WEIGHT UNCERTAINTY IN NEURAL NETWORKS
¡ 近似事後分布にHypernetを用い,KL項を工夫した手法 Bayes by Hypernet (BbH).
¡ 最近の近似推論と比較した論文.
¡ 計算時間はかかるが,各層ごとにHypernetを用いた方が精度は出る.
BbHの2層目の重みの事後分布から
100サンプルとったヒストグラム.
Hypernet
多峰性を捉えている
[Pawlowski 17]
47
BAYESIAN HYPERNETWORKS
[Krueger 17]
近似分布
積分計算を避けるため,
¡ Hypernetを用いた別の研究を紹介. 先ほどのHypernetと意味が異なる.
¡ 近似事後分布に可逆可能なNormalizing FlowのIAF[Kingma 16]を導入し, ノイズ分布の周辺化を避けた.
ハイパーネットワーク
真の分布
モデル
右図パラメータの多峰性をHyperNetは捉えている.
48
BAYESIAN ENSAMBLE
¡ (一部の条件を加えた)NNのアンサンブルによって,モデルパラメータの事後分布からサンプ
リングしたものとみれる.
¡ 条件:各NNの損失関数に以下の正則化項を加える.
[Pearce 18]
モデルパラメータの事前分布
固定学習
アンサンブル数は,
実験では5~10
49
BAYESIAN ENSAMBLE
[Pearce 18]
Randomised Anchored MAP Sampling:事後分布からのサンプリング.
の場合
解析的にもとまる.(NN:できない)
50
アジェンダ
p BNNの応用例
n モデルの不確実性, データの不確実性, 予測の不確実性
n 不確実性の評価指標:相互情報量, 変動率, 予測エントロピー
n 能動学習
n 敵対的例の検知
n Out Of Distribution
n モデル圧縮
n 逐次学習
p 推論手法 ( BBB, MC dropout, SGLD, MNF, Bayesian Ensemble, Hyper Net)
p 比較実験(モデルパラメータの事前分布を通した関数のサンプリング,回帰の予測分布比較)
51
比較実験
1. 活性化関数を変えて関数をサンプリング.
2. ユニット数を変えて関数をサンプリング.
3. 事前分布の分散を変えて関数をサンプリング.
4. 層数を変えて関数をサンプリング.
5. 近似推論手法を変えて予測分布を比較.
52
活性化関数を変えてNNの出力を比較
¡ NNのアーキテクチャ 1層 100ユニット 全結合,事前分布:標準ガウス分布 分散1.0
tanh
ReLU
RBF
periodic
sigmoid
sign
53
[Flam-Shepherd 17]にGPと対応させた関数サンプリングの図があります.
ユニット数を変えて比較
¡ NNのアーキテクチャ 1層
¡ 事前分布:標準ガウス分布 分散1.0
ReLU
sigmoid
tanh
1000ユニット 5000ユニット500ユニット
100
-100
40
-40
40
-40
30
-30
30
-30
100
-100
200
-200
150
-150
80
-80
関数の概形は変わらないがスケールが大きくなっている.
54
事前分布の分散を変えて比較
¡ NNのアーキテクチャ 1層 100ユニット
¡ 事前分布:標準ガウス分布
relu
sigmoid
3
-3
400
-400
30
-30
10
-10
2.5
-2.5
80
-80
sign
20
-20
100
-100
3
-3
スケールと表現力が変わる.
55
層数を変えて比較
¡ NNのアーキテクチャユニット数変更, 事前分布:標準ガウス分布 分散1.0
2層(100units, 500units, 5000units) 5層(100units, 500units, 5000units)
relu
sigmoid
mix
(relu ⇨ sigmoid)
mix
(sigmoid ⇨ relu)
56
近似推論の予測分布結果
NNアーキテクチャ
1層100ユニット
relu関数
事前分布:標準ガウス分布
BBB [Blundell 15]BbH [Pawlowski 17]MNF [Louizos 17]
MC dropout[Gal 16] Ensemble [Lakshminarayanan 17]MAP
コード元
https://github.com/pawni/BayesByHypernet/.
57
近似推論の予測分布結果
NNアーキテクチャ
2層 300-300ユニット
relu関数=>tanh関数
事前分布:標準ガウス分布
BBB [Blundell 15]BbH [Pawlowski 17]MNF [Louizos 17]
MC dropout[Gal 16] Ensemble [Lakshminarayanan 17]MAP
58
近似推論の予測分布結果
NNアーキテクチャ
2層 500-500ユニット
relu関数=>relu関数
事前分布:標準ガウス分布
BBB [Blundell 15]BbH [Pawlowski 17]MNF [Louizos 17]
MC dropout[Gal 16] Ensemble [Lakshminarayanan 17]MAP
59
まとめ
¡ BNN分布の不確実性に焦点を当てた“応用問題”と“近似推論手法”を取り上げた.
今回話せなかったこと
¡ 強化学習にもBNNが使われているが,勉強不足で雰囲気も分からず紹介してません.
¡ また,BNNの学習をミニバッチで学習する話,MCMCのスケーラビリティ系についても触れていません.
60
近似推論について概観を知りたい方向け
深層生成モデル
https://danilorezende.com/slides/
https://www.shakirm.com/slides/DeepGenModelsTutorial.pdf
他の最新資料
URL: goo.gl/H1prjP
61
¡ Deep| Bayes
SUMMER SCHOOL ON DEEP LEARNING AND BAYESIAN METHODS
資料がダウンロードできて内容が濃い. 最近の話題も豊富!!
URL: https://deepbayes.ru/
DEEP | BAYES
62
参考文献1
¡ Adler, J., & Öktem, O. (2018). Deep Bayesian Inversion. arXiv preprint arXiv:1811.05910. 敵対的学習 逆問題
¡ Atanov,A.,Ashukha,A., Struminsky, K.,Vetrov, D., & Welling, M. (2018).The Deep Weight Prior. Modeling a prior distribution for
CNNs using generative models. arXiv preprint arXiv:1810.06943. 事前分布 転移学習
¡ Balan,A. K., Rathod,V., Murphy, K. P., & Welling, M. (2015). Bayesian dark knowledge. In Advances in Neural Information Processing
Systems (pp. 3438-3446). モンテカルロ 知識蒸留
¡ Blundell, C., Cornebise, J., Kavukcuoglu, K., & Wierstra, D. (2015).Weight uncertainty in neural networks. arXiv preprint
arXiv:1505.05424. 変分推論・R Trick
¡ Depeweg, S., Hernández-Lobato, J. M., Doshi-Velez, F., & Udluft, S. (2017). Decomposition of uncertainty in bayesian deep learning
for efficient and risk-sensitive learning. arXiv preprint arXiv:1710.07283. 潜在変数・不確実性
¡ Depeweg, S., Hernández-Lobato, J. M., Doshi-Velez, F., & Udluft, S. (2017). Uncertainty decomposition in bayesian neural networks
with latent variables. arXiv preprint arXiv:1706.08495.潜在変数・不確実性
¡ Kingma, D. P., Salimans,T., Jozefowicz, R., Chen, X., Sutskever, I., & Welling, M. (2016). Improved variational inference
with inverse autoregressive flow. In Advances in neural information processing systems (pp. 4743-4751). IAF
63
参考文献2
¡ Dikov, G., van der Smagt, P., & Bayer, J. (2019). Bayesian Learning of Neural Network Architectures. arXiv preprint
arXiv:1901.04436. モデル圧縮
¡ Dmitry Molchanov.,(2018) Bayesian neural networks (andVI in implicit models) Samsung AI Center, Samsung-HSE Laboratory
まとめ
¡ Farquhar, S., & Gal,Y. (2019).A Unifying BayesianView of Continual Learning. arXiv preprint arXiv:1902.06494. 逐次学習
¡ Feinman, R., Curtin, R. R., Shintre, S., & Gardner,A. B. (2017). Detecting adversarial samples from artifacts. arXiv preprint
arXiv:1703.00410.敵対的サンプル検出
¡ Flam-Shepherd, D., Requeima, J., & Duvenaud, D. (2017). Mapping gaussian process priors to bayesian neural networks. In NIPS Bayesian
deep learning workshop. GP・事前分布
¡ Ghosh, S.,Yao, J., & Doshi-Velez, F. (2018). Structured variational learning of Bayesian neural networks with horseshoe priors. arXiv preprint
arXiv:1806.05975. 変分推論・事前分布 horseshoe
¡ Ghosh, S., & Doshi-Velez, F. (2017). Model selection in bayesian neural networks via horseshoe priors. arXiv preprint arXiv:1705.10388. モ
デル選択・事前分布 horseshoe
¡ Gal,Y. (2016). Uncertainty in deep learning (Doctoral dissertation, PhD thesis, University of Cambridge). まとめ
64
参考文献3
¡ Hafner, D.,Tran, D., Irpan,A., Lillicrap,T., & Davidson, J. (2018). Reliable uncertainty estimates in deep neural networks using noise
contrastive priors. arXiv preprint arXiv:1807.09289. OOD 不確実性 事前分布
¡ Henning, C., von Oswald, J., Sacramento, J., Surace, S. C., Pfister, J. P., & Grewe, B. F. (2018).Approximating the Predictive
Distribution via Adversarially-Trained Hypernetworks. In Bayesian Deep LearningWorkshop, NeurIPS (Spotlight) 2018. GAN &ハイ
パーネット
¡ Huszár, F. (2017).Variational inference using implicit distributions. arXiv preprint arXiv:1702.08235. GAN 変分推論
¡ Karaletsos,T., Dayan, P., & Ghahramani, Z. (2018). Probabilistic meta-representations of neural networks. arXiv preprint
arXiv:1810.00555. 潜在変数
¡ Kendall,A., & Gal,Y. (2017).What uncertainties do we need in bayesian deep learning for computer vision?. In Advances in neural
information processing systems (pp. 5574-5584). CV応用
¡ Kingma, D. P., Salimans,T., & Welling, M. (2015).Variational dropout and the local reparameterization trick. In Advances in Neural
Information Processing Systems (pp. 2575-2583). VI 変分推論
¡ Krueger, D., Huang, C.W., Islam, R.,Turner, R., Lacoste,A., & Courville,A. (2017). Bayesian hypernetworks. arXiv preprint
arXiv:1710.04759. ハイパーネットワーク
65
参考文献4
¡ Kochurov, M., Garipov,T., Podoprikhin, D., Molchanov, D.,Ashukha,A., &Vetrov, D. (2018). Bayesian incremental learning for
deep neural networks. arXiv preprint arXiv:1802.07329. 逐次学習
¡ Lacoste,A., Oreshkin, B., Chung,W., Boquet,T., Rostamzadeh, N., & Krueger, D. (2018). Uncertainty in multitask transfer
learning. arXiv preprint arXiv:1806.07528. 応用・転移学習
¡ Lacoste,A., Boquet,T., Rostamzadeh, N., Oreshkin, B., Chung,W., & Krueger, D. (2017). Deep prior. arXiv preprint
arXiv:1712.05016. 事前確率
¡ Lakshminarayanan, B., Pritzel,A., & Blundell, C. (2017). Simple and scalable predictive uncertainty estimation using deep
ensembles. In Advances in Neural Information Processing Systems (pp. 6402-6413). アンサンブル
¡ Louizos, C., Ullrich, K., & Welling, M. (2017). Bayesian compression for deep learning. In Advances in Neural Information
Processing Systems (pp. 3288-3298). モデル圧縮
¡ Louizos, C., & Welling, M. (2017,August). Multiplicative normalizing flows for variational bayesian neural networks.
In Proceedings of the 34th International Conference on Machine Learning-Volume 70 (pp. 2218-2227). JMLR. org. 変分推論・NF
¡ Nalisnick, E.T. (2018). On Priors for Bayesian Neural Networks. PhD thesis. 事前分布まとめ
¡ Nguyen, C.V., Li,Y., Bui,T. D., & Turner, R. E. (2017).Variational continual learning. arXiv preprint arXiv:1710.10628. 逐次学習
66
参考文献5
¡ Malinin,A., & Gales, M. (2018). Predictive uncertainty estimation via prior networks. In Advances in Neural Information Processing
Systems (pp. 7047-7058). OODの検知
¡ Pawlowski, N., Brock,A., Lee, M. C., Rajchl, M., & Glocker, B. (2017). Implicit weight uncertainty in neural networks. arXiv preprint
arXiv:1711.01297.ハイパーネット
¡ Pearce,T., Zaki, M., and Neely,A. (2018). Bayesian Neural Network Ensembles. In Bayesian Deep LearningWorkshop, NeurIPS (NIPS)
2018. アンサンブル
¡ Pearce,T., Zaki, M., Brintrup,A., & Neel,A. (2018). Uncertainty in neural networks: Bayesian ensembling. arXiv preprint
arXiv:1810.05546. アンサンブル
¡ Pearce,T., Zaki, M., Brintrup,A., & Neely,A. (2019). Expressive Priors in Bayesian Neural Networks: Kernel Combinations and
Periodic Functions. arXiv preprint arXiv:1905.06076. カーネル
¡ Ranganath, R.,Tran, D., & Blei, D. (2016, June). Hierarchical variational models. In International Conference on Machine Learning (pp.
324-333).変分推論テクニック
¡ Sensoy, M., Kaplan, L., & Kandemir, M. (2018). Evidential deep learning to quantify classification uncertainty. In Advances in Neural
Information Processing Systems (pp. 3179-3189). クラス分類の不確かさ
67
参考文献6
¡ Sheikh,A. S., Rasul, K., Merentitis,A., & Bergmann, U. (2017). Stochastic maximum likelihood optimization via hypernetworks. arXiv preprint
arXiv:1712.01141. 事前確率・ハイパーネットワーク
¡ Shin, H., Lee, J. K., Kim, J., & Kim, J. (2017). Continual learning with deep generative replay. In Advances in Neural Information Processing
Systems (pp. 2990-2999). 逐次学習
¡ Thulasidasan, S., Bhattacharya,T., Bilmes, J., Chennupati, G., & Mohd-Yusof, J. (2018). Knows When it Doesn’t Know: Deep Abstaining
Classifiers.クラス分類の不確かさ
¡ Ullrich, K., Meeds, E., & Welling, M. (2017). Soft weight-sharing for neural network compression. arXiv preprint arXiv:1702.04008. モデル圧
縮
¡ Vadera, M. P., & Marlin, B. M. (2019).Assessing the Robustness of Bayesian Dark Knowledge to Posterior Uncertainty. arXiv preprint
arXiv:1906.01724.知識蒸留
¡ Wang, K. C.,Vicol, P., Lucas, J., Gu, L., Grosse, R., & Zemel, R. (2018).Adversarial distillation of bayesian neural network posteriors. arXiv
preprint arXiv:1806.10317. 事後確率・敵対的学習
¡ Welling, M., & Teh,Y.W. (2011). Bayesian learning via stochastic gradient Langevin dynamics. In Proceedings of the 28th international conference
on machine learning (ICML-11) (pp. 681-688). サンプリング SGLD
¡ Zhu, L., & Laptev, N. (2017, November). Deep and confident prediction for time series at uber. In 2017 IEEE International Conference on Data
MiningWorkshops (ICDMW) (pp. 103-110). IEEE. 異常検知
68

Mais conteúdo relacionado

Mais procurados

[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by FactorisingDeep Learning JP
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.Deep Learning JP
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 

Mais procurados (20)

[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising
 
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
[DL輪読会]深層強化学習はなぜ難しいのか?Why Deep RL fails? A brief survey of recent works.
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 

Semelhante a Bayesian Neural Networks : Survey

理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門Hiroshi Unzai
 
ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門Zansa
 
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution DistillationDeep Learning JP
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient DescentRyutaro Yamauchi
 
研究紹介(学生向け)
研究紹介(学生向け)研究紹介(学生向け)
研究紹介(学生向け)Joe Suzuki
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析aa_aa_aa
 
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...Yuya Soneoka
 
介入研究の質のアセスメント
介入研究の質のアセスメント介入研究の質のアセスメント
介入研究の質のアセスメントSenshu University
 
データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散Seiichi Uchida
 
要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチTakashi Yamane
 
事前登録のやり方
事前登録のやり方事前登録のやり方
事前登録のやり方Yuki Yamada
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNETomoki Hayashi
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向Naoki Matsunaga
 
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法Masaru Tokuoka
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
Rm20140507 4key
Rm20140507 4keyRm20140507 4key
Rm20140507 4keyyouwatari
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 

Semelhante a Bayesian Neural Networks : Survey (20)

Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門
 
ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門
 
[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation[DL輪読会]Ensemble Distribution Distillation
[DL輪読会]Ensemble Distribution Distillation
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
研究紹介(学生向け)
研究紹介(学生向け)研究紹介(学生向け)
研究紹介(学生向け)
 
効果測定入門 Rによる傾向スコア解析
効果測定入門  Rによる傾向スコア解析効果測定入門  Rによる傾向スコア解析
効果測定入門 Rによる傾向スコア解析
 
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...
 
介入研究の質のアセスメント
介入研究の質のアセスメント介入研究の質のアセスメント
介入研究の質のアセスメント
 
Darm3(samplesize)
Darm3(samplesize)Darm3(samplesize)
Darm3(samplesize)
 
データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散データサイエンス概論第一=1-3 平均と分散
データサイエンス概論第一=1-3 平均と分散
 
要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ要因計画データに対するベイズ推定アプローチ
要因計画データに対するベイズ推定アプローチ
 
事前登録のやり方
事前登録のやり方事前登録のやり方
事前登録のやり方
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Rm20140507 4key
Rm20140507 4keyRm20140507 4key
Rm20140507 4key
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 

Mais de tmtm otm

テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明tmtm otm
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -tmtm otm
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査tmtm otm
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題tmtm otm
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてtmtm otm
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2tmtm otm
 
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5tmtm otm
 
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1tmtm otm
 
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9tmtm otm
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1tmtm otm
 
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3tmtm otm
 
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3 PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3 tmtm otm
 
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3tmtm otm
 
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2 PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2 tmtm otm
 

Mais de tmtm otm (14)

テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
 
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
 
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
 
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
 
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
 
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3 PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
 
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
 
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2 PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
 

Último

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 

Último (9)

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 

Bayesian Neural Networks : Survey