SlideShare uma empresa Scribd logo
1 de 33
Baixar para ler offline
1/33
Variational Inference and Normalizing Flows
新田 晃大
関西学院大学大学院 理工学研究科
http://www.akihironitta.com
2019 年 5 月 22 日
2/33
Agenda
• 変分推論
• 変分推論とは
• 変分推論の課題
• Normalizing flow による変分推論
• 概要
• 確率密度関数
• 分布の近似結果
• Amortized VI との組み合わせ
• Normalizing flow を用いた生成モデル
• 性質
3/33
変分推論
4/33
変分推論とは
真の事後分布に近くなるようにある近似分布のクラスから近似分布を求める
なぜ近似が必要か
あるモデルを作ったとき、多くの場合、
事後分布が解析的に得られない。
5/33
変分推論の課題 1. 分布間の「距離」
Ø alpha-divergence [Li+ NIPS16]
Ø Kullbuck-Leibler divergence (多くの場合)
Ø Chi-divergence [Dieng+ NIPS17]
分布の近さが ”正しく” 測れているのか
6/33
変分推論の課題 2. 近似分布の柔軟性/表現力
Ø Mean Field VI
Ø Amortized VI [Kingma+ ICLR14]
Ø VI with Normalizing Flows [Rezende+ ICML15]
分解仮定
パラメータ共有
真の事後分布を十分に近似できる柔軟性を持つのか
7/33
変分推論の課題 3. 最適化
Ø Coordinate descent
[Bishop 06, Chap. 10]
Ø Stochastic VI [Hoffman+ 13]
Ø 勾配ベースの最適化法
(SGD, Adam, etc.)
(近似分布のクラスの中で)
良い近似が得られるのか
8/33
Normalizing Flow による変分推論
9/33
Normalizing flow の概要
目的: 変分推論の近似分布のクラスを広くすること
アイデア: 単純な分布に従う確率変数を非線形変換を繰り返して、複雑な分布を表現
単純な分布 複雑な分布
[Rezende+ ICML15, Figure 1]
・ ・ ・
10/33
Normalizing flow の概要
目的: 変分推論の近似分布のクラスを広くすること
アイデア: 単純な分布に従う確率変数を非線形変換を繰り返して、複雑な分布を表現
単純な分布 複雑な分布
[Rezende+ ICML15, Figure 1]
・ ・ ・
具体的にどんな分布になるのか =>
ポイント: 変換は可逆
11/33
* 確率変数の変換 1 次元
確率変数
変数変換
確率密度関数の変換公式
12/33
* 確率変数の変換 多次元
確率変数
変数変換
確率密度関数の変換公式
例: 直交座標から極座標への変換 (D=2)
変数変換が可逆であれば、
ヤコビ行列の行列式が計算できるため、変換後の分布を扱える。
13/33
Normalizing flow
確率密度関数 (変換前)
確率密度関数 (変換後)
確率密度関数 (K 回変換後)
…
この確率分布は、K 回の変数変換により、とても複雑
例:
…
単純な分布に従う確率変数を非線形変換を繰り返すことで、複雑な分布を表現する。
14/33
Normalizing flow
確率密度関数 (変換前)
確率密度関数 (変換後)
確率密度関数 (K 回変換後)
…
ヤコビ行列の行列式が計算できれば、何回変数変換しても、確率密度関数は求められる。
例:
…
単純な分布に従う確率変数を非線形変換を繰り返すことで、複雑な分布を表現する。
15/33
具体的な変数変換
変数変換が持つべき性質
> 可逆な変換
> ヤコビ行列行列式の計算コストが低い
具体的な変換例
> planar flow
> radial flow
16/33
特徴
Ø O(D) でヤコビ行列の行列式が計算可
Ø h とパラメータの値によっては非可逆
Planar flow
ヤコビ行列の行列式の計算コストが低い、変数変換を採用したい。
変数変換
学習するパラメータ
ヤコビ行列の行列式
ただし、
ただし、 は非線形関数
詳細は [Rezende+ ICML15, A.1.]
17/33
変分下界の最大化
周辺尤度
周辺尤度の下界
近似分布
ただし
下界を変分パラメータ について最大化すればよい。
サンプルで近似
18/33
* Law of the Unconscious Statistician (LOTUS)
変数変換後の分布を知らなくても、期待値が計算できる という性質、定理
証明は [Rumbos 08]
例
19/33
Normalizing flow による分布近似 1/2
K=2 K=8 K=32真
1
2
3
4
変数変換の回数 (K) が増えると、
近似分布の表現力が上がる。
[Rezende+ ICML15, Figure 3 (a) (b)]
20/33
Normalizing flow による分布近似 2/2
変数変換の回数 (K) が増えると、良い近似が得られている (KL が小さいという意味で)
[Rezende+ ICML15, Figure 3 (d)]
21/33
Normalizing flow と VAE の組み合わせ 1/5
encoder decoder
VAE の構造
(amortized variational inference)
[Rezende+ ICML15, Figure 2] を一部改変
22/33
Normalizing flow と VAE の組み合わせ 2/5
encoder decoder
normalizing flowNF + VAE の構造
[Rezende+ ICML15, Figure 2] を一部改変
23/33
Normalizing flow と VAE の組み合わせ 3/5
VAE の構造
NF + VAE の構造
encoder decoder
encoder decoderNF
24/33
Normalizing flow と VAE の組み合わせ 4/5
VAE の生成モデル
VAE の推論モデル (近似事後分布)
VAE+NF の推論モデル (近似事後分布)
👈 ここまでは VAE と同じ
多峰を表現できない
多峰を表現できる
25/33
Normalizing flow と VAE の組み合わせ 5/5
2. 近似事後分布からサンプリング
1. ミニバッチ用意
3. ELBO 計算 (ELBO をサンプルで近似)
4. 変分/モデルパラメータに関して微分し、更新
“The resulting algorithm is a simple modification of amortized inference algorithm for DLGMs”
[Rezende+ ICML15, Algorithm 1]
26/33
Normalizing Flow を用いた生成モデル
[Ermon+ 18]
27/33
Normalizing flow モデル
Ø NF は新たな変分推論法として提案されたが、生成モデルにも適用可
単純な分布 複雑な分布
・ ・ ・
潜在変数の分布 観測変数の分布
28/33
Normalizing flow モデルの性質
1. 新たなデータ点の生成が容易
・ ・ ・
潜在変数の分布 観測変数の分布
29/33
Normalizing flow モデルの性質
2. 潜在表現が得られる (VAE のように、推論ネットワーク (encoder) を用意しなくてもよい)
・ ・ ・
潜在変数の分布 観測変数の分布
30/33
Normalizing flow モデルの性質
VAE
3. 尤度が厳密に計算可能 (近似不要)
NF モデル
31/33
Normalizing flow モデルの性質
1. サンプリングが容易
3. 尤度が計算可能 (近似不要)
注意: 観測変数と潜在変数が同じ次元でなければならない。
2. 潜在表現が得られる (推論モデルなし/encoder なし)
32/33
参考文献
• [Bishop 06] Bishop, C. M. (2006). Pattern recognition and machine learning. springer.
• [Dieng+ NIPS17] Dieng, A. B., Tran, D., Ranganath, R., Paisley, J., & Blei, D. (2017).
Variational Inference via χ Upper Bound Minimization. In Advances in Neural
Information Processing Systems (pp. 2732-2741).
• [Ermon+ 18] Ermon S. & Grover A. (2018). Normalizing flow models (CS236 course
notes). https://deepgenerativemodels.github.io/notes/flow/.
• [Grover+ AAAI18] Grover, A., Dhar, M., & Ermon, S. (2018, April). Flow-GAN:
Combining maximum likelihood and adversarial learning in generative models. In Thirty-
Second AAAI Conference on Artificial Intelligence.
• [Kingma+ ICLR14] Kingma, D. P., & Welling, M. (2014). Auto-encoding variational
Bayes. arXiv preprint arXiv:1312.6114.
• [Li+ NIPS16] Li, Y., & Turner, R. E. (2016). Rényi divergence variational inference. In
Advances in Neural Information Processing Systems (pp. 1073-1081).
• [Rezende+ ICML15] Rezende, D. J., & Mohamed, S. (2015). Variational inference with
normalizing flows. arXiv preprint arXiv:1505.05770.
• [Rumbos 08] Rumbos A. J. (2008). Probability lecture notes.
https://pages.pomona.edu/~ajr04747/Spring2008/Math151/Math151NotesSpring08.pd
f.
33/33
その他資料
• おすすめ (変分ベイズ/深層生成モデルのチュートリアル)
• Variational Bayes and beyond: Bayesian inference for big data (ICML2018),
http://www.tamarabroderick.com/tutorial_2018_icml.html
• Variational Inference: Foundations and Innovations,
http://www.cs.columbia.edu/~blei/talks/Blei_VI_tutorial.pdf
• Tutorial on Deep Generative Models (IJCAI-ECAI 2018),
https://drive.google.com/file/d/1uwvXkKfrOjYsRKLO7RK4KbvpWmu_YPN_/view?usp=shari
ng
• Tutorial on Deep Generative Models (UAI 2017),
https://www.shakirm.com/slides/DeepGenModelsTutorial.pdf
• その他
• Normalizing Flows Tutorial, Part 1: Distributions and Determinants,
https://blog.evjang.com/2018/01/nf1.html
• Flow-based Deep Generative Models, https://lilianweng.github.io/lil-log/2018/10/13/flow-
based-deep-generative-models.html
• Variational Inference with Normalizing Flowsを読んだのでメモ,
http://peluigi.hatenablog.com/entry/2018/07/12/140528
• Up to GLOW, https://www.slideshare.net/ShunsukeNAKATSUKA1/up-to-glow
• DL輪読会 Flow-based Deep Generative Models,
https://www.slideshare.net/DeepLearningJP2016/dlflowbased-deep-generative-models

Mais conteúdo relacionado

Mais procurados

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some PreliminaryDeep Learning JP
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf幸太朗 岩澤
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知Chihiro Kusunoki
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networksDeep Learning JP
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 

Mais procurados (20)

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 

Semelhante a 変分推論と Normalizing Flow

一般化線形モデル
一般化線形モデル一般化線形モデル
一般化線形モデルMatsuiRyo
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するかSAKAUE, Tatsuya
 
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...Daichi Kitamura
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...Daichi Kitamura
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Yohei Sato
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...Shohei Okada
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3正志 坪坂
 

Semelhante a 変分推論と Normalizing Flow (16)

一般化線形モデル
一般化線形モデル一般化線形モデル
一般化線形モデル
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか反応時間データをどう分析し図示するか
反応時間データをどう分析し図示するか
 
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
独立低ランク行列分析に基づくブラインド音源分離(Blind source separation based on independent low-rank...
 
Car rmodel
Car rmodelCar rmodel
Car rmodel
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
 
DeepCas
DeepCasDeepCas
DeepCas
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3
 

Mais de Akihiro Nitta

PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...
PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...
PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...Akihiro Nitta
 
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)Akihiro Nitta
 
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...Akihiro Nitta
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布Akihiro Nitta
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 
Variational Autoencoder (VAE) 解説
Variational Autoencoder (VAE) 解説Variational Autoencoder (VAE) 解説
Variational Autoencoder (VAE) 解説Akihiro Nitta
 

Mais de Akihiro Nitta (8)

PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...
PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...
PRML 14.3-14.4 アンサンブル学習 (ブースティングとツリーメソッド) / Ensemble learning (boosting and t...
 
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
PRML 12-12.1.4 主成分分析 (PCA) / Principal Component Analysis (PCA)
 
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...
PRML 9-9.2.2 クラスタリング (K-means とガウス混合モデル) / Clustering (K-means and Gaussian M...
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 
Variational Autoencoder (VAE) 解説
Variational Autoencoder (VAE) 解説Variational Autoencoder (VAE) 解説
Variational Autoencoder (VAE) 解説
 

Último

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 

Último (8)

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 

変分推論と Normalizing Flow