PRML学習者から入る深層生成モデル入門

T
DEEP GENERATIVE MODEL
ベイズ手法×深層学習
M1 太田 真人
May 15 , 2019
Okadome Lab. K.G.U.
1/73
まえおき
¡ 深層生成モデルをテーマに,最近のベイズとNNの融合の話題を理解する.
¡ 実際の文章生成モデルのような応用モデルは紹介しない.
¡ PRMLを読んだことある人が対象者.
2/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ GAN Algorithm
¡ Variational Inference using Implicit Models
3/73
生成モデル:入門
生成モデル:データの生成過程を(仮説を立て)モデル化したもの.
データ 生成モデル
パラメータを学習
生成
4/73
生成モデルの利用例
¡ サンプリング
未知のデータを生成できる.
n 密度推定
データを入力すると,密度 が得られる.
外れ値検出や異常検知に用いられる. (異常値は密度が小さくなる.)
n 欠損値補完, ノイズ除去
欠損やノイズのある入力 を入力すると,真の を推定できる.
n 教師なし学習 (表現学習)
異常値
[Karras 18]
5/73
潜在変数を用いた生成モデル
z
x
θ
+ x がサンプリングしやすい.
+ x の特徴をz が捉えられる.
- 周辺尤度の計算が難しい.
- 一般に,入力に対応する潜在変数を
決める問題は難しい.
N
モデル
対数周辺尤度
観測データ
6/73
深層潜在変数モデル
¡ NNにより,潜在変数を非線形変換し,データの生成をおこなう確率モデル.
利点:生成できるものに幅が増えた.
¡ NNがRNN(LSTM) の場合.
生成:音声, 文章, 音楽
¡ NNがCNNの場合.
生成:画像
¡ NNがGNNの場合.
生成:グラフ
z1 z2 z3 z4
h1 h2 h3
x
p(z)
p(x|z ;θ )
標準ガウス
NN
Ex.) RBM,VAE, GAN
7/73
生成モデルの学習指針
真のデータ分布
生成モデル
分布の距離
目標:真のデータ分布をモデルで近似する.
モデル族
[Grover 18]
8/73
¡ P(x):混合ガウス分布
¡ q(x):近似分布(単峰ガウス分布)
KL DIVERGENCE による分布近似
x x
:最尤推定,EP法
:変分推論
p(x)
q(x)
p(x)
q(x)
確率p(x)の高い部分にq(x)の高い確率を割り当てる. 確率p(x)の低い部分にq(x)の低い部分を割り当てる.
9/73
*KL DIVERGENCE (MAXIMUM LIKELIHOOD, EP法の場合)
最小化
固定
¡ 情報量 -log q(x) は確率q(x) が低いほど大きい.
¡ p(x) = 0 の領域はKLの最小化に影響がない.
¡ p(x) の確率が高い領域に, q(x) の低い情報量(高確率)を割り当てる.
p(x)
q(x)
10/73
*KL DIVERGENCE (変分推論の場合)
p(x)情報量:小.
p(x)情報量:大.
q(x):エントロピー最大化
固定
¡ p(x) の確率が極端に低い領域は情報量が大きい, (KLの最小化に影響大.)
¡ p(x) の確率が低い領域に, q(x) の低い 確率を割り当てる.
¡ q(x) が尖った分布にならないのはエントロピー最大化の影響.
最小化
11/73
¡ どうやって真の分布をモデルで近似するのか?
¡ 解析的に周辺尤度(モデル)を扱えるのか?
生成モデルの学習 ⑴
解決法1:d = KL divergence
= + const.
尤度最大化
潜在変数モデルでは、ほぼ扱えない.
例:VAE, RBM
等価
潜在変数モデルの場合(周辺尤度最大化)
12/73
モデルが解析的に扱えない場合の学習方法
¡ 尤度(モデル)が解析的に扱えない時の対策方法.
ー 周辺尤度(モデル)の近似推論(MCMC, VI)
ー Likelihood-free Inference (ex. 敵対的学習)
z
ELBO
対数尤度 D
1,1,…,10,0,…,0
最終 : 1,0,…,1,0
MCMC 変分推論 敵対的学習
13/73
1,0,…,0,1
尤度なしベース LIKELIHOOD FREE
¡ どうやってモデルを近似するのか?
¡ 解決策2:Two sample Test(2標本検定)
¡ 2つの母集団が同質か異質かを調べる.
:識別器.
Likelihood-free!
例)GAN(Generative Adversarial Network).
14/73
¡ 密度比と密度差 に分別される Likelihood-free Inference.
LIKELIHOOD FREE INFERENCE
GAN
MMD
[Mohamed 17]
この話は後半.
15/73
まとめ1
ü 生成モデルは,データの生成過程をモデル化したもの.
ü 生成モデルの学習は,データ分布に近づけること.
¡ 尤度最大化 KL-divergence
¡ Two sample test
ü モデル が明示的に扱えない場合
¡ 尤度ベース 近似推論 (VI, MCMC).
¡ 非尤度ベース Likelihood-free推論 (密度比推定, 密度差推定 ex.GAN, MMD)
16/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ GAN Algorithm
¡ Variational Inference using Implicit Models
17/73
VAE( VARIATIONAL AUTO-ENCODERS)
¡ 尤度ベースの深層潜在変数モデル.
学習:変分推論による周辺尤度下界(ELBO)の最大化.
目的:新しい x の生成, 潜在変数空間の可視化.
n 確率モデル
z
x
生成ネットワークz
事前確率
尤度関数 グラフィカルモデル
同時確率
[Kingma andWelling 14]
18/73
¡ 周辺尤度の最大化に近似分布を導入する.
MAXIMUM LIKELIHOOD ESTIMATION
ELBO最大化.
ELBO
詳しい式変形は次のスライドを見てください.
(1)
近似分布
19/73
*(1)の式変形
=1積分=1
(1)
20/73
ELBOの最大化
再構成誤差項 正規化項
n 近似事後分布は,標準ガウス分布から外れず, データを再構成するように学習される.
あるデータ点 についてELBOを書き下す.
21/73
*イェンセンの不等式からELBO導出
凹関数にイェンセンの不等式を用いると,
ただし,
ELBOの最大化
=
=1
論文でよく見る式変形はこちら
イェンセンの不等式はPRML上巻の1.6節.
22/73
近似事後分布
¡ 近似事後分布にはNNを用いた分布を使用.
¡ データ点ごとに平均と分散が異なるガウス分布.
400
784
50
50
変分パラメータを全データで共有(AmortizedVI).
変分パラメータ
23/73
VAEの全体構造
400
784
50
50
400
784
z
50
z
x
生成ネットワーク
推論ネットワーク
NNのアーキテクチャ グラフィカルモデル
生成ネットワーク推論ネットワーク
※ベイズモデルではない. [Kingma 14]
- モデルパラメータに分布を仮定するとなる.
24/73
パラメータの学習
¡ E-step 事後確率の計算
¡ M-step 周辺尤度の最大化
サンプルL回
変分パラメータの更新(近似事後分布の推定)
NNのパラメータ最大化
(reparameterization trick)
等価
25/73
潜在変数空間の意味合いとその研究
¡ 尤度最大化により,目に見えない真のデータ分布にモデルを近づけた.
¡ 同時に,近似事後分布により,データの多様体を潜在変数空間で学習していた.
n これは事前分布p(z) に依存する.
[Kingma 14]
VAEの最適なPrior
※データが多くないと表現できない分布.
最適な事前分布を探す研究が行われている[Tomczak 18].
Aggregated Posterior
26/73
*VAEの最適な事前分布の導出 準備
VAEの目的関数
事前分布
簡単にここまでをまとめると,
観測データで近似
27/73
VAEの最適な事前分布の目的関数
ELBO最大化になる事前分布を最適な事前分布という.
経験ベイズ(事前分布のパラメータを学習する話)と似ている.
しかし,今回は分布のパラメータではなく,確率分布そのものをデータから推定する話.
※データが多くないと学習がうまくいかないであろう分布.
気持ちは自分の信念をほぼ捨てて,データから最適な事前分布を見つけてもらう話.
28/73
VAEの最適な事前分布の導出(1)
に関する項を取り出す( . )
(近似事後分布の期待値を積分表現. )
負の交差エントロピーの最大化
[Takahashi 18]
29/73
VAEの最適な事前分布の導出(2)
目的関数が最大になるときは, 負の交差エントロピーが0のとき.
, .
¡ 負の交差エントロピーの最大化
したがって,
30/73
最適な事前分布を導入したVAEの目的関数
¡ 目的関数
¡ Optimal Prior の例
ガウス分布の和 混合ガウス分布
Pseudo data inputs
Kl項の計算はMonte Carlo 近似.
[Tomczak 18]
31/73
まとめ2
ü VAE は,潜在変数z をサンプリングし,NNの非線形変換によってデータを生成する確率モデル.
ü モデルパラメータの学習は,尤度最大化の近似でELBO最大化を行う.
ü ELBO最大化において,潜在変数の近似事後分布のパラメータに推論ネットワークを用いる.
ü 近似事後分布により, 潜在変数空間にデータを非線形射影した多様体表現が可能.
32/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ GAN Algorithm
¡ Variational Inference using Implicit Models
33/73
今までの変分推論
PPCA
ガウス分布 2峰混合ガウス分布
変分パラメータ:データの数に応じて増える. 新しいデータ点に対しては?
データごとに独立.
¡ 解析的に潜在変数の事後分布が求まらない.
¡ 近似事後分布の導入
データ空間
潜在空間
34/73
BLACK BOX INFERENCE
¡ ELBOの最大化
事前分布とモデルパラメータを尤度最大推定.
変分パラメータの推定.
Reparameterization trick を用いる.勾配の計算
各パラメータ更新
[Kingma andWelling 14]
35/73
AMORTIZED VARIATIONAL INFERENCE
¡ Amortized VI
¡ 観測データから近似事後分布のパラメータに写像する関数(NN)を導入する.
¡ 利点:観測データ数に応じて,変分パラメータ数が一定になった.
新しい観測データのとき,NNを通すだけで近似事後分布が作られる.
NNのパラメータ数<観測データ数*パラメータ2つ
A fully factorized Gaussian
36/73
AMORTIZATION GAP
¡ AmortizedVIの変分下界が, 最適な変分下界に達しない.
¡ 全隠れ変数に対応するNNを学習するのが問題.
全データで変分パラメータが
共有されるために起きる?
[Cremer 18]
37/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ GAN Algorithm
¡ Variational Inference using Implicit Models
38/73
¡ 別名:Posterior Collapse, LatentVariable Collapse
¡ 潜在変数zの事後分布 が事前分布 と一致し, データの特性を捉えない現象.
KL COLLAPSE
正確な原因は不明
近似分布の学習が再構成誤差を小さくするより先に,KLの最小化が先に行われる.
その結果,近似事後分布は事前分布とのKL divergenceが0になる.
尤度関数のNNの表現力が豊か 扱うデータが複雑
= 0 KL collapse
39/73
研究者の仮説と対策(1)
¡ [Bowman 16]
仮説:学習序盤,近似事後分布と事前分布のKLの効果が,再構成誤差を減らすより優先されている.
対策: (KL cost Annealing)
近似事後分布に再構成を優先的に学習してもらい,徐々にKLの項の影響を強める.
KL項の重み(0→1)
KL項の値
後に,複雑なデータだとKL collapseが起きるとわかった.
引用:[Xu 18]
40/73
研究者の仮説と対策(2)
¡ [Xu 18]
仮説:KL項の最小化にNNのパラメータが力を入れている. (先ほどと同様)
対策:近似事後分布が事前分布と一致しないように,KL項の計算にNNの出力を依存させない.
具体的には,z の事前分布をvon Mises-Fisher分布に変更した.
近似事後分布 単位円上の一様分布
NNの出力が事前分布のパラメータに一致することをなくした.
41/73
研究者の仮説と対策(3)
仮説:学習の繰り返しステップで,尤度関数の学習の速さに近似分布の学習がついて行けない.
[He 19]
対策:EMアルゴリズム のEstep の学習を,ある基準をもとに反復的に行うことでKL collapseを回避.
KL collapse
しかし,KL collapseが延命されているだけで,
十分に学習するといずれKL collapseになるとか.
42/73
基準:[Hoffman & Johnson 16]が提案した相互情報量.
実際に画像の生成をやってみた
¡ Encoder Decoderの設定
400
z
2
784 784
2
学習データ MNINST 訓練5万, テスト1万 , バッチ256, epoch 50,Adam, 学習率0.003 ,非線形関数 ReLU
[1]
400
43/73
潜在空間の可視化と生成
¡ 256データを射影し,2次元潜在空間 z で可視化.
¡ 画像の生成
0
1
2
3
4 5
6
7
89[0., 0.] [-0.3,-0.3]
[-3,-3]
44/73
なぜ画像がぼやけるのか?
¡ 仮説:学習アルゴリズムが最尤推定(ELBO)だから.
真のデータの確率密度の低い部分にも確率が割り当てられている説.
p(x)
尤度最大 ELBO最大
x
45/73
まとめ3
ü NNを用いた確率モデルの変分推論をAmortized Variational Inferenceという.
ü KL collapseは,近似事後分布が事前分布に一致することをいう.
ü VAEを実装し,潜在変数空間を可視化した.
46/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ Variational Inference using Implicit Models
47/73
IMPLICIT GENERATIVE MODELS
[Mohamed 17]
¡ prescribed probabilistic models
観測変数が従う確率分布を明示的に与えるモデル. 基本的にこっちが多い
¡ Implicit probabilistic models
直接データを生成する確率的手続きを定義するモデル.
例)天気や気候,集団遺伝学,生態学,画像
出力に分布を仮定したら, prescribed models になるから両者の意識は不要.
モデルパラメータの学習
× MLE
◎Likelihood-free
48/73
ここからの流れ
¡ 暗黙的な生成モデルの代表例
GAN [Goodfellow 14]
n GANのアルゴリズムは, データを生成するモデルとして利用されてきた.
ここでは,GANのアルゴリズムを復習しつつ,その汎用性を知る.
その例として,GANによる潜在変数の近似事後分布のモデル化を紹介.
49/73
GAN の概要
1,1,…,10,0,…,0
最終 : 1,0,…,1,0
分類
最初:
真のデータにラベル
この確率分布の外形が分からないから近似分布と密度比推定をする.
目標: と同じようなサンプルを生成する を学習すること.
n GAN argorithm
Two sample test の密度比推定の中でも,クラス確率推定の手法.
仮定
を割り当てる.
50/73
1,0,…,0,1
( , 分布が完全に一致 )
¡ 密度比推定
密度推定の式変形
データを半分ずつ用意した場合, 不均衡な場合,
密度推定を分類問題に話をすり替える!
51/73
識別器の損失関数
¡ 識別器は正しく分類を行うようにパラメータを学習.
¡ 交差エントロピーの最小化
NN
52/73
*損失関数の式変形
(1) (2)
(1), (2)より
53/73
式から読み解くGANアルゴリズム
両方のサンプル数が等しいとき,
→ 0.999 → 0.001
→ 0.999
定義域
目的関数
n 交互(D多め)に学習し,損失関数の鞍点を求める.
学習不安定の要因
54/73
識別器の損失関数の意味合い
¡ もし, なら,
¡ GANが正しく学習できていれば,データ分布とモデルをJS divergenceで近似的に最小化したことになる.
つまり同数のデータの識別の場合,確率は1/2
このとき,識別損失関数は,
(損失関数が鞍点に収束した場合)
55/73
*証明(最適な識別確率)
Ratio lossにマイナスをかけるて積分表現に書き換える.
この積分値の最大となるようなσ(T) を求める.
とすると,
微分して極値を計算すると,ベルヌーイの期待値と同じ.
,
56/73
JS DIVERGENCE
¡ [Huszar 15]
KL[P||Q] と KL[Q||P] の中間的な表現を振る舞う.
どちらかというと後者に似ている.
A. 真の確率分布.
B. KL[P||Q] 尤度最大.
C. JSD[P||Q]
D. KL[Q||P]
57/73
VAEとGANの違い
58/73
学習アルゴリズム 距離の測り方 確率密度関数
VAE ELBO最大化 KL divergence 明示的
GAN 敵対的学習 JS divergence 暗黙的
まとめ4
ü GANのアルゴリズムはimplicit Generative Modelで利用される.
ü 密度比推定を分類問題にすり替えるのがポイント.
ü GANの損失関数は,データ分布とモデルとの距離をJS divergenceで測っていたことになる.
59/73
アジェンダ
n Deep Generative Model
¡ LatentVariable Model
¡ Maximum Likelihood, Likelihood free
¡ VAE (Likelihood based Generative Model)
¡ Amortized VI and KL collapse
¡ Implicit Generative Model
¡ Variational Inference using Implicit Models
60/73
VARIATIONAL INFERENCE USING IMPLICIT MODELS
¡ GANのアルゴリズムを用いた研究は多く行われている.
その中で,変分推論に応用された事例をベイズロジスティック回帰で紹介.
n [Mescheder 17]は,VAEの推論ネットワークを implicit probabilistic model にしたGANとVAEの複合研究.
61/73
ベイズロジスティック回帰
N
分類データ
モデルパラメータ
モデル
事前確率
事後確率 どんな分布か解析的にわからない.
グラフィカルモデル
62/73
近似推論
¡ 近似事後分布の推論にGANの枠組みを導入.
¡ 近似事後分布をガウス分布に固定しないimplicit Generative model にする.
=>密度比推定を行う(GAN)
ELBO
パラメータに依存しない
f
z w
63/73
近似事後確率の推定
→0.999 →0.001
再構成誤差項
負の交差エントロピー最大化
→0.001
→0.001
n 近似事後分布がimplicit な分布で表現できる.
繰
り
返
し
64/73
推定結果
G , D のNN:3層MLP (10-20) ReLU関数
訓練データ:3点(正例2, 負例1)
n =20000,
カーネル密度推定
65/73
まとめ5
ü ベイズ推論にも利用され,分布を仮定せず,暗黙的に近似分布の推論が行える.
66/73
全体のまとめ
¡ 深層生成モデルの柱となるVAEとGANを説明した.
¡ これらの理解は2014年以降の研究論文を読む上で土台になることが多い.
¡ 話せなかったこと.
近似推論の計算方法, 自己回帰モデル, Flow-based model, GANの問題点, MMD.
67/73
参考にした資料
深層生成モデル
https://danilorezende.com/slides/
https://www.shakirm.com/slides/DeepGenModelsTutorial.pdf
他の最新資料
URL: goo.gl/H1prjP
68/73
¡ Deep| Bayes
SUMMER SCHOOL ON DEEP LEARNING AND BAYESIAN METHODS
資料がダウンロードできて内容が濃い. 最近の話題も豊富!!
URL: https://deepbayes.ru/
DEEP | BAYES
69/73
DL輪講会
NN界隈の論文まとめや紹介がよくアップされて勉強になる.
技術の根幹を見抜いて、アイディアを見るだけでも面白い.
https://www.slideshare.net/DeepLearningJP2016?utm_campaign=profiletracking&utm_medium=sssite&utm_source=ssslideview
70/73
参考文献
¡ Cremer, C., Li, X., & Duvenaud, D. (2018). “Inference suboptimality in variational autoencoders.” arXiv preprint
arXiv:1801.03558.
¡ Davidson,T. R., Falorsi, L., De Cao, N., Kipf,T., & Tomczak, J. M. (2018). “Hyperspherical variational auto-encoders. ” arXiv
preprint arXiv:1804.00891.
¡ Goodfellow, Ian, et al. (2014). "Generative adversarial nets. “Advances in neural information processing systems.
¡ He, J., Spokoyny, D., Neubig, G., & Berg-Kirkpatrick,T. (2019).“Lagging inference networks and posterior collapse in
variational autoencoders.” arXiv preprint arXiv:1901.05534.
¡ Huszár, F. (2015).“ How (not) to train your generative model: Scheduled sampling, likelihood, adversary?. ” arXiv preprint
arXiv:1511.05101.
¡ Hoffman, M. D., & Johnson, M. J. (2016).“ELBO surgery: yet another way to carve up the variational evidence lower
bound.” In Proceedings of NIPSWorkshop in Advances in Approximate Bayesian Inference.
¡ Karras,T., et al. (2017)."Progressive growing of gans for improved quality, stability, and variation." arXiv preprint
arXiv:1710.10196
71/73
参考文献
¡ Kingma, D. P., & Welling, M. (2013).“ Auto-encoding variational bayes.” arXiv preprint arXiv:1312.6114.
¡ Mescheder, L., Nowozin, S., & Geiger,A. (2017,August).“ Adversarial variational bayes: Unifying variational
autoencoders and generative adversarial networks.” In Proceedings of the 34th International Conference on Machine
Learning-Volume 70 (pp. 2391-2400). JMLR. org.
¡ Mohamed, S., & Lakshminarayanan, B. (2017).“Learning in implicit generative models.” arXiv preprint
arXiv:1610.03483.
¡ Severson, K., Ghosh, S., & Ng, K. (2018).“ Unsupervised learning with contrastive latent variable models.” arXiv
preprint arXiv:1811.06094.
¡ Takahashi, H., Iwata,T.,Yamanaka,Y.,Yamada, M., &Yagi, S. (2018).“Variational Autoencoder with Implicit Optimal
Priors. ” arXiv preprint arXiv:1809.05284.
¡ Tomczak, J. M., & Welling, M. (2017).“VAE with aVampPrior.” arXiv preprint arXiv:1705.07120.
¡ Xu, J., & Durrett, G. (2018).“ Spherical latent spaces for stable variational autoencoders. ”arXiv preprint
arXiv:1808.10805.
72/73
資料作成参考サイト
¡ Ferenc Huszar (Variational Inference using Implicit Models, Part I: Bayesian Logistic Regression)
https://www.inference.vc/variational-inference-with-implicit-probabilistic-models-part-1-2/
¡ 鈴木 雅大(と強化学習との関係)(2017). https://www.slideshare.net/masa_s/gan-83975514
¡ 須山 敦志 (作って遊ぶ機械学習。) (2018) http://machine-learning.hatenablog.com/entry/2018/03/25/010430
73/73
1 de 73

Recomendados

実装レベルで学ぶVQVAE por
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAEぱんいち すみもと
12.6K visualizações23 slides
変分推論と Normalizing Flow por
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
5.5K visualizações33 slides
近年のHierarchical Vision Transformer por
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K visualizações46 slides
[DL輪読会]Flow-based Deep Generative Models por
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
14.6K visualizações62 slides
画像生成・生成モデル メタサーベイ por
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
8.3K visualizações118 slides
GAN(と強化学習との関係) por
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
83.1K visualizações77 slides

Mais conteúdo relacionado

Mais procurados

深層学習の数理 por
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
79.7K visualizações182 slides
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) por
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
3.7K visualizações52 slides
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder por
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
1.9K visualizações22 slides
猫でも分かるVariational AutoEncoder por
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
131.6K visualizações51 slides
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
3K visualizações21 slides
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions por
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
5.9K visualizações26 slides

Mais procurados(20)

深層学習の数理 por Taiji Suzuki
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki79.7K visualizações
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) por Deep Learning JP
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP3.7K visualizações
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder por Deep Learning JP
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP1.9K visualizações
猫でも分かるVariational AutoEncoder por Sho Tatsuno
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno131.6K visualizações
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por Deep Learning JP
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP3K visualizações
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions por Deep Learning JP
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
Deep Learning JP5.9K visualizações
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta... por Hideki Tsunashima
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima6.9K visualizações
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra... por Deep Learning JP
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
Deep Learning JP8.9K visualizações
[DL輪読会]Neural Ordinary Differential Equations por Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP29.2K visualizações
深層生成モデルと世界モデル por Masahiro Suzuki
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki16.6K visualizações
Triplet Loss 徹底解説 por tancoro
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro11.4K visualizações
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP4.8K visualizações
Iclr2016 vaeまとめ por Deep Learning JP
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP6K visualizações
12. Diffusion Model の数学的基礎.pdf por 幸太朗 岩澤
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤792 visualizações
深層生成モデルと世界モデル(2020/11/20版) por Masahiro Suzuki
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki7.1K visualizações
グラフィカルモデル入門 por Kawamoto_Kazuhiko
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko117.8K visualizações
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs por Deep Learning JP
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP1.5K visualizações
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida16K visualizações
変分ベイズ法の説明 por Haruka Ozaki
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki41.4K visualizações

Similar a PRML学習者から入る深層生成モデル入門

KDD2014 勉強会 por
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会Ichigaku Takigawa
1.6K visualizações67 slides
Generating Diverse High-Fidelity Images with VQ-VAE-2 por
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2harmonylab
14.1K visualizações21 slides
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick por
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization TrickMasahiro Suzuki
3.3K visualizações35 slides
人工知能13 deep learning por
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learningHirotaka Hachiya
1.7K visualizações50 slides
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer... por
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
588 visualizações35 slides
DLLab 異常検知ナイト 資料 20180214 por
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
13.6K visualizações59 slides

Similar a PRML学習者から入る深層生成モデル入門(20)

KDD2014 勉強会 por Ichigaku Takigawa
KDD2014 勉強会KDD2014 勉強会
KDD2014 勉強会
Ichigaku Takigawa1.6K visualizações
Generating Diverse High-Fidelity Images with VQ-VAE-2 por harmonylab
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
harmonylab14.1K visualizações
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick por Masahiro Suzuki
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
Masahiro Suzuki3.3K visualizações
人工知能13 deep learning por Hirotaka Hachiya
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
Hirotaka Hachiya1.7K visualizações
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer... por Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura588 visualizações
DLLab 異常検知ナイト 資料 20180214 por Kosuke Nakago
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
Kosuke Nakago13.6K visualizações
[DL輪読会]GQNと関連研究,世界モデルとの関係について por Deep Learning JP
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP8.9K visualizações
GANの基本 por sohtakannan
GANの基本GANの基本
GANの基本
sohtakannan104 visualizações
【メタサーベイ】Neural Fields por cvpaper. challenge
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
cvpaper. challenge2.2K visualizações
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer... por Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura1.4K visualizações
Generative Deep Learning #01 por 逸人 米田
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
逸人 米田51 visualizações
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】 por Naoki Hayashi
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi1.4K visualizações
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder por Deep Learning JP
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP6.5K visualizações
Matrix capsules with em routing por Kazuki Fujikawa
Matrix capsules with em routingMatrix capsules with em routing
Matrix capsules with em routing
Kazuki Fujikawa1.3K visualizações
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】 por Naoki Hayashi
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi447 visualizações
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks por Kento Doi
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Kento Doi242 visualizações
Deep learning勉強会20121214ochi por Ohsawa Goodfellow
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow26.8K visualizações
PRML Chapter 14 por Masahito Ohue
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
Masahito Ohue7.4K visualizações
関西CVPRML勉強会 kernel PCA por Akisato Kimura
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura1.7K visualizações
はじめてのパターン認識輪読会 10章後半 por koba cky
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky4.8K visualizações

Mais de tmtm otm

テーブル・テキスト・画像の反実仮想説明 por
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明tmtm otm
355 visualizações46 slides
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP - por
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -tmtm otm
230 visualizações55 slides
予測の不確かさのユーザー調査 por
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査tmtm otm
59 visualizações38 slides
深層学習の不確実性 - Uncertainty in Deep Neural Networks - por
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
11.7K visualizações137 slides
[論文紹介] 機械学習システムの安全性における未解決な問題 por
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題tmtm otm
698 visualizações24 slides
ICML 2021 Workshop 深層学習の不確実性について por
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてtmtm otm
2.3K visualizações56 slides

Mais de tmtm otm(16)

テーブル・テキスト・画像の反実仮想説明 por tmtm otm
テーブル・テキスト・画像の反実仮想説明テーブル・テキスト・画像の反実仮想説明
テーブル・テキスト・画像の反実仮想説明
tmtm otm355 visualizações
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP - por tmtm otm
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
tmtm otm230 visualizações
予測の不確かさのユーザー調査 por tmtm otm
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
tmtm otm59 visualizações
深層学習の不確実性 - Uncertainty in Deep Neural Networks - por tmtm otm
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm11.7K visualizações
[論文紹介] 機械学習システムの安全性における未解決な問題 por tmtm otm
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm698 visualizações
ICML 2021 Workshop 深層学習の不確実性について por tmtm otm
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
tmtm otm2.3K visualizações
Bayesian Neural Networks : Survey por tmtm otm
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm5K visualizações
PRML ベイズロジスティック回帰 4.5 4.5.2 por tmtm otm
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
tmtm otm605 visualizações
PRML 条件付き混合モデル 14.5 por tmtm otm
PRML 条件付き混合モデル 14.5PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
tmtm otm208 visualizações
PRML 多項式曲線フィッティング 1.1 por tmtm otm
PRML 多項式曲線フィッティング 1.1PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
tmtm otm115 visualizações
PRML 2.3.7 2.3.9 por tmtm otm
PRML 2.3.7 2.3.9PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
tmtm otm141 visualizações
PRML エビデンス近似 3.5 3.6.1 por tmtm otm
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
tmtm otm343 visualizações
PRML カーネルPCA 12.2.3 12.3 por tmtm otm
PRML カーネルPCA 12.2.3 12.3PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
tmtm otm144 visualizações
PRML BNN 5.7 5.7.3 por tmtm otm
PRML BNN 5.7 5.7.3 PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm122 visualizações
PRML RVM 7.2 7.2.3 por tmtm otm
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
tmtm otm208 visualizações
PRML EP法 10.7 10.7.2 por tmtm otm
PRML EP法 10.7 10.7.2 PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
tmtm otm275 visualizações

Último

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... por
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...NTT DATA Technology & Innovation
151 visualizações42 slides
定例会スライド_キャチs 公開用.pdf por
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
132 visualizações64 slides
Windows 11 information that can be used at the development site por
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development siteAtomu Hidaka
90 visualizações41 slides
光コラボは契約してはいけない por
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけないTakuya Matsunaga
25 visualizações17 slides
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PC Cluster Consortium
45 visualizações12 slides
SNMPセキュリティ超入門 por
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門mkoda
453 visualizações15 slides

Último(12)

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... por NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation151 visualizações
定例会スライド_キャチs 公開用.pdf por Keio Robotics Association
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association132 visualizações
Windows 11 information that can be used at the development site por Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka90 visualizações
光コラボは契約してはいけない por Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga25 visualizações
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium45 visualizações
SNMPセキュリティ超入門 por mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda453 visualizações
SSH応用編_20231129.pdf por icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4380 visualizações
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium23 visualizações
The Things Stack説明資料 by The Things Industries por CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.76 visualizações
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) por NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)

PRML学習者から入る深層生成モデル入門