[DL輪読会]相互情報量最大化による表現学習

Deep Learning JP
Deep Learning JPDeep Learning JP
DEEP LEARNING JP
[DL Papers]
相互情報量最大化による表現学習
Yusuke Iwasawa, Matsuo Lab
http://deeplearning.jp/
相互情報量関連論文(前々回の輪読で話したやつ)
• “Learning deep representations by mutual information estimation and maximization”
(ICLR2019)
• “Mutual Information Neural Estimates” (ICML2018)
• “Representation Learning with Contrastive Predictive Coding” (NIPS2018)
• “On variational lower bounds of mutual information” (NIPS2018, workshop)
• “Emergence of Invariance and Disentanglement in Deep Representations ” (JMLR)
• “Deep Variational Information Bottleneck” (ICLR2017)
• ” Variational Discriminator Bottleneck: Improving Imitation Learning, Inverse RL, and
GANs by Constraining Information Flow” (ICLR2019, poster)
• “Fixing a Broken ELBO” (ICML2018)
• “MAE: Mutual Posterior-Divergence Regularization for Variational AutoEncoders”
(ICLR2019, poster)
• “EnGAN: Latent Space MCMC and Maximum Entropy Generators for Energy-based
Models” (ICLR2019, reject)
• “Deep Graph Info Max” (ICLR2019, poster)
• “Formal Limitations on the Measurement of Mutual Information” (ICLR2019 Reject) 2
メインで話す
少しだけ触れる
相互情報量最大化による表現学習系の最近の文献
• “Learning Representations by Maximizing Mutual Information”, NIPS2019
• “On Variational Bounds of Mutual Infromation”, ICML2019
• “Greedy InforMax for Biologically Plausible Self-Supervised Representation Learning”,
NIPS2019
• “On Mutual Information Maximization for Representation Learning”
• “Region Mutual Information Loss for Semantic Segmentation”, NIPS2019
• (あとで追加)
3
Outline
• 背景:表現学習、相互情報量、対照推定
• 論文1:“Learning Representations by Maximizing Mutual
Information”, NIPS2019
• 論文2:“Greedy InfoMax for Biologically Plausible Self-
Supervised Representation Learning” (NIPS2019)
• 論文3:“On Mutual Information Maximization for Representation
Learning”
4
表現学習(Representation Learning)
5
Bengio先生のスライドより抜粋
教師なし表現学習
• 教師あり表現学習
– 興味のあるタスクラベルが事前にわかっている
– 例:Image Netでは
– こういう問題設定では、すでに人間を超える精度
• 教師なし表現学習
– 興味のあるタスクラベルは事前にわかっていない
– 再利用可能な表現を観測からどう見つけるか
6
(深層)生成モデルによる教師なし表現学習 2013 ~
• 右のような生成過程を考える
• log 𝑝 𝑥 = 𝑝 𝑥 𝑧 𝑑𝑧
• 良い生成を与えるような表現を学習する
• VAE系やGAN系など多数
– [Kingma+ 14] VAE
– [Donahue+ 17] bidirectional GAN
– [Dumoulin+ 17] adversarial learned inference
7
𝑥
𝑧
Large Scale Adversarial Representation Learning, NIPS2019
8
Jeff Donahue, Karen Simonyan, DeepMind
• 左上:提案手法
• 左下:Image Net、教師なしで
SoTA
• 右上:生成画像もきれい
(Unconditional)
相互情報量最大化による表現学習
• 相互情報量の定義
𝐼 𝑋, 𝑍 =
𝑥,𝑧∈𝒳,𝒵
𝑝 𝑥, 𝑧 log
𝑝(𝑥, 𝑧)
𝑝 𝑥 𝑝(𝑧)
𝑑𝑥 𝑑𝑧
• 解釈:確率変数XがYについての情報をどれくらい持つか
• 性質
– (1) 𝐼 𝑋, 𝑍 ≥ 0
– (2) 𝐼 𝑋, 𝑍 = 𝐻 𝑍 − 𝐻 𝑍 𝑋 = 𝐻 𝑋 − 𝐻 𝑋 𝑍 = 𝐼(𝑍, 𝑋)
– (3) 𝐼 𝑋, 𝑍 = 0 𝑖𝑓𝑓. 𝑋 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑡 𝑡𝑜 𝑍
• 問題:どうやって計算するのか(Xは観測、Zは特徴量で高次限) 9
相互情報量最大化と再構築誤差
𝐼 𝑋, 𝑍 = 𝔼 𝑝 𝑥,𝑧 log
𝑝 𝑥|𝑧 𝑝(𝑧)
𝑝 𝑥 𝑝 𝑧
= 𝔼 𝑝 𝑥,𝑧 log
𝑝 𝑥 𝑧 𝑞(𝑥|𝑧)
𝑝 𝑥 𝑞 𝑥|𝑧
= 𝔼 𝑝 𝑥,𝑧 log
𝑞(𝑥|𝑧)
𝑝 𝑥
+ 𝐾𝐿(𝑝(𝑥|𝑧)||𝑞 𝑥 𝑧 )
≥ 𝔼 𝑝 𝑥,𝑧 log 𝑞 𝑥 𝑧 + ℎ(𝑋)
10
負の再構築誤差 (Distortion)
• 詳しくは[Poole+18] “On Variational Bounds of MI”, [Alemi+17] “Fixing Broken
Elbo”
• q(x|z)がtractableなら良い(が高次限の出力に難?
• 例:動画の生成
q(x|z)によらない近似:p(z)を近似分布r(z)に置き換える
𝐼 𝑋, 𝑍 =
𝑥,𝑧∈𝒳,𝒵
𝑝 𝑥, 𝑧 log
𝑝(𝑥, 𝑧)
𝑝 𝑥 𝑝(𝑧)
𝑑𝑥 𝑑𝑧
=
𝑥,𝑧∈𝒳,𝒵
𝑝 𝑧|𝑥 𝑝(𝑥) log
𝑝 𝑧 𝑥 𝑝(𝑥)
𝑝 𝑥 𝑝(𝑧)
𝑑𝑥 𝑑𝑧
≤
𝑥,𝑧∈𝒳,𝒵
𝑝 𝑧|𝑥 𝑝(𝑥) log
𝑝 𝑧 𝑥
𝑟(𝑧)
𝑑𝑥 𝑑𝑧
• 利用例:Variational Information Bottoleneck(I(X,Z)を制限)
• 問題:上界なので最大化しても意味がない(下界がほしい)
11
MIの下界を抑える研究郡
12
• [Poole+18] “On Variational Bounds of MI”より抜粋
• いろいろな推定方法とその問題点がまとまっている
(どの下界が良いのかは今回は話しません)
MIを最大化する手法の基本的な考え方:対照推定
• 求めたいのは𝐼 𝑋, 𝑍 = 𝔼 𝑝 𝑥,𝑧 log
𝑝 𝑥|𝑧 𝑝(𝑧)
𝑝 𝑥 𝑝 𝑧
– 同時分布𝑝 𝑥, 𝑧 と、周辺分布の積𝑝 𝑥 𝑝 𝑧 が区別できれば良い
• 同時分布から得られたペア{x,z}と適当なp(z)からサンプルしたz’と
xのペア{x,z’}が区別できれば良い
– p(x)p(z)とp(x,z)を対照推定
• 適当な𝑓𝜃(𝑥, 𝑧)を用意して、{x,z}と{x, z’}の差が大きくなるように
𝑓𝜃(𝑥, 𝑧)自身とエンコーダ: X->Zを学習
13
具体例 (“On Variational Bounds of MI”より抜粋)
14
• ZではなくYで表されているが基本的には同じ
• f(x, y)の置き方によっていろいろな亜種が導ける
具体例:Contrastive Predictive Coding [Oord+18]
15
手法:時刻Tまでの系列の埋め込みcから、未来の
潜在表現zを予測(zとcの相互情報量を最大化)
系列は一貫した情報を表しているはずというpriorを
使っている
テキスト
音声
具体例:Contrastive Predictive Coding [Oord+18]
画像データの場合
16
手法:重なりありでパッチに切って系列っぽく扱う
具体例:DeepInfoMax [Hjelm+19]
17
手法:画像全体の特徴量yとロー
カルな特徴量を対照推定
(画像のローカルな特徴はグ
ローバルな特徴と一致してほし
いと言うpriorを使ってる)
実験:CIFAR10、SVMで分類
18
バク上がり、他にもたくさん実験あるが割愛
ここまでまとめ
• 教師なし表現学習は未解決問題
• デコーダを使わない手法として、対照推定に基づく手法が
近年登場 => 精度大幅な改善
• 具体例:対照推定のときに使っているpriorが異なる
– CPC [Oord+18]
– Deep InfoMax [Hjelm+19]
– など
19
Outline
• 背景:表現学習、相互情報量、対照推定
• 論文1:“Learning Representations by Maximizing Mutual
Information”, NIPS2019
• 論文2:“Greedy InfoMax for Biologically Plausible Self-
Supervised Representation Learning” (NIPS2019)
• 論文3:“On Mutual Information Maximization for Representation
Learning”
20
書誌情報
21
• 基本的には巨大なDeep InfoMax + 細かい工夫
• Image Netで教師なし学習+線形分類で68.1%
– Top1正解率のベースラインを7%改善
• 実装が公開されている( https://github.com/Philip-Bachman/amdim-public)
工夫1:巨大なエンコーダ
22
余談:Tesla V100×8は人権
“We train our models using 4-8 standard Tesla
V100 GPUs per model. Other recent, strong
self-supervised models are nonreproducible on
standard hardware.”
23
工夫2:DIM across Views
24
1. 異なるデータ拡張で画像Xから
X1とX2を得る
2. X1からはSummary Vector cを得る
3. X2からはLocal Vector z_i,jを得る
4. 異なる画像X’と適当なデータ拡張で
得たz’_i,jと対照推定
工夫3:Multiscale Mutual Information
25
固定化した層を使って予測するので
はなく、複数の層間で予測
実験では {1, 5}{1, 7}{5, 5}間で予測
(数字は受容野の大きさ)
工夫4:Mixture-Based Representations
• 各層の特徴量𝑓𝑖を適当な関数𝑚 𝑘に通して混合特徴ベクトル
𝑓𝑖
1
, 𝑓𝑖
2
, … 𝑓𝑖
𝑘
= 𝑚 𝑘(𝑓𝑖)を得る
• これを各層でやって、NCE誤差(MIの下界)を重み付けする
(重みが下の式)
• 気持ちとしては、NCEが大きい特徴を選択するようになる
• (ただそれだとGreedyになるからとH(q)を足してたりよくわからない
26
実験:ImageNet, Places205
27
実験:CIFAR
28
まとめ
• Local DIMを拡張
– 巨大なエンコーダ
– Data Augmentation Prior
– Multiscale Predictions
– Mixture-based representations
• Image Netで教師なしSoTA
• (結局どれが効いているのかはよくわからない)
29
Outline
• 背景:表現学習、相互情報量、対照推定
• 論文1:“Learning Representations by Maximizing Mutual
Information”, NIPS2019
• 論文2:“Greedy InfoMax for Biologically Plausible Self-
Supervised Representation Learning” (NIPS2019)
• 論文3:“On Mutual Information Maximization for Representation
Learning”
30
書誌情報
31
• MI最大化に従って、各層を独立に訓練
• 独立に訓練することで、独立に学習可能、メモリ効率がよくなる、勾配消失が
原理的に起こらないなどの潜在的な利点がある
提案手法:Greedy InfoMax
32
• 基本は各モジュールごとに勾配を止めるだけ
• 各モジュールは接続された下位モジュールの出力でCPC
実験結果(STL10)
33
CPCやSupervisedより高精度
※ Greedy Supervisedの手続きがよくわからない(適宜固定?)
実験結果(LibriSpeech)
34
CPCや教師ありよりはやや悪いがまぁまぁ良い
まとめ
• 層ごとの学習にMIの最大化を利用するGreedy InfoMaxを提案
– CPCベース
• 音声や画像タスクでCPCや全教師ありとComparable
• 特にNCE系の損失はメモリ効率が悪いことが多いので、実用的に
も使える場面はあるかもしれない
(学習遅くなる気がするが)
35
Outline
• 背景:表現学習、相互情報量、対照推定
• 論文1:“Learning Representations by Maximizing Mutual
Information”, NIPS2019
• 論文2:“Greedy InfoMax for Biologically Plausible Self-
Supervised Representation Learning” (NIPS2019)
• 論文3:“On Mutual Information Maximization for Representation
Learning”
36
書誌情報
37
• 最近のMI系の手法が、本当にMIを最大化しているから良いのか?と
言うことに疑問を投げかける実験論文
• まだ採録されたわけではない(と思う)
実験1:可逆なエンコーダを利用したMI最大化
• Flow Basedな手法(例えばRealNVP[Dinh+16])はInvertible(可逆)
• 可逆変換fをかませたz = f(x)を考えると、MI(X;Z)は常に最大
• 可逆変換なfをMI最大化で学習させるとどうなるか?
(MI最大化系の研究が本当に単にMIの最大化なら、精度は変わら
ないはず
38
実験1の結果
39
• (a)MIの推定はほぼコンスタント、(b)一方精度は改善
• 単にMIの最大化という観点だけでは説明できない?
実験2:異なるf(x,y)の形による分類精度とMI
40
• (左)分類精度はBilinearかSeparableがよい
• (右)MIの値はMLPが良い
• MIが高い表現ほど悪い???
実験3:ネットワーク構造の重要性
41
• (左)NCEを使った場合、(右)NWJを使った場合の精度比較
• どちらの損失を使うかより、ネットワーク構造の選び方が支配的
まとめ
• 最近の精度向上が本当にMIの最大化と言う観点から説明できる
のか?についての実験的な検証
• ネットワーク構造が支配的に重要というのは自分が実験したとき
もそうだったので多分そう
• MIを本当に最大化しているのかというより、MI最大化の上で良い
Priorをどう入れるかが重要?
42
全体まとめ
• 相互情報量最大化による教師なし表現学習の最近の話題につい
てまとめた
– 2018年:MI(X,Z)の下界について
– 2019年:どういうネットワーク構造を使うか、どう言うpriorを入れるか
• ImageNet・教師なしで大きな進展
• 感想:MI最大化自体はきれいだが、それ自体というよりは
構造的なpriorをどう入れ込むかが重要
– Global特徴の選び方、対照方法など
43
1 de 43

Recomendados

[DL輪読会]ドメイン転移と不変表現に関するサーベイ por
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
6.9K visualizações54 slides
深層生成モデルと世界モデル por
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
16.6K visualizações57 slides
ELBO型VAEのダメなところ por
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところKCS Keio Computer Society
2.7K visualizações12 slides
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling por
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
2.9K visualizações25 slides
【メタサーベイ】数式ドリブン教師あり学習 por
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
5.9K visualizações33 slides
backbone としての timm 入門 por
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
7.4K visualizações19 slides

Mais conteúdo relacionado

Mais procurados

[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
3K visualizações21 slides
Triplet Loss 徹底解説 por
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
11.5K visualizações46 slides
モデル高速化百選 por
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
24.8K visualizações64 slides
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
4.8K visualizações34 slides
近年のHierarchical Vision Transformer por
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K visualizações46 slides
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem por
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling ProblemDeep Learning JP
1.2K visualizações14 slides

Mais procurados(20)

[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por Deep Learning JP
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP3K visualizações
Triplet Loss 徹底解説 por tancoro
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro11.5K visualizações
モデル高速化百選 por Yusuke Uchida
モデル高速化百選モデル高速化百選
モデル高速化百選
Yusuke Uchida24.8K visualizações
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP4.8K visualizações
近年のHierarchical Vision Transformer por Yusuke Uchida
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida13.9K visualizações
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem por Deep Learning JP
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
【DL輪読会】論文解説:Offline Reinforcement Learning as One Big Sequence Modeling Problem
Deep Learning JP1.2K visualizações
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder por Deep Learning JP
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP1.9K visualizações
グラフニューラルネットワークとグラフ組合せ問題 por joisino
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino4.5K visualizações
[DL輪読会]Neural Ordinary Differential Equations por Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP29.2K visualizações
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision por Deep Learning JP
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP46.7K visualizações
生成モデルの Deep Learning por Seiya Tokui
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui47.8K visualizações
畳み込みニューラルネットワークの高精度化と高速化 por Yusuke Uchida
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida64.5K visualizações
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 por SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII3.8K visualizações
[DL輪読会]Pay Attention to MLPs (gMLP) por Deep Learning JP
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP16.9K visualizações
Transformerを多層にする際の勾配消失問題と解決法について por Sho Takase
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase4.8K visualizações
GAN(と強化学習との関係) por Masahiro Suzuki
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki83.1K visualizações
深層学習の数理 por Taiji Suzuki
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki79.7K visualizações
[DL輪読会]Focal Loss for Dense Object Detection por Deep Learning JP
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP14.3K visualizações
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs por Deep Learning JP
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP1.5K visualizações
猫でも分かるVariational AutoEncoder por Sho Tatsuno
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno131.6K visualizações

Similar a [DL輪読会]相互情報量最大化による表現学習

20170422 数学カフェ Part2 por
20170422 数学カフェ Part220170422 数学カフェ Part2
20170422 数学カフェ Part2Kenta Oono
10.9K visualizações58 slides
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten... por
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...Deep Learning JP
5.7K visualizações42 slides
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9 por
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
13.7K visualizações44 slides
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17 por
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
5.5K visualizações45 slides
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明) por
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)Akira Nakagawa
288 visualizações75 slides
Deep learningの概要とドメインモデルの変遷 por
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Taiga Nomi
26.5K visualizações62 slides

Similar a [DL輪読会]相互情報量最大化による表現学習(20)

20170422 数学カフェ Part2 por Kenta Oono
20170422 数学カフェ Part220170422 数学カフェ Part2
20170422 数学カフェ Part2
Kenta Oono10.9K visualizações
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten... por Deep Learning JP
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP5.7K visualizações
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9 por Yuya Unno
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno13.7K visualizações
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17 por Yuya Unno
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno5.5K visualizações
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明) por Akira Nakagawa
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
Akira Nakagawa288 visualizações
Deep learningの概要とドメインモデルの変遷 por Taiga Nomi
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi26.5K visualizações
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2 por Daiki Shimada
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada45.1K visualizações
MIRU2014 tutorial deeplearning por Takayoshi Yamashita
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Takayoshi Yamashita455.5K visualizações
ICML2018読み会: Overview of NLP / Adversarial Attacks por Motoki Sato
ICML2018読み会: Overview of NLP / Adversarial AttacksICML2018読み会: Overview of NLP / Adversarial Attacks
ICML2018読み会: Overview of NLP / Adversarial Attacks
Motoki Sato2.4K visualizações
九大_DS実践_画像処理基礎 por RyomaBise1
九大_DS実践_画像処理基礎九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎
RyomaBise15 visualizações
Jokyokai por Taiji Suzuki
JokyokaiJokyokai
Jokyokai
Taiji Suzuki4K visualizações
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太 por Preferred Networks
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks4.4K visualizações
画像処理基礎 por 大貴 末廣
画像処理基礎画像処理基礎
画像処理基礎
大貴 末廣8.1K visualizações
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat... por Deep Learning JP
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
Deep Learning JP948 visualizações
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017) por Yusuke Iwasawa
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
[DL輪読会] Controllable Invariance through Adversarial Feature Learning” (NIPS2017)
Yusuke Iwasawa2K visualizações
大規模画像認識とその周辺 por n_hidekey
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺
n_hidekey11.5K visualizações
確率的深層学習における中間層の改良と高性能学習法の提案 por __106__
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
__106__141 visualizações
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki) por kanejaki
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
kanejaki6K visualizações
Knowledge_graph_alignment_with_entity-pair_embedding por Ace12358
Knowledge_graph_alignment_with_entity-pair_embeddingKnowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embedding
Ace1235845 visualizações

Mais de Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners por
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
263 visualizações28 slides
【DL輪読会】事前学習用データセットについて por
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
276 visualizações20 slides
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... por
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
186 visualizações26 slides
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition por
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
256 visualizações30 slides
【DL輪読会】Can Neural Network Memorization Be Localized? por
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
516 visualizações15 slides
【DL輪読会】Hopfield network 関連研究について por
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
1.4K visualizações29 slides

Mais de Deep Learning JP(20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners por Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP263 visualizações
【DL輪読会】事前学習用データセットについて por Deep Learning JP
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP276 visualizações
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... por Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP186 visualizações
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition por Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP256 visualizações
【DL輪読会】Can Neural Network Memorization Be Localized? por Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP516 visualizações
【DL輪読会】Hopfield network 関連研究について por Deep Learning JP
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP1.4K visualizações
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 ) por Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP342 visualizações
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M... por Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP234 visualizações
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO" por Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP801 visualizações
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination " por Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP448 visualizações
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models por Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP1.4K visualizações
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware" por Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP416 visualizações
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo... por Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP408 visualizações
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ... por Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP693 visualizações
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive... por Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP823 visualizações
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil... por Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP378 visualizações
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait... por Deep Learning JP
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP330 visualizações
【DL輪読会】マルチモーダル 基盤モデル por Deep Learning JP
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP1.1K visualizações
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine... por Deep Learning JP
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
Deep Learning JP757 visualizações
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif... por Deep Learning JP
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
Deep Learning JP251 visualizações

Último

PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PC Cluster Consortium
28 visualizações36 slides
IPsec VPNとSSL-VPNの違い por
IPsec VPNとSSL-VPNの違いIPsec VPNとSSL-VPNの違い
IPsec VPNとSSL-VPNの違い富士通クラウドテクノロジーズ株式会社
606 visualizações8 slides
光コラボは契約してはいけない por
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけないTakuya Matsunaga
28 visualizações17 slides
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PC Cluster Consortium
66 visualizações12 slides
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Hitachi, Ltd. OSS Solution Center.
109 visualizações26 slides
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可Hitachi, Ltd. OSS Solution Center.
10 visualizações22 slides

Último(7)

PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium28 visualizações
光コラボは契約してはいけない por Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga28 visualizações
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium66 visualizações
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por Hitachi, Ltd. OSS Solution Center.
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
定例会スライド_キャチs 公開用.pdf por Keio Robotics Association
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association146 visualizações

[DL輪読会]相互情報量最大化による表現学習