Enviar pesquisa
Carregar
Deep Mixtures of Factor Analysers
•
0 gostou
•
9,048 visualizações
Junya Saito
Seguir
論文紹介
Leia menos
Leia mais
Tecnologia
Vista de apresentação de diapositivos
Denunciar
Compartilhar
Vista de apresentação de diapositivos
Denunciar
Compartilhar
1 de 13
Baixar agora
Baixar para ler offline
Recomendados
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
logics-of-blue
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
Shohei Kumagai
分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門
Koichiro Gibo
03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
Ichigaku Takigawa
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
Masaru Tokuoka
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
Recomendados
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
logics-of-blue
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
Shohei Kumagai
分割時系列解析(ITS)の入門
分割時系列解析(ITS)の入門
Koichiro Gibo
03 「重回帰分析」の入門
03 「重回帰分析」の入門
Shuhei Ichikawa
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
Ichigaku Takigawa
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
Masaru Tokuoka
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
社会心理学とGlmm
社会心理学とGlmm
Hiroshi Shimizu
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
Hiroyuki Muto
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
Takashi Yamane
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
Yasuyuki Okumura
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
Chihiro Kusunoki
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
機械学習の力を引き出すための依存性管理
機械学習の力を引き出すための依存性管理
Takahiro Kubo
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
考司 小杉
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
Large-Scale Bandit Problems and KWIK Learning
Large-Scale Bandit Problems and KWIK Learning
Junya Saito
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Mais conteúdo relacionado
Mais procurados
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
社会心理学とGlmm
社会心理学とGlmm
Hiroshi Shimizu
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
Hiroyuki Muto
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
Takashi Yamane
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
Tomoshige Nakamura
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
Yasuyuki Okumura
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
Chihiro Kusunoki
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
機械学習の力を引き出すための依存性管理
機械学習の力を引き出すための依存性管理
Takahiro Kubo
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
考司 小杉
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
Koichiro Gibo
質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
Mais procurados
(20)
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
社会心理学とGlmm
社会心理学とGlmm
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
(実験心理学徒だけど)一般化線形混合モデルを使ってみた
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
2 3.GLMの基礎
2 3.GLMの基礎
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
明日から読める無作為化比較試験: 行動療法研究に求められる統計学
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
機械学習の力を引き出すための依存性管理
機械学習の力を引き出すための依存性管理
関数データ解析の概要とその方法
関数データ解析の概要とその方法
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
変分ベイズ法の説明
変分ベイズ法の説明
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
質的変数の相関・因子分析
質的変数の相関・因子分析
Mais de Junya Saito
Large-Scale Bandit Problems and KWIK Learning
Large-Scale Bandit Problems and KWIK Learning
Junya Saito
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Improving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectors
Junya Saito
Maxout networks
Maxout networks
Junya Saito
Acoustic Modeling using Deep Belief Networks
Acoustic Modeling using Deep Belief Networks
Junya Saito
Bayesian Efficient Multiple Kernel Learning
Bayesian Efficient Multiple Kernel Learning
Junya Saito
Mais de Junya Saito
(6)
Large-Scale Bandit Problems and KWIK Learning
Large-Scale Bandit Problems and KWIK Learning
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Improving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectors
Maxout networks
Maxout networks
Acoustic Modeling using Deep Belief Networks
Acoustic Modeling using Deep Belief Networks
Bayesian Efficient Multiple Kernel Learning
Bayesian Efficient Multiple Kernel Learning
Último
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
Último
(9)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
Deep Mixtures of Factor Analysers
1.
Deep Mixtures of Factor
Analysers [ICML 2012] Yichuan Tang, Ruslan Salakhutdinov, Geoffrey Hinton(University of Toronto) 斎藤 淳哉 間違い等ありましたらご連絡ください junya【あっと】fugaga.info 論文紹介 2013/04/20
2.
概要 PRMLで解説されている「Factor Analyzer(因子分析)」を 拡張した「Mixture of
Factor Analyze(混合因子分析)」を 多層化した「Deep Mixtures of Factor Analyzer」の提案
3.
因子分析の目的 2/16 次元削減 • 特徴ベクトルの次元が大きいことは一般的に非常にまずい • 直感に反する訳のわからないことが起こったりする(次元の呪い) •
学習データも凄まじくたくさん必要になる • 計算時間もかかる • 統計学では、因子分析はデータ理解のためデータの中から共通因子を探り出す方法で 主成分分析が次元削減らしいけど、機械学習だと数式上の差しかない? • まあどちらもできるけど、機械学習で扱うような高次元データの共通因子が わかったところで、データ理解できるかというと無理な気が・・・
4.
Factor Analyzer(FA, 因子分析)
概要 目的:次元削減 入力:ラベルなし特徴ベクトル集合 𝒙 𝑛 𝑛=1 𝑁 次元削減後の次元数𝑑 出力:高次元正規分布𝑝 𝒙 および 高次元正規分布𝑝 𝒙 と低次元正規分布𝑝 𝒛 の関係 入力 高次元正規分布𝑝 𝒙 𝑝 𝒛 𝒛 線形変換:𝒙 = 𝐖𝒛 + 𝝁 低次元正規分布𝑝 𝒛 (次元数𝑑 = 1) 𝑥1 𝑥2 𝑥2 𝑝 𝒙 𝑥1 FA
5.
Factor Analyzer(FA, 因子分析)
詳細 4/16 𝝁 𝑾 𝒛 𝑾 𝑝 𝒙|𝒛 𝑥1 𝑥2 𝑝 𝒙 𝑝 𝒛 𝒛 低次元正規分布𝑝 𝒛 (次元数𝑑 = 1) 高次元正規分布𝑝 𝒙 𝑝 𝒛 = 𝒩 𝒛|𝟎, 𝐈 𝑝 𝒙|𝒛 = 𝒩 𝒙|𝐖𝒛 + 𝝁, 𝚿 ※𝑝 𝒛 と𝑝 𝒙|𝒛 の定義から𝑝 𝒙 と𝑝 𝒛|𝒙 も正規分布 ※EMアルゴリズムでパラメータ推定できる 𝐳:次元削減空間での特徴ベクトル(潜在変数) 𝐱:特徴ベクトル(観測変数) 𝚿:対角行列 モデル:観測可能な高次元正規分布𝑝 𝒙 は、潜在的な低次元正規分布 𝑝 𝒛 から発生した特徴ベクトル𝒛の線形変換𝐖𝒛 + 𝝁からなる 𝚿
6.
参考) 確率的主成分分析 5/16 確率的主成分分析≒因子分析 𝑝 𝒙|𝒛
= 𝒩 𝒙|𝐖𝒛 + 𝝁, 𝜎2 𝐈 𝚿:対角行列 𝑝 𝒙|𝒛 = 𝒩 𝒙|𝐖𝒛 + 𝝁, 𝚿 相違点) 確率的主成分分析 因子分析
7.
Mixtures of Factor
Analyzer(MFA, 混合因子分析) 6/16 FAの混合版 𝑝 𝑐 = 𝜋 𝑐 s. a. 𝜋 𝑐 = 1 𝐶 𝑐=1 𝑝 𝒛|𝑐 = 𝑝 𝒛 = 𝒩 𝒛|𝟎, 𝐈 𝑝 𝒙|𝒛, 𝑐 = 𝒩 𝒙|𝐖𝑐 𝒛 + 𝝁 𝑐, 𝚿𝑐 ※EMアルゴリズムでパラメータ推定できる 入力 高次元混合正規分布𝑝 𝒙 𝑝 𝒛 𝒛 𝒙 = 𝐖1 𝒛 + 𝝁1 低次元正規分布𝑝 𝒛 (次元数𝑑 = 1) 𝑥2 𝑥1 𝑥2 𝑥1 𝑝 𝒙 𝑝 𝒛 𝒛𝑝 𝒛 𝒛 𝒙 = 𝐖2 𝒛 + 𝝁2 𝒙 = 𝐖3 𝒛 + 𝝁3 𝑐 = 1 𝑐 = 2 𝑐 = 3 MFA
8.
MFAの課題 7/16 混合数𝐶または次元数𝑑を上げると過学習 多層化 →Deep Mixtures of
Factor Analyzer
9.
Deep Mixtures of
Factor Analyzer(DMFA) 8/16 𝑥1 𝑥2 入力 𝑥1 𝑥2 𝑝 𝒙 《第1層》 《第2層》 𝑥1 𝑥2 𝑝 𝒙 MFA 高次元混合正規分布𝑝 𝒙 決定的にクラス割当 クラス内でMFA 𝒛𝑝 𝒛 𝒛𝑝 𝒛 𝒙 = 𝐖2 𝒛 + 𝝁2 𝒙 = 𝐖1 𝒛 + 𝝁1 決定的にクラス割当 クラス内でMFA MFA 𝑐 = 1 𝑐 = 2 𝑠 = 8𝑠 = 7 𝑠 = 6 𝑠 = 3 𝑠 = 5 𝑠 = 4 𝑠 = 2 𝑠 = 1 𝑠 = 9
10.
Deep Mixtures of
Factor Analyzer(DMFA) • 実はDMFAはMFAと等価 • DMFAをMFAとして計算可(Shallow MFA) • しかしDMFAとして学習すると過学習を 回避できるのでDMFAのほうが有利 9/16
11.
実験1 10/16 対数尤度[nat] 学習データ:顔画像(D= 24×24) MFA(学習データ c=20,
d=D/2=288) MFA(テストデータ c=20, d=D/2=288) DMFA 2層 (学習データ c=5, d=50) DMFA 2層 (テストデータ c=5, d=50) Shallow MFA(学習データ c=5, d=50) Shallow MFA(テストデータ c=5, d=50) 過学習 対数尤度による評価(値が大きいほどよい)
12.
実験2 11/16 DMFA(2層) DMFA(3層) d=D/2 C=20 d=50 C=5 d=30 C=3 高次元特徴ベクトル に対して有効なRBM系 の従来手法 学習データに 対する対数尤度 テストデータに 対する対数尤度 カラー画像 (D= 32×32×3
) 音声 (D=1353) 対数尤度による評価(値が大きいほどよい)
13.
まとめ • 混合因子分析を多層化したDMFAを提案 • 混合数または次元が大きいときに有効 12/16
Baixar agora