SlideShare uma empresa Scribd logo
1 de 29
Baixar para ler offline
1
読書会 「トピックモデルによる統計的潜在意味解析」
第8回
3.6節 Dirichlet分布のパラメータ推定
日時: 2016/01/28 19:30~
場所: 株式会社 ALBERT
発表者: @aoki_kenji
目次
2
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
以前の節との対応関係
3
学習アルゴリズム
以前に
出てきた節
3.6節での
対応箇所
Dirichlet分布の
パラメータ推定方法
ギブスサンプリング 3.2.3節
変分ベイズ法
3.3.5節
3.3.6節
3.6.3節
3.6.4節
固定点反復法
ニュートン・ラフソン法
確率的変分ベイズ法 3.4.3節 3.6.5節 確率的ニュートン・ラフソン法
周辺化
ギブスサンプリング
3.2.4節
3.6.6節
固定点反復法
(近似的な)経験ベイズ法
周辺化変分ベイズ法 3.3.8節
粒子フィルタ 3.5.2節
目次
4
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
Dirichlet分布のパラメータ推定の重要性
5
◎LDAの確率分布(P.52 (3.27)式)より
𝑝 𝒘, 𝒛, 𝜽, 𝝓 𝜶, 𝜷 =
𝑑,𝑖
𝑝 𝑤 𝑑,𝑖 𝑧 𝑑,𝑖, 𝝓 𝑝 𝑧 𝑑,𝑖 𝜽 𝑑
𝑑
𝑝 𝜽 𝑑 𝜶
𝑘
𝑝 𝝓 𝑘 𝜷
𝜶: 各ドキュメントにおける各トピックの出現確率(の確率分布)を調整
𝜷: 各トピックにおける各単語の出現確率(の確率分布)を調整
𝜶の各要素が同じ値をもつ対称Dirichlet分布よりも、異なる値を持つ非対称
Dirichlet分布の方が望ましい性質が多々あることが知られている
一方𝜷に関しては、対称Dirichlet分布と非対称Dirichlet分布では、それほど
差がないことが知られている
Dirichlet分布のパラメータ
Dirichlet分布のパラメータ推定の重要性
6
◎対称Dirichlet分布と非対称Dirichlet分布の比較(P.111より抜粋)
𝜶が非対称の場合、内容語と非内容語の分離ができる
一方、𝜷は対称の方がよりはっきりと分離ができる
目次
7
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
変分ベイズ法の学習アルゴリズム(復習)
8
𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
=
𝑘
log
𝛤 𝑣 𝛽𝑣
𝑣 𝛤 𝛽𝑣
− log
𝛤 𝑣 𝜉 𝑘,𝑣
𝜙
𝑣 𝛤 𝜉 𝑘,𝑣
𝜙
+
𝑘 𝑣
𝐸 𝑞 𝒛 𝑛 𝑘,𝑣 + 𝛽𝑣 − 𝜉 𝑘,𝑣
𝜙
𝐸
𝑞 𝝓 𝑘 𝝃 𝑘
𝜙 log 𝜙 𝑘,𝑣
+
𝑑
log
𝛤 𝑘 𝛼 𝑘
𝑘 𝛤 𝛼 𝑘
− log
𝛤 𝑘 𝜉 𝑑,𝑘
𝜃
𝑘 𝛤 𝜉 𝑑,𝑘
𝜃
+
𝑑 𝑘
𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘 − 𝜉 𝑑,𝑘
𝜃
𝐸
𝑞 𝜽 𝑑 𝝃 𝑑
𝜃 log 𝜃 𝑑,𝑘
+
𝑑 𝑖 𝑘
𝑞 𝑧 𝑑,𝑖 = 𝑘 log 𝑞 𝑧 𝑑,𝑖 = 𝑘
◎変分下限(事後分布にDirichlet分布を仮定)(P.82 (3.102)式より)
以下の変分下限を次頁のアルゴリズムで最大化する
変分ベイズ法の学習アルゴリズム(復習)
9
◎変分ベイズ法の擬似アルゴリズム(P.80より抜粋)
ココの話
変分ベイズ法での𝜶,𝜷の推定
10
𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃
, 𝝃 𝜙
, 𝜶, 𝜷 を𝜶, 𝜷に関して最大化すればよい
以下を満たす𝜶, 𝜷を見つければよい
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝜶
= 𝟎,
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝜷
= 𝟎
ここでは固定点反復法とニュートン・ラフソン法を紹介する
目次
11
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
固定点反復法とは
12
𝑥 = 𝑓 𝑥
を満たす𝑥を
𝑥 𝑠+1 = 𝑓 𝑥 𝑠 , 𝑠 = 1,2, ⋯
の反復計算で求めるアルゴリズム
例えば以下のような方程式を解きたいときに使う
𝑔 𝑥 = 𝑥 − 𝑓 𝑥 = 0
ここでは
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝜶
= 𝟎,
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝜷
= 𝟎
が解きたい(偏微分)方程式
偏微分方程式の導出
13
テキストPP.114~115ではガンマ関数の不等式を利用して導出しているが、
ここでは直接導出する
Dirichlet分布とディガンマ関数の関係式(P.71 (3.74)式)
𝐸 𝑝 𝜽 𝜶 log 𝜃 𝑘 = 𝛹 𝛼 𝑘 − 𝛹
𝑘
𝛼 𝑘
を使うと
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝛼 𝑘
=
𝑑
𝛹
𝑘
𝛼 𝑘 − 𝛹 𝛼 𝑘 + 𝛹 𝜉 𝑑,𝑘
𝜃
− 𝛹
𝑘
𝜉 𝑑,𝑘
𝜃
= 0
偏微分方程式の導出
14
したがって、もし
𝛼 𝑘 =
𝑑 𝛹 𝜉 𝑑,𝑘
𝜃
− 𝛹 𝛼 𝑘
𝑑 𝛹 𝑘 𝜉 𝑑,𝑘
𝜃
− 𝛹 𝑘 𝛼 𝑘
𝛼 𝑘
を満たす𝛼 𝑘 ≠ 0が見つかれば
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃
, 𝝃 𝜙
, 𝜶, 𝜷
𝜕𝛼 𝑘
= 0
が解けることになる → 固定点反復法
偏微分方程式の導出
15
𝜉 𝑑,𝑘
𝜃
の更新式(P.76 (3.89)式)
𝜉 𝑑,𝑘
𝜃
= 𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘
を𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷 に代入後に
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃, 𝝃 𝜙, 𝜶, 𝜷
𝜕𝛼 𝑘
= 0
を解こうとすると、反復計算式は
𝛼 𝑘 =
𝑑 𝛹 𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘 − 𝛹 𝛼 𝑘
𝑑 𝛹 𝑘 𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘 − 𝛹 𝑘 𝛼 𝑘
𝛼 𝑘
となる → P.114 (3.191)式
この場合、𝛼 𝑘の更新時に𝜉 𝑑,𝑘
𝜃
も更新することになる
偏微分方程式の導出
16
𝛽𝑣に関しても導出手順は全く同じ(P.115 (3.192)~(3.194)式)
ただし
𝛽 = 𝛽1 = ⋯ = 𝛽 𝑉
として、𝛽を推定した方がよい場合もある(この場合も導出手順はほとんど
同じ)
目次
17
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
ニュートン・ラフソン法とは
18
𝜕𝐹 𝜶
𝜕𝜶
= 𝟎
を満たす𝜶を
𝜶 = 𝜶 − 𝑯−1 𝜶 𝒈 𝜶
𝒈 𝜶 =
𝜕𝐹 𝜶
𝜕𝜶 𝜶= 𝜶
𝑯 𝜶 =
𝜕2 𝐹 𝜶
𝜕𝜶𝜕𝜶′
𝜶= 𝜶
の反復計算で求めるアルゴリズム(P.116 (3.198)~(3.200)式)
ここでは
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃
, 𝝃 𝜙
, 𝜶, 𝜷
𝜕𝜶
= 𝟎,
𝜕𝐹 𝑞 𝒛, 𝜽, 𝝓 𝝃 𝜃
, 𝝃 𝜙
, 𝜶, 𝜷
𝜕𝜷
= 𝟎
が解きたい(偏微分)方程式
偏微分方程式の導出
19
ニュートン・ラフソン法の問題点としてヘッセ行列
𝑯 𝜶
の逆行列演算の計算量の問題がある
しかし、LDAの場合はトリガンマ関数𝛹 1 𝑥 を用いることで、解析的に逆
行列演算が可能である(PP.117 (3.201)式)
𝑯 𝜶 𝑘′ 𝑘 =
𝜕2 𝐹 𝜶
𝜕𝛼 𝑘′ 𝜕𝛼 𝑘
= 𝑀 𝛹 1
𝑘
𝛼 𝑘 − 𝛿 𝑘′
= 𝑘 𝛹 1
𝛼 𝑘
ただし、
𝛹 1 𝑥 =
𝑑𝛹 𝑥
𝑑𝑥
=
𝑑 log 𝛤 𝑥
𝑑𝑥2
偏微分方程式の導出
20
𝑯−1 𝜶 と𝒈 𝜶 の具体的な導出については省略する
(PP.117 (3.202)~(3.209)式を参照)
𝛽𝑣に関しても導出手順は全く同じ
固定点反復法では必ずしも停留点に収束するとは限らないが、𝛼 𝑘, 𝛽𝑣は常に
正の値となる(P.114 (3.191)式を使った場合)
一方、ニュートン・ラフソン法の場合、𝛼 𝑘, 𝛽𝑣が負の値になる可能性がある
→ 固定点反復法がお勧めとのこと
目次
21
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
確率的変分ベイズ法の学習アルゴリズム(復習)
22
◎確率的変分ベイズ法の擬似アルゴリズム(P.99より抜粋)
ココの話
𝑀個の文書全てではなく一つの文書𝑑に関する情報のみを
使ってパラメータを更新
ニュートン・ラフソン法 → 確率的ニュートン・ラフソン法
23
ニュートン・ラフソン法の反復計算の中で全文書の情報を用いているのは
どこか?
𝜶 = 𝜶 − 𝑯−1 𝜶 𝒈 𝜶
𝒈 𝜶 =
𝜕𝐹 𝜶
𝜕𝜶 𝜶= 𝜶
𝑯 𝜶 =
𝜕2
𝐹 𝜶
𝜕𝜶𝜕𝜶′
𝜶= 𝜶
ニュートン・ラフソン法 → 確率的ニュートン・ラフソン法
24
𝑯 𝜶 はP.117 (3.201)式
𝑯 𝜶 𝑘′ 𝑘 =
𝜕2 𝐹 𝜶
𝜕𝛼 𝑘′ 𝜕𝛼 𝑘
= 𝑀 𝛹 1
𝑘
𝛼 𝑘 − 𝛿 𝑘′ = 𝑘 𝛹 1 𝛼 𝑘
より𝜶にしか依存しない
𝒈 𝜶 はP.116 (3.196)式
𝑔 𝛼 𝑘 = 𝑀 𝛹
𝑘
𝛼 𝑘 − 𝛹 𝛼 𝑘 +
𝑑
𝛹 𝜉 𝑑,𝑘
𝜃
− 𝛹
𝑘
𝜉 𝑑,𝑘
𝜃
より第二項がそれに該当する
→ 第二項を確率的最適化の考えにしたがって以下のように変更する
(P.119 (3.212)~(3.213)式)
𝑔 𝛼 𝑘 = 𝑀 𝛹
𝑘
𝛼 𝑘 − 𝛹 𝛼 𝑘 + 𝑀 𝛹 𝜉 𝑑,𝑘
𝜃
− 𝛹
𝑘
𝜉 𝑑,𝑘
𝜃
𝜶 = 𝜶 − 𝜈𝑠 𝑯−1 𝜶 𝒈 𝜶
目次
25
• 3.6.1節 対称/非対称Dirichlet分布の性質
• 3.6.2節 変分ベイズ法におけるDirichlet分布の
パラメータ推定
• 3.6.3節 固定点反復法
• 3.6.4節 ニュートン・ラフソン法
• 3.6.5節 逐次学習-確率的ニュートン・ラフソン法
• 3.6.6節 周辺化ギブスサンプリング/変分ベイズ法の場合
周辺化ギブスサンプリングの学習アルゴリズム(復習)
26
◎周辺化ギブスサンプリングの擬似アルゴリズム(P.57より抜粋)
ココの話
Dirichlet分布のパラメータ推定の方針
27
𝜶, 𝜷にさらに事前分布を仮定する?
→ Dirichlet分布のパラメータに対して共役な確率分布を設定できない
ここでは、よく用いられる方法として点推定による方法を紹介する
Dirichlet分布のパラメータ推定のための目的関数
28
以下の周辺尤度を𝜶, 𝜷に対して最大化する
𝑝 𝒘, 𝒛 𝜶, 𝜷 = 𝑝 𝒘, 𝒛, 𝜽, 𝝓 𝜶, 𝜷 𝑑𝜽𝑑𝝓
PP.120~121 (3.214)~(3.215)式を経てP.121 (3.216)式が得られる
𝑝 𝒘, 𝒛 𝑠 𝜶, 𝜷
=
𝑘
log
𝛤 𝑣 𝛽𝑣
𝑣 𝛤 𝛽𝑣
− log
𝛤 𝑣 𝑛 𝑘,𝑣
𝑠
+ 𝛽𝑣
𝑣 𝛤 𝑛 𝑘,𝑣
𝑠
+ 𝛽𝑣
+
𝑑
log
𝛤 𝑘 𝛼 𝑘
𝑘 𝛤 𝛼 𝑘
− log
𝛤 𝑘 𝑛 𝑑,𝑘
𝑠
+ 𝛼 𝑘
𝑘 𝛤 𝑛 𝑑,𝑘
𝑠
+ 𝛼 𝑘
ただし、
𝑛 𝑘,𝑣
𝑠
=
𝑑 𝑖
𝛿 𝑧 𝑑,𝑖
𝑠
= 𝑘, 𝑤 𝑑,𝑖 = 𝑣 , 𝑛 𝑑,𝑘
𝑠
=
𝑖
𝛿 𝑧 𝑑,𝑖
𝑠
= 𝑘
例えば、固定点反復法で周辺尤度を最大化する𝜶, 𝜷を𝜶 𝑠
, 𝜷 𝑠
とする
(近似的な)経験ベイズ法による推定
29
目的関数として𝑝 𝒘 𝜶, 𝜷 の下限(P.122 (3.218)式)
𝑝 𝒘 𝜶, 𝜷
≥
𝑘
log
𝛤 𝑣 𝛽𝑣
𝑣 𝛤 𝛽𝑣
− log
𝛤 𝑣 𝐸 𝑞 𝒛 𝑛 𝑘,𝑣 + 𝛽𝑣
𝑣 𝛤 𝐸 𝑞 𝒛 𝑛 𝑘,𝑣 + 𝛽𝑣
+
𝑑
log
𝛤 𝑘 𝛼 𝑘
𝑘 𝛤 𝛼 𝑘
− log
𝛤 𝑘 𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘
𝑘 𝛤 𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 + 𝛼 𝑘
を設定するやり方もある
ただし、
𝐸 𝑞 𝒛 𝑛 𝑑,𝑘 =
𝑖
𝑞 𝑧 𝑑,𝑖 = 𝑘 , 𝐸 𝑞 𝒛 𝑛 𝑘,𝑣 =
𝑑 𝑖
𝑞 𝑧 𝑑,𝑖 = 𝑘 𝛿 𝑤 𝑑,𝑖 = 𝑣
𝑞 𝒛 として
• 周辺化ギブスサンプリングによって得られたサンプル分布
• 周辺化変分ベイズ法で推定された𝑞 𝑧 𝑑,𝑖
を用いればよい

Mais conteúdo relacionado

Mais procurados

第5章 時系列データのモデリング, 補助情報を考慮したモデリング
第5章 時系列データのモデリング, 補助情報を考慮したモデリング第5章 時系列データのモデリング, 補助情報を考慮したモデリング
第5章 時系列データのモデリング, 補助情報を考慮したモデリングksmzn
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)tn1031
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布Akihiro Nitta
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7sleepy_yoshi
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)Akito Nakano
 
テトラヘドロン法
テトラヘドロン法テトラヘドロン法
テトラヘドロン法ssuser29d350
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半koba cky
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valuesatanic
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
オンライン学習 : Online learning
オンライン学習 : Online learningオンライン学習 : Online learning
オンライン学習 : Online learningDaiki Tanaka
 
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8Fujimoto Keisuke
 
トピックモデル3章後半
トピックモデル3章後半トピックモデル3章後半
トピックモデル3章後半Shuuji Mihara
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)Toshiyuki Shimono
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsTakao Yamanaka
 

Mais procurados (20)

第5章 時系列データのモデリング, 補助情報を考慮したモデリング
第5章 時系列データのモデリング, 補助情報を考慮したモデリング第5章 時系列データのモデリング, 補助情報を考慮したモデリング
第5章 時系列データのモデリング, 補助情報を考慮したモデリング
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
 
テトラヘドロン法
テトラヘドロン法テトラヘドロン法
テトラヘドロン法
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
 
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic valueUniversity CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
オンライン学習 : Online learning
オンライン学習 : Online learningオンライン学習 : Online learning
オンライン学習 : Online learning
 
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
CVIM最先端ガイド6 幾何学的推定のための最適化手法 3.5 - 3.8
 
トピックモデル3章後半
トピックモデル3章後半トピックモデル3章後半
トピックモデル3章後半
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
 

Semelhante a 読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定

PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングtakutori
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2Ryoma Nakagawa
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章hakusai
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)TakaakiYonekura
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章Isao Takaesu
 
波動方程式
波動方程式波動方程式
波動方程式yu sa
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
Image interpolation
Image interpolationImage interpolation
Image interpolationKokuiSai
 

Semelhante a 読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定 (20)

PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
Or学会用20160915.ver2
Or学会用20160915.ver2Or学会用20160915.ver2
Or学会用20160915.ver2
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
波動方程式
波動方程式波動方程式
波動方程式
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
Prml1.2.4
Prml1.2.4Prml1.2.4
Prml1.2.4
 
Image interpolation
Image interpolationImage interpolation
Image interpolation
 
平方剰余
平方剰余平方剰余
平方剰余
 

読書会 「トピックモデルによる統計的潜在意味解析」 第8回 3.6節 Dirichlet分布のパラメータ推定