SlideShare uma empresa Scribd logo
1 de 4
Baixar para ler offline
On the Integration of Topic Modeling and Dictionary Learningの
サンプリングのための式解説
正田備也 @長崎大学
平成 23 年 12 月 20 日
1 Full joint distribution
個々の隠れ変数やパラメータについて、まず、別々に確率(密度)の式を書いておく。
p(xmip|d·p, zmi, smi, γϵ) =
√
γϵ
2π
exp
{
−
γϵ(xmip −
∑
k dkpzmiksmik)2
2
}
(1)
p(dkp|mk, γd) =
√
γd
2π
exp
{
−
γd(dkp − mk)2
2
}
(2)
p(mk|γm) =
√
γm
2π
exp
(
−
γmm2
k
2
)
(3)
p(smik|γs) =



2
√ γs
2π exp
(
−
γss2
mik
2
)
smik ≥ 0
0 otherwise
= δ(smik ≥ 0) · 2
√
γs
2π
exp
(
−
γss2
mik
2
)
(4)
p(zmik|πhmik,hmi ) = πzmik
hmik(1 − πhmik)1−zmik
where zmik ∈ {0, 1}, hmi ∈ {1, . . . , J}. (5)
p(πjk|c1, ηk) =
Γ(c1)
Γ(c1ηk)Γ(c1(1 − ηk))
πc1ηk−1
jk (1 − πjk)c1(1−ηk)−1
(6)
p(ηk|c0, η0) =
Γ(c0)
Γ(c0η0)Γ(c0(1 − η0))
ηc0η0−1
k (1 − ηk)c0(1−η0)−1
(7)
p(γϵ|aϵ, bϵ) =
baϵ
ϵ
Γ(aϵ)
γaϵ−1
ϵ e−bϵγϵ
(8)
p(γs|as, bs) =
bas
s
Γ(as)
γas−1
s e−bsγs
(9)
p(hmi|νrm , rm) =
∑
j
δ(hmi = j)νrmj where rm ∈ {1, . . . , T},
∑
j νtj = 1. (10)
p(νt|αν) =
Γ(αν)
Γ(αν/J)J
∏
j
ν
αν /J−1
tj (11)
p(rm|µ) =
∑
t
δ(rm = t)µt where
∑
t µt = 1. (12)
p(µ|αµ) =
Γ(αµ)
Γ(αµ/T)T
∏
t
µ
αµ/T −1
t (13)
p(ym|ωrm , rm) ∝
∏
l
ω
Nmyml
|ym|
rml (14)
p(ωt|αω) =
Γ(αω)
Γ(αω/L)L
ω
αω/L−1
tl (15)
ただし、δ(·) は、() 内の条件が成立するとき 1、それ以外のとき 0 の値をとる。
1
以上をまとめると、full joint distribution が以下のように書ける。
p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω)
=
M∏
m=1
Nm∏
i=1
P∏
p=1
p(xmip|d·p, zmi, smi, γϵ) ·
K∏
k=1
P∏
p=1
p(dkp|mk, γd) ·
M∏
m=1
Nm∏
i=1
K∏
k=1
p(smik|γs) · p(mk|γm)
·
M∏
m=1
Nm∏
i=1
K∏
k=1
p(zmik|πhmik, hmi) ·
J∏
j=1
K∏
k=1
p(πjk|c1, ηk) ·
∏
k
p(ηk|c0, η0) · p(γϵ|aϵ, bϵ) · p(γs|as, bs)
·
M∏
m=1
Nm∏
i=1
p(hmi|νrm , rm) ·
T∏
t=1
p(νt|αν) ·
M∏
m=1
p(rm|µ) · p(µ|αµ) ·
M∏
m=1
p(ym|ωrm , rm) ·
T∏
t=1
p(ωt|αω) (16)
2 Full conditional distributions for Gibbs sampling
dkp の事後分布を求める。
p(dkp| · · · ) =
p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω)
∫
p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω)ddkp
∝
M∏
m=1
Nm∏
i=1
p(xmip|d·p, zmi, smi, γϵ) · p(dkp)
∝
M∏
m=1
Nm∏
i=1
exp
{
−
γϵ(xmip −
∑
k dkpzmiksmik)2
2
}
· exp
{
−
γd(dkp − mk)2
2
}
∝ exp
{
−
γϵ
2
∑
m
∑
i
(
xmip −
∑
k′̸=k
dk′pzmik′ smik′ − dkpzmiksmik
)2
−
γd
2
d2
kp + γdmkdkp
}
∝ exp
[
−
γϵ
2
∑
m
∑
i
{
d2
kpz2
miks2
mik − 2dkpzmiksmik
(
xmip −
∑
k′̸=k
dk′pzmik′ smik′
)}
−
γd
2
d2
kp + γdmkdkp
]
∝ exp
[
−
γd + γϵ
∑
m
∑
i z2
miks2
mik
2
d2
kp +
{
γdmk + γϵ
∑
m
∑
i
zmiksmik
(
xmip −
∑
k′̸=k
dk′pzmik′ smik′
)}
dkp
]
∝ exp
[
−
γd + γϵ
∑
m
∑
i z2
miks2
mik
2
{
dkp −
γdmk + γϵ
∑
m
∑
i zmiksmik(xmip −
∑
k′̸=k dk′pzmik′ smik′ )
γd + γϵ
∑
m
∑
i z2
miks2
mik
}2]
(17)
これは正規分布。
smik の事後分布を求める。
p(smik| · · · ) ∝
P∏
p=1
p(xmip|d·p, zmi, smi, γϵ) · p(smik|γs)
∝
P∏
p=1
exp
{
−
γϵ(xmip −
∑
k dkpzmiksmik)2
2
}
· δ(smik ≥ 0) · exp
(
−
γss2
mik
2
)
= δ(smik ≥ 0) · exp
{
−
γϵ
∑
p(xmip −
∑
k dkpzmiksmik)2
2
−
γss2
mik
2
}
= δ(smik ≥ 0) · exp
{
−
γϵ
∑
p(xmip −
∑
k′̸=k dk′pzmik′ smik′ − dkpzmiksmik)2
2
−
γss2
mik
2
}
∝ δ(smik ≥ 0) · exp
{
−
γs + γϵz2
mik
∑
p d2
kp
2
s2
mik + γϵzmiksmik
∑
p
(
xmip −
∑
k′̸=k
dk′pzmik′ smik′
)
dkp
}
∝ δ(smik ≥ 0) · exp
[
−
γs + γϵz2
mik
∑
p d2
kp
2
{
smik −
γϵzmik
∑
p(xmip −
∑
k′̸=k dk′pzmik′ smik′ )dkp
γs + γϵz2
mik
∑
p d2
kp
}2]
(18)
2
これは、truncated normal distribution なので、2D slice sampling が使える。
mk の事後分布を求める。
p(mk|γm) ∝
P∏
p=1
p(dkp|mk) · p(mk|γm) ∝
P∏
p=1
exp
{
−
γd(dkp − mk)2
2
}
· exp
(
−
γmm2
k
2
)
∝ exp
{
−
γd(Pm2
k − 2mk
∑
p dkp)
2
−
γmm2
k
2
}
= exp
{
−
(Pγd + γm)m2
k + 2γd(
∑
p dkp)mk
2
}
∝ exp
{
−
Pγd + γm
2
(
mk −
γd
∑
p dkp
Pγd + γm
)2}
(19)
zmik の事後分布を求める。
p(zmik| · · · ) ∝
P∏
p=1
p(xmip|d·p, zmi, smi, γϵ) · p(zmik|πhmik, hmi)
∝
P∏
p=1
exp
{
−
γϵ(xmip −
∑
k dkpzmiksmik)2
2
}
· πzmik
hmik(1 − πhmik)1−zmik
(20)
これは、二項分布。zmik = 1 および zmik = 0 となる事後確率は、それぞれ、以下のようになる。
p(zmik = 1| · · · ) ∝ πhmik · exp
{
−
γϵ
∑
p(xmip −
∑
k′̸=k dk′pzmik′ smik′ − dkpsmik)2
2
}
(21)
p(zmik = 0| · · · ) ∝ (1 − πhmik) · exp
{
−
γϵ
∑
p(xmip −
∑
k′̸=k dk′pzmik′ smik′ )2
2
}
(22)
πjk の事後分布を求める。
p(πjk| · · · ) ∝
M∏
m=1
Nm∏
i=1
p(zmik|πhmik)δ(hmi=j)
p(πjk|c1, ηk)
∝
M∏
m=1
Nm∏
i=1
{
πzmik
hmik(1 − πhmik)1−zmik
}δ(hmi=j)
· πc1ηk−1
jk (1 − πjk)c1(1−ηk)−1
= π
c1ηk−1+
∑
m
∑
i δ(hmi=j)zmik
jk (1 − πjk)c1(1−ηk)−1+
∑
m
∑
i δ(hmi=j)(1−zmik)
(23)
これはベータ分布。
ηk の事後分布を求める。
p(ηk| · · · ) ∝
J∏
j=1
p(πjk|c1, ηk) · p(ηk|c0, η0)
∝
J∏
j=1
πc1ηk−1
jk (1 − πjk)c1(1−ηk)−1
· ηc0η0−1
k (1 − ηk)c0(1−η0)−1
(24)
論文には、slice sampling を使った、とあるので、どんな slice sampling か調べてみる。
g(ηk) ≡
J∏
j=1
πc1ηk−1
jk (1 − πjk)c1(1−ηk)−1
· ηc0η0−1
k (1 − ηk)c0(1−η0)−1
(25)
とおく。g(ηk) は非負の関数である。具体的に論文にある設定 c1 = 1, c0 = 10, η0 = 0.5 を使うと、
g(ηk) =
J∏
j=1
πηk−1
jk (1 − πjk)−ηk
· η4
k(1 − ηk)4
(26)
となり、g(0) = 0 かつ g(1) = 0 であることが分かる。微分すると
g(ηk)′
=
{
ηk(1 − ηk)
∑
j
log
πjk
1 − πjk
+ 4(1 − 2ηk)
}
·
∏
j
πηk−1
jk (1 − πjk)−ηk
· η3
k(1 − ηk)3
(27)
3
となり、g(0)′
= 0 かつ g(1)′
= 0 であることが分かる。
∑
j log
πjk
1−πjk
は定数なので C とおくと、g(ηk)′
= 0
となるのは Cηk(1 − ηk) + 4(1 − 2ηk) = 0 のとき、つまり ηk =
C−8±
√
(C−8)2+16C
2C のときで、正の解はちょ
うどひとつ。よって、g(ηk) は単峰性であり、slice sampling が使いやすい。ただし、逆関数は解析的に求ま
らないので、横軸に並行な直線と g(ηk) のグラフとの 2 つの交点は、数値計算的に求める必要がある。
残りの事後分布は、比較的、自明。
hmi の事後分布を求める。
p(hmi| · · · ) ∝
K∏
k=1
p(zmik|πhmik, hmi) · p(hmi|νrm ) ∝
K∏
k=1
πzmik
hmik(1 − πhmik)1−zmik
· νrmhmi (28)
これは、多項分布。hmi = 1, . . . , J それぞれの場合の確率を求めればよい。
νtj の事後分布を求める。
p(νtj| · · · ) ∝
M∏
m=1
Nm∏
i=1
ν
δ(hmi=j)δ(rm=t)
rmhmi
· ν
αν /J−1
tj = ν
∑M
m=1
∑Nm
i=1 δ(hmi=j)δ(rm=t)+αν /J−1
tj (29)
これはディリクレ分布である。なお、論文中の Section 3 では αν
J を αν
L とする typo がある。
rm の事後分布を求める。
p(rm| · · · ) ∝
Nm∏
i=1
∏
j
ν
δ(hmi=j)
rmj · µrm ·
∏
l
ω
Nmyml
|ym|
rml =
∏
j
ν
∑Nm
i=1 δ(hmi=j)
rmj · µrm ·
∏
l
ω
Nmyml
|ym|
rml (30)
これは、多項分布。rm = 1, . . . , T それぞれの場合の確率を求めればよい。
µt の事後分布を求める。
p(µt| · · · ) ∝
∏
m
µ
δ(rm=t)
t ·
∏
t
µ
αµ/T −1
t = µ
∑
m δ(rm=t)+αµ/T −1
t (31)
これは、ディリクレ分布。
ωtl の事後分布を求める。
p(ωtl| · · · ) ∝ ω
δ(rm=t)Nmyml
|ym|
rml · ω
αω/L−1
tl = ω
∑
m
δ(rm=t)Nmyml
|ym|
+ αω
L −1
tl (32)
これは、ディリクレ分布。
残りは、正規分布の precision パラメータ。まず γϵ については、
p(γϵ| · · · ) ∝
M∏
m=1
Nm∏
i=1
P∏
p=1
√
γϵ
2π
exp
{
−
γϵ(xmip −
∑
k dkpzmiksmik)2
2
}
·
baϵ
ϵ
Γ(aϵ)
γaϵ−1
ϵ e−bϵγϵ
∝ γ
2aϵ+MNmP
2 −1
ϵ exp
{
−
2bϵ +
∑M
m=1
∑Nm
i=1
∑P
p=1(xmip −
∑
k dkpzmiksmik)2
2
γϵ
}
(33)
と、ガンマ分布を事後分布として得る。次に γs だが、各 smik は非負となるようにサンプリングされている
から、
p(γs| · · · ) ∝
M∏
m=1
Nm∏
i=1
K∏
k=1
2δ(smik ≥ 0)
√
γs
2π
exp
(
−
γss2
mik
2
)
·
bas
s
Γ(as)
γas−1
s e−bsγs
∝ γ
2as+MNmK
2 −1
s exp
(
−
2bs +
∑M
m=1
∑Nm
i=1
∑K
k=1 s2
mik
2
γs
)
(34)
と、やはりガンマ分布を事後分布として得る。
4

Mais conteúdo relacionado

Destaque

โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายก
โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายกโรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายก
โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายกphummariang permpool
 
Jorge leonardo rivera lozano
Jorge leonardo rivera lozanoJorge leonardo rivera lozano
Jorge leonardo rivera lozanoJorge Rivera
 
Sistemas de información institucional
Sistemas de información institucionalSistemas de información institucional
Sistemas de información institucionalAlexanderLeon01
 
แฟ้มสะสมงานอิเล็กทรอนิกส์
แฟ้มสะสมงานอิเล็กทรอนิกส์แฟ้มสะสมงานอิเล็กทรอนิกส์
แฟ้มสะสมงานอิเล็กทรอนิกส์Tvet Res
 
Bacaan abjad
Bacaan abjadBacaan abjad
Bacaan abjadVes Van
 
MODULO DE ELECTRONICA HOMESCHOOL
MODULO DE ELECTRONICA HOMESCHOOLMODULO DE ELECTRONICA HOMESCHOOL
MODULO DE ELECTRONICA HOMESCHOOLJULIANCHO1014
 
ぷらぐいんになっちゃった
ぷらぐいんになっちゃったぷらぐいんになっちゃった
ぷらぐいんになっちゃったChieko Aihara
 
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDF
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDFMẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDF
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDFSFP
 
Comic Imagenologia Rayos x
Comic Imagenologia Rayos xComic Imagenologia Rayos x
Comic Imagenologia Rayos xMariana López
 
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FIC
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FICMarketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FIC
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FICFelipe Girão
 

Destaque (19)

2. kvkv-gambar
2. kvkv-gambar2. kvkv-gambar
2. kvkv-gambar
 
โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายก
โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายกโรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายก
โรงเรียนเขาเพิ่มนารีผลวิทยา จังหวัดนครนายก
 
Jorge leonardo rivera lozano
Jorge leonardo rivera lozanoJorge leonardo rivera lozano
Jorge leonardo rivera lozano
 
Mundo em descontrole
Mundo em descontroleMundo em descontrole
Mundo em descontrole
 
Sistemas de información institucional
Sistemas de información institucionalSistemas de información institucional
Sistemas de información institucional
 
แฟ้มสะสมงานอิเล็กทรอนิกส์
แฟ้มสะสมงานอิเล็กทรอนิกส์แฟ้มสะสมงานอิเล็กทรอนิกส์
แฟ้มสะสมงานอิเล็กทรอนิกส์
 
Modulo osi 4 . 15
Modulo osi 4 . 15Modulo osi 4 . 15
Modulo osi 4 . 15
 
Imagine dragons
Imagine dragonsImagine dragons
Imagine dragons
 
Test1
Test1Test1
Test1
 
Autismo
AutismoAutismo
Autismo
 
Cuadros remunerativos agosto 2009
Cuadros remunerativos agosto 2009Cuadros remunerativos agosto 2009
Cuadros remunerativos agosto 2009
 
Bacaan abjad
Bacaan abjadBacaan abjad
Bacaan abjad
 
MODULO DE ELECTRONICA HOMESCHOOL
MODULO DE ELECTRONICA HOMESCHOOLMODULO DE ELECTRONICA HOMESCHOOL
MODULO DE ELECTRONICA HOMESCHOOL
 
ぷらぐいんになっちゃった
ぷらぐいんになっちゃったぷらぐいんになっちゃった
ぷらぐいんになっちゃった
 
Presentación del proyecto evet
Presentación del proyecto evetPresentación del proyecto evet
Presentación del proyecto evet
 
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDF
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDFMẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDF
MẪU BÁO CÁO KIỂM TOÁN HỆ THỐNG CƠ ĐIỆN TÒA NHÀ CHUNG CƯ.PDF
 
Comic Imagenologia Rayos x
Comic Imagenologia Rayos xComic Imagenologia Rayos x
Comic Imagenologia Rayos x
 
Trabajo imagenes
Trabajo imagenesTrabajo imagenes
Trabajo imagenes
 
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FIC
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FICMarketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FIC
Marketing Digital - 4 sabado com TIC - Maio de 2014 - Sistema Estácio/FIC
 

Mais de Tomonari Masada

Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説Tomonari Masada
 
Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Tomonari Masada
 
Context-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic ModelingContext-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic ModelingTomonari Masada
 
A note on the density of Gumbel-softmax
A note on the density of Gumbel-softmaxA note on the density of Gumbel-softmax
A note on the density of Gumbel-softmaxTomonari Masada
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
Expectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocationExpectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocationTomonari Masada
 
Mini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic ModelingMini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic ModelingTomonari Masada
 
A note on variational inference for the univariate Gaussian
A note on variational inference for the univariate GaussianA note on variational inference for the univariate Gaussian
A note on variational inference for the univariate GaussianTomonari Masada
 
Document Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior DistributionsDocument Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior DistributionsTomonari Masada
 
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka CompositionLDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka CompositionTomonari Masada
 
A Note on Latent LSTM Allocation
A Note on Latent LSTM AllocationA Note on Latent LSTM Allocation
A Note on Latent LSTM AllocationTomonari Masada
 
Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)Tomonari Masada
 
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic ModelA Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic ModelTomonari Masada
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationTomonari Masada
 
Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28Tomonari Masada
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationTomonari Masada
 

Mais de Tomonari Masada (20)

Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説
 
Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説Denoising Diffusion Probabilistic Modelsの重要な式の解説
Denoising Diffusion Probabilistic Modelsの重要な式の解説
 
Context-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic ModelingContext-dependent Token-wise Variational Autoencoder for Topic Modeling
Context-dependent Token-wise Variational Autoencoder for Topic Modeling
 
A note on the density of Gumbel-softmax
A note on the density of Gumbel-softmaxA note on the density of Gumbel-softmax
A note on the density of Gumbel-softmax
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
Expectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocationExpectation propagation for latent Dirichlet allocation
Expectation propagation for latent Dirichlet allocation
 
Mini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic ModelingMini-batch Variational Inference for Time-Aware Topic Modeling
Mini-batch Variational Inference for Time-Aware Topic Modeling
 
A note on variational inference for the univariate Gaussian
A note on variational inference for the univariate GaussianA note on variational inference for the univariate Gaussian
A note on variational inference for the univariate Gaussian
 
Document Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior DistributionsDocument Modeling with Implicit Approximate Posterior Distributions
Document Modeling with Implicit Approximate Posterior Distributions
 
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka CompositionLDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
LDA-Based Scoring of Sequences Generated by RNN for Automatic Tanka Composition
 
A Note on ZINB-VAE
A Note on ZINB-VAEA Note on ZINB-VAE
A Note on ZINB-VAE
 
A Note on Latent LSTM Allocation
A Note on Latent LSTM AllocationA Note on Latent LSTM Allocation
A Note on Latent LSTM Allocation
 
A Note on TopicRNN
A Note on TopicRNNA Note on TopicRNN
A Note on TopicRNN
 
Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)Topic modeling with Poisson factorization (2)
Topic modeling with Poisson factorization (2)
 
Poisson factorization
Poisson factorizationPoisson factorization
Poisson factorization
 
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic ModelA Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
A Simple Stochastic Gradient Variational Bayes for the Correlated Topic Model
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
 
Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28Word count in Husserliana Volumes 1 to 28
Word count in Husserliana Volumes 1 to 28
 
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet AllocationA Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
A Simple Stochastic Gradient Variational Bayes for Latent Dirichlet Allocation
 
FDSE2015
FDSE2015FDSE2015
FDSE2015
 

Último

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 

Último (8)

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 

On the Integration of Topic Modeling and Dictionary Learning の サンプリングのための式解説

  • 1. On the Integration of Topic Modeling and Dictionary Learningの サンプリングのための式解説 正田備也 @長崎大学 平成 23 年 12 月 20 日 1 Full joint distribution 個々の隠れ変数やパラメータについて、まず、別々に確率(密度)の式を書いておく。 p(xmip|d·p, zmi, smi, γϵ) = √ γϵ 2π exp { − γϵ(xmip − ∑ k dkpzmiksmik)2 2 } (1) p(dkp|mk, γd) = √ γd 2π exp { − γd(dkp − mk)2 2 } (2) p(mk|γm) = √ γm 2π exp ( − γmm2 k 2 ) (3) p(smik|γs) =    2 √ γs 2π exp ( − γss2 mik 2 ) smik ≥ 0 0 otherwise = δ(smik ≥ 0) · 2 √ γs 2π exp ( − γss2 mik 2 ) (4) p(zmik|πhmik,hmi ) = πzmik hmik(1 − πhmik)1−zmik where zmik ∈ {0, 1}, hmi ∈ {1, . . . , J}. (5) p(πjk|c1, ηk) = Γ(c1) Γ(c1ηk)Γ(c1(1 − ηk)) πc1ηk−1 jk (1 − πjk)c1(1−ηk)−1 (6) p(ηk|c0, η0) = Γ(c0) Γ(c0η0)Γ(c0(1 − η0)) ηc0η0−1 k (1 − ηk)c0(1−η0)−1 (7) p(γϵ|aϵ, bϵ) = baϵ ϵ Γ(aϵ) γaϵ−1 ϵ e−bϵγϵ (8) p(γs|as, bs) = bas s Γ(as) γas−1 s e−bsγs (9) p(hmi|νrm , rm) = ∑ j δ(hmi = j)νrmj where rm ∈ {1, . . . , T}, ∑ j νtj = 1. (10) p(νt|αν) = Γ(αν) Γ(αν/J)J ∏ j ν αν /J−1 tj (11) p(rm|µ) = ∑ t δ(rm = t)µt where ∑ t µt = 1. (12) p(µ|αµ) = Γ(αµ) Γ(αµ/T)T ∏ t µ αµ/T −1 t (13) p(ym|ωrm , rm) ∝ ∏ l ω Nmyml |ym| rml (14) p(ωt|αω) = Γ(αω) Γ(αω/L)L ω αω/L−1 tl (15) ただし、δ(·) は、() 内の条件が成立するとき 1、それ以外のとき 0 の値をとる。 1
  • 2. 以上をまとめると、full joint distribution が以下のように書ける。 p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω) = M∏ m=1 Nm∏ i=1 P∏ p=1 p(xmip|d·p, zmi, smi, γϵ) · K∏ k=1 P∏ p=1 p(dkp|mk, γd) · M∏ m=1 Nm∏ i=1 K∏ k=1 p(smik|γs) · p(mk|γm) · M∏ m=1 Nm∏ i=1 K∏ k=1 p(zmik|πhmik, hmi) · J∏ j=1 K∏ k=1 p(πjk|c1, ηk) · ∏ k p(ηk|c0, η0) · p(γϵ|aϵ, bϵ) · p(γs|as, bs) · M∏ m=1 Nm∏ i=1 p(hmi|νrm , rm) · T∏ t=1 p(νt|αν) · M∏ m=1 p(rm|µ) · p(µ|αµ) · M∏ m=1 p(ym|ωrm , rm) · T∏ t=1 p(ωt|αω) (16) 2 Full conditional distributions for Gibbs sampling dkp の事後分布を求める。 p(dkp| · · · ) = p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω) ∫ p(X, D, S, Z, π, η, h, ν, r, µ, y, ω, γϵ, γs|c1, c0, η0, aϵ, bϵ, as, bs, αν, αω)ddkp ∝ M∏ m=1 Nm∏ i=1 p(xmip|d·p, zmi, smi, γϵ) · p(dkp) ∝ M∏ m=1 Nm∏ i=1 exp { − γϵ(xmip − ∑ k dkpzmiksmik)2 2 } · exp { − γd(dkp − mk)2 2 } ∝ exp { − γϵ 2 ∑ m ∑ i ( xmip − ∑ k′̸=k dk′pzmik′ smik′ − dkpzmiksmik )2 − γd 2 d2 kp + γdmkdkp } ∝ exp [ − γϵ 2 ∑ m ∑ i { d2 kpz2 miks2 mik − 2dkpzmiksmik ( xmip − ∑ k′̸=k dk′pzmik′ smik′ )} − γd 2 d2 kp + γdmkdkp ] ∝ exp [ − γd + γϵ ∑ m ∑ i z2 miks2 mik 2 d2 kp + { γdmk + γϵ ∑ m ∑ i zmiksmik ( xmip − ∑ k′̸=k dk′pzmik′ smik′ )} dkp ] ∝ exp [ − γd + γϵ ∑ m ∑ i z2 miks2 mik 2 { dkp − γdmk + γϵ ∑ m ∑ i zmiksmik(xmip − ∑ k′̸=k dk′pzmik′ smik′ ) γd + γϵ ∑ m ∑ i z2 miks2 mik }2] (17) これは正規分布。 smik の事後分布を求める。 p(smik| · · · ) ∝ P∏ p=1 p(xmip|d·p, zmi, smi, γϵ) · p(smik|γs) ∝ P∏ p=1 exp { − γϵ(xmip − ∑ k dkpzmiksmik)2 2 } · δ(smik ≥ 0) · exp ( − γss2 mik 2 ) = δ(smik ≥ 0) · exp { − γϵ ∑ p(xmip − ∑ k dkpzmiksmik)2 2 − γss2 mik 2 } = δ(smik ≥ 0) · exp { − γϵ ∑ p(xmip − ∑ k′̸=k dk′pzmik′ smik′ − dkpzmiksmik)2 2 − γss2 mik 2 } ∝ δ(smik ≥ 0) · exp { − γs + γϵz2 mik ∑ p d2 kp 2 s2 mik + γϵzmiksmik ∑ p ( xmip − ∑ k′̸=k dk′pzmik′ smik′ ) dkp } ∝ δ(smik ≥ 0) · exp [ − γs + γϵz2 mik ∑ p d2 kp 2 { smik − γϵzmik ∑ p(xmip − ∑ k′̸=k dk′pzmik′ smik′ )dkp γs + γϵz2 mik ∑ p d2 kp }2] (18) 2
  • 3. これは、truncated normal distribution なので、2D slice sampling が使える。 mk の事後分布を求める。 p(mk|γm) ∝ P∏ p=1 p(dkp|mk) · p(mk|γm) ∝ P∏ p=1 exp { − γd(dkp − mk)2 2 } · exp ( − γmm2 k 2 ) ∝ exp { − γd(Pm2 k − 2mk ∑ p dkp) 2 − γmm2 k 2 } = exp { − (Pγd + γm)m2 k + 2γd( ∑ p dkp)mk 2 } ∝ exp { − Pγd + γm 2 ( mk − γd ∑ p dkp Pγd + γm )2} (19) zmik の事後分布を求める。 p(zmik| · · · ) ∝ P∏ p=1 p(xmip|d·p, zmi, smi, γϵ) · p(zmik|πhmik, hmi) ∝ P∏ p=1 exp { − γϵ(xmip − ∑ k dkpzmiksmik)2 2 } · πzmik hmik(1 − πhmik)1−zmik (20) これは、二項分布。zmik = 1 および zmik = 0 となる事後確率は、それぞれ、以下のようになる。 p(zmik = 1| · · · ) ∝ πhmik · exp { − γϵ ∑ p(xmip − ∑ k′̸=k dk′pzmik′ smik′ − dkpsmik)2 2 } (21) p(zmik = 0| · · · ) ∝ (1 − πhmik) · exp { − γϵ ∑ p(xmip − ∑ k′̸=k dk′pzmik′ smik′ )2 2 } (22) πjk の事後分布を求める。 p(πjk| · · · ) ∝ M∏ m=1 Nm∏ i=1 p(zmik|πhmik)δ(hmi=j) p(πjk|c1, ηk) ∝ M∏ m=1 Nm∏ i=1 { πzmik hmik(1 − πhmik)1−zmik }δ(hmi=j) · πc1ηk−1 jk (1 − πjk)c1(1−ηk)−1 = π c1ηk−1+ ∑ m ∑ i δ(hmi=j)zmik jk (1 − πjk)c1(1−ηk)−1+ ∑ m ∑ i δ(hmi=j)(1−zmik) (23) これはベータ分布。 ηk の事後分布を求める。 p(ηk| · · · ) ∝ J∏ j=1 p(πjk|c1, ηk) · p(ηk|c0, η0) ∝ J∏ j=1 πc1ηk−1 jk (1 − πjk)c1(1−ηk)−1 · ηc0η0−1 k (1 − ηk)c0(1−η0)−1 (24) 論文には、slice sampling を使った、とあるので、どんな slice sampling か調べてみる。 g(ηk) ≡ J∏ j=1 πc1ηk−1 jk (1 − πjk)c1(1−ηk)−1 · ηc0η0−1 k (1 − ηk)c0(1−η0)−1 (25) とおく。g(ηk) は非負の関数である。具体的に論文にある設定 c1 = 1, c0 = 10, η0 = 0.5 を使うと、 g(ηk) = J∏ j=1 πηk−1 jk (1 − πjk)−ηk · η4 k(1 − ηk)4 (26) となり、g(0) = 0 かつ g(1) = 0 であることが分かる。微分すると g(ηk)′ = { ηk(1 − ηk) ∑ j log πjk 1 − πjk + 4(1 − 2ηk) } · ∏ j πηk−1 jk (1 − πjk)−ηk · η3 k(1 − ηk)3 (27) 3
  • 4. となり、g(0)′ = 0 かつ g(1)′ = 0 であることが分かる。 ∑ j log πjk 1−πjk は定数なので C とおくと、g(ηk)′ = 0 となるのは Cηk(1 − ηk) + 4(1 − 2ηk) = 0 のとき、つまり ηk = C−8± √ (C−8)2+16C 2C のときで、正の解はちょ うどひとつ。よって、g(ηk) は単峰性であり、slice sampling が使いやすい。ただし、逆関数は解析的に求ま らないので、横軸に並行な直線と g(ηk) のグラフとの 2 つの交点は、数値計算的に求める必要がある。 残りの事後分布は、比較的、自明。 hmi の事後分布を求める。 p(hmi| · · · ) ∝ K∏ k=1 p(zmik|πhmik, hmi) · p(hmi|νrm ) ∝ K∏ k=1 πzmik hmik(1 − πhmik)1−zmik · νrmhmi (28) これは、多項分布。hmi = 1, . . . , J それぞれの場合の確率を求めればよい。 νtj の事後分布を求める。 p(νtj| · · · ) ∝ M∏ m=1 Nm∏ i=1 ν δ(hmi=j)δ(rm=t) rmhmi · ν αν /J−1 tj = ν ∑M m=1 ∑Nm i=1 δ(hmi=j)δ(rm=t)+αν /J−1 tj (29) これはディリクレ分布である。なお、論文中の Section 3 では αν J を αν L とする typo がある。 rm の事後分布を求める。 p(rm| · · · ) ∝ Nm∏ i=1 ∏ j ν δ(hmi=j) rmj · µrm · ∏ l ω Nmyml |ym| rml = ∏ j ν ∑Nm i=1 δ(hmi=j) rmj · µrm · ∏ l ω Nmyml |ym| rml (30) これは、多項分布。rm = 1, . . . , T それぞれの場合の確率を求めればよい。 µt の事後分布を求める。 p(µt| · · · ) ∝ ∏ m µ δ(rm=t) t · ∏ t µ αµ/T −1 t = µ ∑ m δ(rm=t)+αµ/T −1 t (31) これは、ディリクレ分布。 ωtl の事後分布を求める。 p(ωtl| · · · ) ∝ ω δ(rm=t)Nmyml |ym| rml · ω αω/L−1 tl = ω ∑ m δ(rm=t)Nmyml |ym| + αω L −1 tl (32) これは、ディリクレ分布。 残りは、正規分布の precision パラメータ。まず γϵ については、 p(γϵ| · · · ) ∝ M∏ m=1 Nm∏ i=1 P∏ p=1 √ γϵ 2π exp { − γϵ(xmip − ∑ k dkpzmiksmik)2 2 } · baϵ ϵ Γ(aϵ) γaϵ−1 ϵ e−bϵγϵ ∝ γ 2aϵ+MNmP 2 −1 ϵ exp { − 2bϵ + ∑M m=1 ∑Nm i=1 ∑P p=1(xmip − ∑ k dkpzmiksmik)2 2 γϵ } (33) と、ガンマ分布を事後分布として得る。次に γs だが、各 smik は非負となるようにサンプリングされている から、 p(γs| · · · ) ∝ M∏ m=1 Nm∏ i=1 K∏ k=1 2δ(smik ≥ 0) √ γs 2π exp ( − γss2 mik 2 ) · bas s Γ(as) γas−1 s e−bsγs ∝ γ 2as+MNmK 2 −1 s exp ( − 2bs + ∑M m=1 ∑Nm i=1 ∑K k=1 s2 mik 2 γs ) (34) と、やはりガンマ分布を事後分布として得る。 4