SlideShare uma empresa Scribd logo
1 de 26
Baixar para ler offline
⽇日付:2015/06/04
発表者:@_kobacky
場所:株式会社 ALBERT セミナールーム
トピックモデルによる統計的潜在意味解析
読書会 2章「Latent Dirichlet Allocation」
(前半)
【注意】
この資料料は  @_kobacky が本を読んで理理解した内容を記載したものであり、
本には存在しない記述や本とは異異なる表現をしている部分があります。
【Amazon】
http://www.amazon.co.jp/dp/4339027588/
2章「Latent Dirichlet Allocation」
2.1:概要
2.2:多項分布と  Dirichlet 分布
2.3:LDA の⽣生成過程
2.1 概要
•  LDA : ⽂文書の確率率率的⽣生成モデル
•  Bag of Words (BoW)
•  ⽂文書を単語と出現頻度度のペアの集合として表現
•  単語の順序は無視
•  各⽂文書には潜在トピックがあると仮定
•  統計的に共起しやすい単語集合が⽣生成される要因を潜在トピック
という観測できない確率率率変数を⽤用いて定式化
•  LDA では⼀一つの⽂文書には複数の潜在トピックが存在すると仮定
•  潜在トピックモデル
•  LDAの改良良モデルの総称
•  共起情報が⼤大量量にあるようなデータ全般に適⽤用可能
•  Bag of Items (ユーザーの購買履履歴)や、その他 Bag of XXX
2.2 多項分布とDirichlet分布
•  LDA の説明の準備として、サイコロのイメージを⽤用いて
多項分布と  Dirichlet 分布について説明
•  多項分布
•  各⽬目が出る確率率率が  π で表されるサイコロを  n  回振った時に各⽬目が
出る回数の分布
•  Dirichlet 分布
•  サイコロの形状(出る⽬目の種類 K と出やすさ  π )  の分布
π = π1,π2,⋅⋅⋅⋅,πK( )
「1」が出る確率率率 出る⽬目の種類数
サイコロの形状
(Dirichlet 分布により⽣生成)
πk
k=1
K
∑ =1
"
#
$
%
&
'
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
a = α1,α2,α3( )
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ①
a = α1,α2,α3( )
(4,3,3)
(1,1,10)
(K=3)
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ②
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
(4,3,3)
(1,1,10)
単体(simplex):
座標の総和が1で定義される空間図
形。3次元の場合は三⾓角形。
※αの値と  Dirichlet 分布
の図の対応はイメージです。
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ③
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
濃い部分の点が選択されやすい
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ④
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
1 or 2 or 3
xi
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
1回振って
出る⽬目
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ⑤
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
a = α1,α2,α3( )
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
1回振って
出る⽬目
4回振って
出る⽬目の回数
(n=4)
2.2 多項分布とDirichlet分布
サイコロの⽬目が⽣生成されるイメージ⑥
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
•  π (ベクトル):サイコロの⽬目の出やすさ
•  αで特徴付けられる  Dirichlet 分布に従う
•  xi :1回の試⾏行行で出る⽬目
•  π の分布に従う (n=1 の多項分布に従う)
•  {nk} (集合):各⽬目が出る回数
•  π と n で特徴付けられる多項分布に従う
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
1回振って
出る⽬目
4回振って
出る⽬目の回数
(n=4)
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
2.2 多項分布とDirichlet分布
式(2.1):x  の⽣生起確率率率
p x π( )= p xi π( )
i=1
n
∏ = πk
nk
k=1
K
∏
p 1,2,1,3( ) π( )= 0.7×0.1×0.7×0.2 = 0.72
×0.11
×0.21
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
【例例】x=(1,2,1,3)の場合
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
x = x1, x2, x3,⋅⋅⋅, xn( ) の⽣生起確率率率
式(2.1)
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
2.2 多項分布とDirichlet分布
式(2.2):多項分布による出⽬目回数の⽣生成
p nk{ }k=1
K
π,n( )= Multi nk{ }k=1
K
π,n( )≡
n!
nk !
k=1
K
∏
πk
nk
k=1
K
∏
p 2,1,1{ } π,4( )=4 C2 ×2 C1 ×1 C1 × 0.72
×0.11
×0.21
( )=
4!
2!×1!×1!
0.72
×0.11
×0.21
( )
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10) Multi nk{ }k=1
K
π,n( )
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
式(2.2)
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
【例例】π=(0.7,0.1,0.2)のサイコロで「1が2回、2が1回、3が1回」の場合
2.2 多項分布とDirichlet分布
式(2.3):xi  の⽣生成
xi Multi xi π( )
p xi = k π( )= Multi nk =1 π,1( )=
1
nk !
k=1
K
∏
πk
nk
k=1
K
∏ = πk
p xi π( )= Multi xi π( )
〜~
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
Multi xi π( )
kの⽬目が出た回数は1
k以外の⽬目が出た回数は0
であるため
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
式(2.3)
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
2.2 多項分布とDirichlet分布
式(2.4)〜~式(2.6):Dirichlet  分布
Dirichlet 分布
(1,0,0)
(0,1,0) (0,0,1)
a = α1,α2,α3( )
π = π1,π2,π3( )
(0.7,0.1,0.2)
(0.1,0.1,0.8)
(4,3,3)
(1,1,10)
p π a( )= Dir π a( )≡
Γ αkk=1
K
∑( )
Γ αk( )k=1
K
∏
πk
αk −1
k=1
K
∏
Γ 1( )=1
Γ n( )= n −1( )Γ n −1( )
Γ α + n( )= α + n −1( )Γ α + n −1( )
E πk[ ]=
αk
α0
V πk[ ]=
αk α0 −αk( )
α0
2
1+α0( )
α0 = αk
k=1
K
∑
式(2.5):ガンマ関数
式(2.6):期待値・分散
式(2.4):Dirichlet 分布
正規化項
(α が定まった元では定数)
1 or 2 or 3
xi
nk{ }k=1
K
= n1,n2,n3{ }
{2,1,1}or{4,0,0}or
{3,1,0}or{2,2,0}・・・
2.2 多項分布とDirichlet分布
共役事前分布
p(x)をp(y|x)の事前分布とする。
事後分布p(x|y)∝p(y|x)p(x)の分布がp(x)と同じ分布にな
るとき、p(x)はp(y|x)の共役事前分布であるという。
xi Multi xi π( )〜~
p π a( )= Dir π a( )≡
Γ αkk=1
K
∑( )
Γ αk( )k=1
K
∏
πk
αk −1
k=1
K
∏
p π x,a( )=
Γ nk +αkk=1
K
∑( )
Γ nk +αk( )k=1
K
∏
πk
nk +αk −1
k=1
K
∏
x の⽣生成過程
π の事前分布
π の事後分布
を考える。
x が観測された後の π の分布
x が観測される前の π の分布
式(2.9)
式(2.4)
事前分布・
事後分布が共に
Dirichlet 分布
αk は k の仮想的
頻度度の意⾒見見を持
つと⾒見見れる。
※導出は後ほど・・
2.2 多項分布とDirichlet分布
式(2.7):事後分布の導出(前半)
p π x,a( )=
p x,π a( )
p x a( )
∝ p x,π a( )= p x π( )p π a( )
= p xi π( )p π a( )
i=1
n
∏ = πk
δ xi=k( )
k=1
K
∏ p π a( )
i=1
n
∏
= πk
δ xi=k( )i=1
n
∑
p π a( )
i=1
n
∏ = πk
nk
p π a( )
i=1
n
∏
∝ πk
nk
i=1
n
∏ πk
αk −1
i=1
n
∏ = πk
nk +αk −1
i=1
n
∏
P(π|a) の正則化項が定数である事に注⽬目
P(x|a) が定数である事に注⽬目
2.2 多項分布とDirichlet分布
式(2.8)〜~(2.9):事後分布の導出(後半)
p π x,a( )∝ πk
nk +αk −1
i=1
n
∏
p π x,a( )=
πk
nk +αk −1
k=1
K
∏
πk
nk +αk −1
dπ
k=1
K
∏∫
p π x,a( )∫ dπ =1
式の形からp(π|x,a)がDirichlet 分布に
従うことがわかる
p π x,a( )=
Γ nk +αkk=1
K
∑( )
Γ nk +αk( )k=1
K
∏
πk
nk +αk −1
k=1
K
∏
p(π|x,a)がDirichlet 分布に従うから
式(2.8)
式(2.9)
2.2 多項分布とDirichlet分布
式(2.10)
Ep π x,a( )
πk[ ]= πk p π x,a( )dπ∫ =
nk +αk
n "k +α "k"k =1
K
∑
事後分布の期待値
式(2.6) より
学習アルゴリズムの導出時に必要な計算
(おそらく後で使われる)
•  詳細は教科書 p.30 参照
•  要素の値が⼩小さいと単体の縁周辺の密度度が⾼高くなる。
•  要素の値が⼤大きいと単体の中央周辺の密度度が⾼高くなる。
•  要素間の値に差がある場合、値の⼤大きい要素と k が対応する  π の
要素値が⾼高い領領域の密度度が⾼高くなる。
•  Dirichlet 分布によって単語の分布の偏りを表現できる。
2.2 多項分布とDirichlet分布
α の値による  Dirichlet 分布の変化
•  ⽂文書集合の解析では単語の出現分布を分析
•  ⽂文書集合の背景に存在するトピックを仮定
•  トピック毎に単語の出現頻度度が異異なると仮定
•  ⽂文書集合にはトピックの情報は明⽰示的に与えられていない
•  観測できない潜在トピック(潜在変数)として抽出できるようモデル化
2.3 LDAの⽣生成過程
φk,v
φk = φk,1,⋅⋅⋅,φk,V( )
v = 1,2,3,⋅⋅⋅,V{ }
:トピックk における単語 v の出現確率率率
:単語のインデックス集合
:トピック k における単語の出現分布
zd,i ∈ 1,2,3,⋅⋅⋅,K{ }
wd,i :⽂文書 d の  i 番⽬目の単語
:    に対応する潜在変数wd,i
2.3 LDAの⽣生成過程
TASA  ⽂文書コーパスの LDA 分析例例(前半)
単語 潜在変数
slope 071
music 077
concert 077
play 077
jazz 077
・・・ ・・・
単語 潜在変数
periods 078
audiences 082
play 082
play 082
read 254
・・・ ・・・
単語 潜在変数
game 166
comes 040
Don 180
play 166
boys 020
・・・ ・・・
⽂文書1 ⽂文書2 ⽂文書3
•  「play」は⽂文脈によって意味が異異なる多義語
•  各⽂文書の「paly」に対して異異なる潜在変数が付与されていて、
「play」の多義性が捉えられていることがわかる。
2.3 LDAの⽣生成過程
TASA  ⽂文書コーパスの LDA 分析例例(後半)
単語 確率率率
MUSIC .090
DANCE .034
SONG .033
PLAY .030
SING .026
・・・ ・・・
単語 確率率率
LITERATURE .031
POEM .028
・・・ ・・・
PLAY .015
LITERARY .013
・・・ ・・・
単語 確率率率
PLAY .136
BALL .129
GAME .065
PLAYING .042
HIT .032
・・・ ・・・
•  各トピックの意味は、そのトピックにおける単語の出現
分布によって特徴付けられる。
トピック77 φ77,v トピック82 φ82,v トピック166 φ166,v
2.3 LDAの⽣生成過程
定式化
⽂文書d
nd総単語数:
θd
トピック分布:
⽂文書数:M
Φk,1 Φk,2 ・・・ Φk,V
トピックk
Φk,1 Φk,2 ・・・ Φk,V
トピックk
Φk,1 Φk,2 ・・・ Φk,V
トピックk
Φk,1 Φk,2 ・・・ Φk,V
トピックk
トピック数:K
(総単語数:V)
θd = θd,1,⋅⋅⋅,θd,K( ) (d=1,2,・・, M )
(k=1,2,・・, K )
〜~ Dir a( )
φk = φk,1,⋅⋅⋅,φk,V( ) 〜~ Dir b( )
φk単語分布:
Multi θd( )
Multi φzd,i( )wd,i
〜~
〜~
zd,i
単語群
(i=1,2,・・, )
単語:
zd,i潜在トピック:
wd,i
nd
2.3 LDAの⽣生成過程
グラフィカルモデル
M
Knd
a bθd φkwd,i
zd,i
ありがとうございました!

Mais conteúdo relacionado

Mais procurados

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割Ichigaku Takigawa
 
Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Masanori Yamada
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
距離と分類の話
距離と分類の話距離と分類の話
距離と分類の話考司 小杉
 
潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法y-uti
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族hiroki yamaoka
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38horihorio
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりcvpaper. challenge
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろHiroshi Yamashita
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks
[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks
[DL Hacks]Semi-Supervised Classification with Graph Convolutional NetworksDeep Learning JP
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考Ichigaku Takigawa
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 Ken'ichi Matsui
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short IntroIchigaku Takigawa
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章Kota Matsui
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 

Mais procurados (20)

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
決定森回帰の信頼区間推定, Benign Overfitting, 多変量木とReLUネットの入力空間分割
 
Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)Reinforcement Learning(方策改善定理)
Reinforcement Learning(方策改善定理)
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
距離と分類の話
距離と分類の話距離と分類の話
距離と分類の話
 
潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のり
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろ
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks
[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks
[DL Hacks]Semi-Supervised Classification with Graph Convolutional Networks
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
 
HiPPO/S4解説
HiPPO/S4解説HiPPO/S4解説
HiPPO/S4解説
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 

Semelhante a 「トピックモデルによる統計的潜在意味解析」読書会 2章前半

topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Koji Sekiguchi
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節Koji Matsuda
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜Takeshi Arabiki
 
代数的実数とCADの実装紹介
代数的実数とCADの実装紹介代数的実数とCADの実装紹介
代数的実数とCADの実装紹介Masahiro Sakai
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5KazuhiroSato8
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2hirokazutanaka
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)Akito Nakano
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半Prunus 1350
 
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」Nagi Teramo
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
R による文書分類入門
R による文書分類入門R による文書分類入門
R による文書分類入門Takeshi Arabiki
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析Shu Tanaka
 
Rでシステムバイオロジー
RでシステムバイオロジーRでシステムバイオロジー
Rでシステムバイオロジー弘毅 露崎
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
情報検索の基礎(11章)
情報検索の基礎(11章)情報検索の基礎(11章)
情報検索の基礎(11章)Katsuki Tanaka
 

Semelhante a 「トピックモデルによる統計的潜在意味解析」読書会 2章前半 (20)

topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
 
代数的実数とCADの実装紹介
代数的実数とCADの実装紹介代数的実数とCADの実装紹介
代数的実数とCADの実装紹介
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
R seminar on igraph
R seminar on igraphR seminar on igraph
R seminar on igraph
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
 
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
R による文書分類入門
R による文書分類入門R による文書分類入門
R による文書分類入門
 
C07
C07C07
C07
 
量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析量子アニーリングを用いたクラスタ分析
量子アニーリングを用いたクラスタ分析
 
Rでシステムバイオロジー
RでシステムバイオロジーRでシステムバイオロジー
Rでシステムバイオロジー
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
情報検索の基礎(11章)
情報検索の基礎(11章)情報検索の基礎(11章)
情報検索の基礎(11章)
 

「トピックモデルによる統計的潜在意味解析」読書会 2章前半