SlideShare a Scribd company logo
1 of 69
【論論⽂文紹介】  
トピックモデルの評価指標
Coherence  研究まとめ
2016/01/28
牧⼭山幸史
1
発表の流流れ
1.  研究背景、基礎知識識
2.  既存研究の紹介(5つ)
3.  まとめ
2
1.  研究背景、基礎知識識
•  トピックモデルの評価指標として
Perplexity  と  Coherence  の 2 つが広く
使われている。
•  Perplexity:予測性能
•  Coherence:トピックの品質
•  確率率率モデルにおける Perplexity の定義は
明確だが  Coherence はどう定義するか?
3
Coherence とは
•  和英辞典によると:
⾸首尾⼀一貫性
•  対義語:incoherence
⽀支離離滅裂裂
http://ejje.weblio.jp/content/coherence
http://ejje.weblio.jp/content/incoherence4
⾼高 Coherence
低 Coherence
Coherence とは
•  抽出されたトピックが⼈人間にとって解釈
しやすいかどうかを表す指標
•  トピックを表す単語集合を考える
{ farmers, farm, food, rice, agriculture }
{ stories, undated, receive, scheduled }
•  前者は  Coherence が⾼高い。後者は低い。
5
Coherence  研究
•  Coherence  の定義は明確ではない
•  Coherence が⾼高いかどうかは⼈人間により
判断可能
•  Chang(2009)  ⼈人間による評価法を提案
•  Newman(2010) ⾃自動評価法を提案
•  その後、様々な⾃自動評価法が提案される
6
発表の流流れ
1.  研究背景、基礎知識識
2.  既存研究の紹介(5つ)
3.  まとめ
7
2.  既存研究の紹介
① Chang (2009)
② Newman (2010)
③ Mimno (2011)
④ Aletras (2013)
⑤ Lau (2014)
8
① Chang (2009)
•  “Reading Tea Leaves: How Humans
Interpret Topic Models”
紅茶茶占い:⼈人間はどうやってトピックモデルを解釈
するか
•  トピックモデルの評価指標として  
Coherence を提案した最初の論論⽂文
•  Word Intrusion(単語の押しつけ)という⽅方法
でトピックの  Coherence を⼈人間に評価させ
る
9
① Chang (2009)
<研究背景>
•  トピックモデルの評価指標として、
Perplexity  が広く使われている
•  抽出されたトピックが解釈できないのは困る
•  トピックの品質に関する指標が必要
•  ⼈人間の解釈可能性(Human-Interpretability)
として  Coherence  を提案
10
Word Intrusion(単語の押しつけ)
•  トピックの単語群の中に、⼀一つだけ別の
単語を混ぜて、⼈人間に⾒見見つけさせる
•  仲間はずれはどれか?:
{  dog, cat, horse, apple, pig, cow }
{  car, teacher, platypus, agile, blue, Zaire }
•  前者は Coherence が⾼高い。後者は低い。
•  複数⼈人に作業させ、発⾒見見成功率率率を算出
11
① Chan (2009)
•  CTM, LDA, pLSI  の  3つのトピックモデル
に対して、発⾒見見成功率率率(Coherence)を測定
•  結果は次ページ
•  CTM は Perplexity は良良いが(上表太字)、
Coherence が低い(下図⾚赤)という結果に
CTM: Correlated Topic Model
LDA: Latent Dirichlet Allocation
pLSI: Probabilistic Latent Semantic Indexing
12
13
① Chang (2009)  まとめ
•  Coherence  を定義した最初の論論⽂文
•  Word Intrusion  によって⼈人間に評価させ
る
•  Perplexity が良良いモデルでも  Coherence  
が良良いとは限らない
14
2.  既存研究の紹介
① Chang (2009)
② Newman (2010)
③ Mimno (2011)
④ Aletras (2013)
⑤ Lau (2014)
15
② Newman (2010)
•  “Automatic Evaluation of Topic
Coherence”
トピックコヒーレンスの⾃自動評価
•  ①Chang(2009) では、⼈人間による
Coherence の評価を⾏行行った
•  この論論⽂文では、⼈人間を介さない
Coherence の算出⽅方法を提案する
http://www.aclweb.org/anthology/N10-101216
② Newman (2010)
<基本アイデア>
•  Coherence  は単語間の類似度度に依存する
{ farmers, farm, food, rice, agriculture }
{ stories, undated, receive, scheduled }
•  単語間類似度度をうまく定義できれば、  
⼈人⼿手を使わずに  Coherence  を算出できる
17
② Newman (2010)
•  トピックを代表する単語集合 w に対して、
単語間類似度度  D(wi, wj) の平均値もしくは
中央値を  Coherence とする
•  ⼈人間による  Coherence  評価と同じような
結果になる単語間類似度度  D(wi, wj) を探す
18
② Newman (2010)
•  ⼈人間による Coherence の評価⽅方法は、
①Chang(2009) と異異なり、直接的な⽅方法
•  トピックの単語集合を⾒見見せ、それらの単
語間の関連性を  3 段階評価させる
「良良い」「中間」「悪い」
•  ⼈人間による評価と単語類似度度による評価
のスピアマン相関を⾒見見る
Gold-standard:  アノテータ間の相関
19
Downloaded BOOKS(12,000) from the Internet Archive
20
NEWS articles(55,000) from English Gigaword
21
② Newman (2010)
•  参照コーパスとして  Wikipedia、単語間
類似度度として PMI (⾃自⼰己相互情報量量)  を  
使った場合が、⼈人間による評価と相関が
最も⾼高い
※ 10 words sliding window
22
(余談)Google-based similarity
•  Google  検索索に基づく単語集合類似度度
•  単語集合 w の全ての単語を繋げたクエリ
を作る
+space +earth +moon +science +scientist
•  このクエリを投げたとき、検索索結果の上
位 100 件のタイトル部分に w 内の単語が
出現する数をカウントする
•  これを単語集合の類似度度とする
23
② Newman (2010)  まとめ
•  Coherence  を⼈人⼿手を使わずに算出する⽅方
法を提⽰示した
•  この⼿手法は、UCI Coherence  と呼ばれ、
広く使われている
24
2.  既存研究の紹介
① Chang (2009)
② Newman (2010)
③ Mimno (2011)
④ Aletras (2013)
⑤ Lau (2014)
25
③ Mimno (2011)
•  “Optimizing Semantic Coherence in
Topic Models”
トピックモデルの意味的コヒーレンスの最適化
•  ②Newman(2010)では、参照コーパス
(Wikipedia)を⽤用意する必要があった
•  本論論⽂文では、学習コーパスのみを⽤用いた
Coherence の算出⽅方法を提案する
26
③ Mimno (2011)
•  Framework  は②Newman(2010)と同じ
•  単語間類似度度として、対数条件付き確率率率
•  学習コーパスを⽤用いる
D(v):  単語出現⽂文書数  D(v1,v2): 単語共起⽂文書数
27
③ Mimno (2011)
•  ⼈人間による3段階評価との関係を⾒見見る
•  ベースラインとして、そのトピックに割
り当てられたトークン数(ギブスサンプリ
ングにより推定)と⽐比較
•  ⼈人間による評価に近い結果が得られた
(※②Newmanとの⽐比較は⾏行行われていない)
28
29
③ Mimno (2011)
•  (good) v.s. (bad + intermediate)
•  ROC 曲線の AUC
– トークン数: 0.79
– Coherence:0.87
•  ロジスティック回帰の AIC
– トークン数: 152.5
– Coherence:113.8
– 両⽅方: 115.8
30
(余談) Word Intrusion の問題点
•  この論論⽂文では ①Chang が提案した Word
Intrusion  の問題点が指摘されている
•  トピックの単語が Chain している場合、
仲間はずれを⾒見見つけやすい
{ apple, apple-pie, meat-pie,
meat, crab-meat, crab }
•  しかしこのトピックの  Coherence は低い
31
③ Mimno (2011)  まとめ
•  参照コーパスを使わず、学習コーパスの
みで  Coherence  を算出する⽅方法を⽰示した
•  UMass Coherence  と呼ばれる
•  genism に実装されている
•  新語、専⾨門⽤用語に強いと思われる(予想)
•  (本論論⽂文では、この評価指標を最適にする新しい
トピックモデルも提案。関係ないので割愛)
32
2.  既存研究の紹介
① Chang (2009)
② Newman (2010)
③ Mimno (2011)
④ Aletras (2013)
⑤ Lau (2014)
33
④ Aletras (2013)
•  “Evaluating Topic Coherence Using
Distributional Semantics”
統計的意味論論を使ったトピックコヒーレンスの
評価
•  統計的意味論論における単語間類似度度を  
Coherence  の⾃自動算出に使ってみた
34
④ Aletras (2013)
•  Framework  は②Newman(2010)と同じ
•  単語間類似度度の算出に  PMI  でなく、意味
空間(Semantic Space)上の類似度度を使う
– コサイン類似度度、Dice係数、Jaccard係数
•  意味空間の作成に  Wikipedia を使う
35
意味空間(Semantic Space)
•  単語を共起情報を⽤用いてベクトル化
– ⽂文脈ベクトルと呼ぶ
•  よく似た共起分布を持つ単語はよく似た
意味を持つ単語である
36
意味空間(Semantic Space)
http://www.slideshare.net/unnonouno/20140206-statistical-semantics
37
④ Aletras (2013)
•  意味空間を作るための単語の共起情報
•  PMI (⾃自⼰己相互情報量量)
•  NMPI (Normalized PMI) (Bouma2009)
※それぞれ⼆二乗値を⽤用いる
38
④ Aletras (2013)
•  全ての単語では意味空間の次元が⼤大きい
•  Reduced Semantic Space (Islam2006)
– 各単語 wi に対して、トップ βwi 個だけ使⽤用
•  Topic Word Space
– トピックに現れる単語のみを使⽤用
m: コーパスサイズ、σ: 補正変数(今回は3に固定)
39
④ Aletras (2013)
•  ⽂文脈ベクトル間の類似度度  3 つ
•  コサイン類似度度
•  Dice  係数
•  Jaccard 係数
http://sucrose.hatenablog.com/entry/2012/11/30/132803
40
④ Aletras (2013)
•  ⽂文脈ベクトル集合の類似度度  1  つ
•  トピックの全単語の⽂文脈ベクトルの重⼼心
(Centroid)を  Tc とするとき、重⼼心からの
コサイン類似度度の平均値
41
④ Aletras (2013)
•  2 × 2 × (3+1) = 16 パターンについて、⼈人
間による評価とのスピアマン相関を⾒見見る
•  ⼈人間による評価は  3 段階評価
•  学習コーパス 3 つを  LDA で学習
– NYT: New York Times articles(47,229)
– 20NG: News Group emails(20,000)
– Genomics: MEDLINE articles(30,000)
MEDLINE:  医学論論⽂文データベース
42
④ Aletras (2013)
•  既存研究で良良いものをベースラインとする
Average NPMI  が最も良良い
Newman の PMI を NPMI
に変えたもの
43
Reduced Semantic Space
は既存研究より悪い
44
Topic Word Space は
既存研究より良良い
類似度度はコサイン類似度度が
総合的に良良い
45
④ Aletras (2013)  まとめ
•  意味的な類似度度を⽤用いた  Coherence  評価
•  Topic Word Space でコサイン類似度度を使
うと既存研究より良良くなった
•  統計的意味論論によるアプローチの有効性
を⽰示した
•  NPMI はコサイン類似度度以外でもいい値を
出しているので意味論論的アプローチに向
いている
46
2.  既存研究の紹介
① Chang (2009)
② Newman (2010)
③ Mimno (2011)
④ Aletras (2013)
⑤ Lau (2014)
47
⑤ Lau(2014)
•  “Machine Reading Tea Leaves:
Automatically Evaluation Topic Coherence
and Topic Model Quality”
機械で紅茶茶占い:トピックコヒーレンスと    ト
ピックモデル品質の⾃自動評価
•  Coherence を算出する様々な⼿手法が提案さ
れているが、どれが良良いか分からない
•  これらの⼿手法を俯瞰的に⽐比較し、どれが良良い
かを評価する
http://www.aclweb.org/anthology/E14-1056
48
既存研究まとめ
モデル ⼈人間評価 類似度度 ⽐比較
①Chang pLSI
LDA
CTM
Word
Intrusion
②Newman LDA 3段階 PMI なし
③Mimno LDA 3段階 LCP なし
④Aletras LDA 3段階 DS ②③
49
LCP: Log Conditional Probability
DS: Distributed Semantics
既存研究の問題点
•  ①Chang(2009)  と誰も⽐比較していない
⇨ Word Intrusion  の⾃自動化
•  トピックモデルの評価指標のはずが LDA
だけで評価
⇨ pLSI, LDA, CTM の  3つ
•  参照コーパスとして  Wikipedia  のみ
⇨ Wikipedia, New York Times の  2つ
50
既存研究の問題点
•  モデルレベルで⾒見見た場合の  Coherence  と
トピックレベルで⾒見見た場合の Coherence
を分けて考えてない
⇨  分けて調査
51
モデルレベル Coherence
•  モデルに対する Coherence はトピックに
対する Coherence の平均値とする
•  pLSI, LDA, CTM のそれぞれをトピック数  
50, 100, 150 で作成(合計  9 つ)
•  9 つのモデルを⼈人間による評価と⽐比較
•  ピアソン相関 (relative difference)
52
モデルレベル Coherence
•  ⼈人間による評価:
– Word Intrusion(WI)
– Observed Coherence(OC) : 3段階評価
•  この論論⽂文では、WI の⾃自動評価法を提案
•  OC については既存⼿手法を⽐比較
•  WI v.s. OC の⽐比較も⾏行行う
53
学習データと参照コーパス
•  学習データ:
– WIKI: Wikipedia(10,000)
– NEWS: New York Times(8,447)
•  参照コーパス:
– WIKI-FULL: Wikipedia(3,300,000)
– NEWS-FULL: New York Times(1,200,000)
54
Word Intrusion の⾃自動化
<基本アイデア>
•  Lau(2010) では、トピックの単語集合から
「最も良良くトピックを表す単語」を⾒見見つ
ける⽅方法を⽰示した
•  Word Intrusion は「トピックを表す単語
として最も悪いもの」を⾒見見つける作業で
ある
Lau(2010) Best Topic Word Selection for Topic Labelling
55
Word Intrusion の⾃自動化
•  Intruder word を含む単語の集合について
SVM-rank で順位を学習
•  特徴量量 3 つ
56
モデルレベル(WI)
•  PMI が良良い
(※NPMI  は  特徴量量の PMI を NPMI に変たもの)
•  参照コーパスは同じドメインが良良い
57
モデルレベル(OC)
•  単語間類似度度として 4 つ
•  PMI (②Newman)
•  NPMI (Newman改)
•  LCP (③Mimno)
– ただし、参照コーパスを使⽤用
•  DS (④Aletras)
– 意味空間上のコサイン類似度度
– Topic Word Space, PMI, Wikipedia
58
モデルレベル(OC)
•  総合的には  NPMI  が良良い
•  WIKI  に対しては LCP がベスト
59
モデルレベル(WI v.s. OC)
•  WI-Human  と  OC-Human  は強い相関
⇨ 2つのアプローチはほぼ同じとみなして良良い
•  PMI 以外は WI とも相関が⾼高い
•  参照コーパスは同じドメインが良良い
60
モデルレベル  まとめ
•  WI と OC はほぼ同じとみなしてよい
•  以下の⼿手法のどれも良良い
– WI-Auto-PMI (WI でトップ)
– OC-Auto-NPMI (OC でトップ)
– OC-Auto-LCP (WIKI  でトップ)
•  参照コーパスはドメインを同じにした⽅方
が良良い
61
トピックレベル Coherence
•  9 つのモデルの 900 トピックに対して  
モデルレベルと同様に⽐比較
•  モデルレベルに⽐比べて⾮非常に低い相関
•  本質的な難しさがある
•  Human Agreement: 評価者を2グループ
に分けて、その相関を算出
62
トピックレベル(WI)
•  ⾮非常に低い
63
トピックレベル(OC)
•  Human Agreement に勝利利
⇨  ⼈人間と同レベルの評価が可能
•  OC-NPMI と  OC-DS が良良い
64
トピックレベル(WI v.s. OC)
•  WI-Human と OC-Human の相関は低い
•  WI-Human  に対して最も良良いのは OC-DS
だが、Human Agreement より低い
65
(余談) WI の問題点
(太字:Intruder Word  四⾓角:⼈人間が選んだ単語)
1 & 2 ← 最初から仲間はずれが⼀一つある
3 & 4 ← 偶然関係のある単語が Intrude された
5 & 6 ← Intruder Word が浮いている
66
OC-Human*  および  WI-Human*  は  [0,1]  に正規化されている
⑤ Lau(2014)  まとめ
•  Coherence の⾃自動評価について、これま
でに提案された様々な⼿手法を⽐比較した。
•  モデルレベルでは、WI  と OC に違いはな
く、既存の OC-NPMI, OC-LCP および
我々の提案する  WI-PMI が良良い。
•  トピックレベルでは、WI  と OC には差が
あり、OC に対しては OC-NPMI と OC-
DS が⼈人間と同じレベルで評価可能。
67
発表の流流れ
1.  研究背景、基礎知識識
2.  既存研究の紹介(5つ)
3.  まとめ
68
まとめ
69

More Related Content

What's hot

『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫るKen'ichi Matsui
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
強化学習その4
強化学習その4強化学習その4
強化学習その4nishio
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)Toru Imai
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめsleepy_yoshi
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces UnderfittingDeep Learning JP
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022Teruyuki Sakaue
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性Ichigaku Takigawa
 
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)STAIR Lab, Chiba Institute of Technology
 
自然言語処理による議論マイニング
自然言語処理による議論マイニング自然言語処理による議論マイニング
自然言語処理による議論マイニングNaoaki Okazaki
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 

What's hot (20)

『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫る
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
強化学習その4
強化学習その4強化学習その4
強化学習その4
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022実務と論文で学ぶジョブレコメンデーション最前線2022
実務と論文で学ぶジョブレコメンデーション最前線2022
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
 
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)
多腕バンディット問題: 定式化と応用 (第13回ステアラボ人工知能セミナー)
 
自然言語処理による議論マイニング
自然言語処理による議論マイニング自然言語処理による議論マイニング
自然言語処理による議論マイニング
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 

Viewers also liked

トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本hoxo_m
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半koba cky
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布についてhoxo_m
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)tn1031
 
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」ksmzn
 
トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半Shinya Akiba
 
LDA等のトピックモデル
LDA等のトピックモデルLDA等のトピックモデル
LDA等のトピックモデルMathieu Bertin
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)hoxo_m
 
20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節MOTOGRILL
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなhoxo_m
 
確率論基礎
確率論基礎確率論基礎
確率論基礎hoxo_m
 
日英機械翻訳のための構文辞書
日英機械翻訳のための構文辞書日英機械翻訳のための構文辞書
日英機械翻訳のための構文辞書Kanji Takahashi
 
自動翻訳ツールの概要と応用(ネットショップ向け)
自動翻訳ツールの概要と応用(ネットショップ向け)自動翻訳ツールの概要と応用(ネットショップ向け)
自動翻訳ツールの概要と応用(ネットショップ向け)fengruoyouqing
 
A survery of topic model in bioinformatics
A survery of topic model in bioinformaticsA survery of topic model in bioinformatics
A survery of topic model in bioinformaticsTsukasa Fukunaga
 
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic Model
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic ModelWsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic Model
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic ModelMitsuhisa Ohta
 
PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳Preferred Networks
 
Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析Nobuyuki Kawagashira
 
トピックモデル(LDA)によるセグメンテーション
トピックモデル(LDA)によるセグメンテーショントピックモデル(LDA)によるセグメンテーション
トピックモデル(LDA)によるセグメンテーションbusinessanalytics
 

Viewers also liked (20)

トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
 
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
 
トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半
 
LDA等のトピックモデル
LDA等のトピックモデルLDA等のトピックモデル
LDA等のトピックモデル
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
 
20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
 
確率論基礎
確率論基礎確率論基礎
確率論基礎
 
日英機械翻訳のための構文辞書
日英機械翻訳のための構文辞書日英機械翻訳のための構文辞書
日英機械翻訳のための構文辞書
 
自動翻訳ツールの概要と応用(ネットショップ向け)
自動翻訳ツールの概要と応用(ネットショップ向け)自動翻訳ツールの概要と応用(ネットショップ向け)
自動翻訳ツールの概要と応用(ネットショップ向け)
 
A survery of topic model in bioinformatics
A survery of topic model in bioinformaticsA survery of topic model in bioinformatics
A survery of topic model in bioinformatics
 
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic Model
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic ModelWsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic Model
Wsdm2016: Extracting Search Query Patterns via the Pairwise Coupled Topic Model
 
変分法
変分法変分法
変分法
 
PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳
 
Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析
 
トピックモデル(LDA)によるセグメンテーション
トピックモデル(LDA)によるセグメンテーショントピックモデル(LDA)によるセグメンテーション
トピックモデル(LDA)によるセグメンテーション
 

Similar to トピックモデルの評価指標 Coherence 研究まとめ #トピ本

一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門Yu Tamura
 
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...Deep Learning JP
 
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)STAIR Lab, Chiba Institute of Technology
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...Kenta Oono
 
Deep neural models of semantic shift
Deep neural models of semantic shiftDeep neural models of semantic shift
Deep neural models of semantic shiftMakoto Takenaka
 
Kuroda & Hasebe NLP15 slides on Pattern Lattice Model
Kuroda & Hasebe NLP15 slides on Pattern Lattice ModelKuroda & Hasebe NLP15 slides on Pattern Lattice Model
Kuroda & Hasebe NLP15 slides on Pattern Lattice ModelKow Kuroda
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaYuto Yamaguchi
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめDeep Learning JP
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来Preferred Networks
 
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...Shohei Okada
 
Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language ModelsDynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language ModelsShun Kiyono
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
Neural Models for Information Retrieval
Neural Models for Information RetrievalNeural Models for Information Retrieval
Neural Models for Information RetrievalKeisuke Umezawa
 
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...harmonylab
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Yoshitaka Ushiku
 

Similar to トピックモデルの評価指標 Coherence 研究まとめ #トピ本 (20)

EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
 
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
Machine translation
Machine translationMachine translation
Machine translation
 
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Deep neural models of semantic shift
Deep neural models of semantic shiftDeep neural models of semantic shift
Deep neural models of semantic shift
 
Kuroda & Hasebe NLP15 slides on Pattern Lattice Model
Kuroda & Hasebe NLP15 slides on Pattern Lattice ModelKuroda & Hasebe NLP15 slides on Pattern Lattice Model
Kuroda & Hasebe NLP15 slides on Pattern Lattice Model
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social Media
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
 
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
 
Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language ModelsDynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language Models
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
Neural Models for Information Retrieval
Neural Models for Information RetrievalNeural Models for Information Retrieval
Neural Models for Information Retrieval
 
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
Generating Better Search Engine Text Advertisements with Deep Reinforcement L...
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
 

More from hoxo_m

Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門hoxo_m
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールhoxo_m
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールhoxo_m
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
学習係数
学習係数学習係数
学習係数hoxo_m
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールhoxo_m
 
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングAJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングhoxo_m
 
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法についてhoxo_m
 
経験過程
経験過程経験過程
経験過程hoxo_m
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出hoxo_m
 
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたカップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたhoxo_m
 
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたStan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたhoxo_m
 
チェビシェフの不等式
チェビシェフの不等式チェビシェフの不等式
チェビシェフの不等式hoxo_m
 
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習hoxo_m
 
RPubs とその Bot たち
RPubs とその Bot たちRPubs とその Bot たち
RPubs とその Bot たちhoxo_m
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率hoxo_m
 

More from hoxo_m (16)

Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
学習係数
学習係数学習係数
学習係数
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
 
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングAJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
 
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
 
経験過程
経験過程経験過程
経験過程
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
 
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたカップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
 
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたStan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
 
チェビシェフの不等式
チェビシェフの不等式チェビシェフの不等式
チェビシェフの不等式
 
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習
 
RPubs とその Bot たち
RPubs とその Bot たちRPubs とその Bot たち
RPubs とその Bot たち
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
 

トピックモデルの評価指標 Coherence 研究まとめ #トピ本

  • 3. 1.  研究背景、基礎知識識 •  トピックモデルの評価指標として Perplexity  と  Coherence  の 2 つが広く 使われている。 •  Perplexity:予測性能 •  Coherence:トピックの品質 •  確率率率モデルにおける Perplexity の定義は 明確だが  Coherence はどう定義するか? 3
  • 4. Coherence とは •  和英辞典によると: ⾸首尾⼀一貫性 •  対義語:incoherence ⽀支離離滅裂裂 http://ejje.weblio.jp/content/coherence http://ejje.weblio.jp/content/incoherence4 ⾼高 Coherence 低 Coherence
  • 5. Coherence とは •  抽出されたトピックが⼈人間にとって解釈 しやすいかどうかを表す指標 •  トピックを表す単語集合を考える { farmers, farm, food, rice, agriculture } { stories, undated, receive, scheduled } •  前者は  Coherence が⾼高い。後者は低い。 5
  • 6. Coherence  研究 •  Coherence  の定義は明確ではない •  Coherence が⾼高いかどうかは⼈人間により 判断可能 •  Chang(2009)  ⼈人間による評価法を提案 •  Newman(2010) ⾃自動評価法を提案 •  その後、様々な⾃自動評価法が提案される 6
  • 8. 2.  既存研究の紹介 ① Chang (2009) ② Newman (2010) ③ Mimno (2011) ④ Aletras (2013) ⑤ Lau (2014) 8
  • 9. ① Chang (2009) •  “Reading Tea Leaves: How Humans Interpret Topic Models” 紅茶茶占い:⼈人間はどうやってトピックモデルを解釈 するか •  トピックモデルの評価指標として   Coherence を提案した最初の論論⽂文 •  Word Intrusion(単語の押しつけ)という⽅方法 でトピックの  Coherence を⼈人間に評価させ る 9
  • 10. ① Chang (2009) <研究背景> •  トピックモデルの評価指標として、 Perplexity  が広く使われている •  抽出されたトピックが解釈できないのは困る •  トピックの品質に関する指標が必要 •  ⼈人間の解釈可能性(Human-Interpretability) として  Coherence  を提案 10
  • 11. Word Intrusion(単語の押しつけ) •  トピックの単語群の中に、⼀一つだけ別の 単語を混ぜて、⼈人間に⾒見見つけさせる •  仲間はずれはどれか?: {  dog, cat, horse, apple, pig, cow } {  car, teacher, platypus, agile, blue, Zaire } •  前者は Coherence が⾼高い。後者は低い。 •  複数⼈人に作業させ、発⾒見見成功率率率を算出 11
  • 12. ① Chan (2009) •  CTM, LDA, pLSI  の  3つのトピックモデル に対して、発⾒見見成功率率率(Coherence)を測定 •  結果は次ページ •  CTM は Perplexity は良良いが(上表太字)、 Coherence が低い(下図⾚赤)という結果に CTM: Correlated Topic Model LDA: Latent Dirichlet Allocation pLSI: Probabilistic Latent Semantic Indexing 12
  • 13. 13
  • 14. ① Chang (2009)  まとめ •  Coherence  を定義した最初の論論⽂文 •  Word Intrusion  によって⼈人間に評価させ る •  Perplexity が良良いモデルでも  Coherence   が良良いとは限らない 14
  • 15. 2.  既存研究の紹介 ① Chang (2009) ② Newman (2010) ③ Mimno (2011) ④ Aletras (2013) ⑤ Lau (2014) 15
  • 16. ② Newman (2010) •  “Automatic Evaluation of Topic Coherence” トピックコヒーレンスの⾃自動評価 •  ①Chang(2009) では、⼈人間による Coherence の評価を⾏行行った •  この論論⽂文では、⼈人間を介さない Coherence の算出⽅方法を提案する http://www.aclweb.org/anthology/N10-101216
  • 17. ② Newman (2010) <基本アイデア> •  Coherence  は単語間の類似度度に依存する { farmers, farm, food, rice, agriculture } { stories, undated, receive, scheduled } •  単語間類似度度をうまく定義できれば、   ⼈人⼿手を使わずに  Coherence  を算出できる 17
  • 18. ② Newman (2010) •  トピックを代表する単語集合 w に対して、 単語間類似度度  D(wi, wj) の平均値もしくは 中央値を  Coherence とする •  ⼈人間による  Coherence  評価と同じような 結果になる単語間類似度度  D(wi, wj) を探す 18
  • 19. ② Newman (2010) •  ⼈人間による Coherence の評価⽅方法は、 ①Chang(2009) と異異なり、直接的な⽅方法 •  トピックの単語集合を⾒見見せ、それらの単 語間の関連性を  3 段階評価させる 「良良い」「中間」「悪い」 •  ⼈人間による評価と単語類似度度による評価 のスピアマン相関を⾒見見る Gold-standard:  アノテータ間の相関 19
  • 20. Downloaded BOOKS(12,000) from the Internet Archive 20
  • 21. NEWS articles(55,000) from English Gigaword 21
  • 22. ② Newman (2010) •  参照コーパスとして  Wikipedia、単語間 類似度度として PMI (⾃自⼰己相互情報量量)  を   使った場合が、⼈人間による評価と相関が 最も⾼高い ※ 10 words sliding window 22
  • 23. (余談)Google-based similarity •  Google  検索索に基づく単語集合類似度度 •  単語集合 w の全ての単語を繋げたクエリ を作る +space +earth +moon +science +scientist •  このクエリを投げたとき、検索索結果の上 位 100 件のタイトル部分に w 内の単語が 出現する数をカウントする •  これを単語集合の類似度度とする 23
  • 24. ② Newman (2010)  まとめ •  Coherence  を⼈人⼿手を使わずに算出する⽅方 法を提⽰示した •  この⼿手法は、UCI Coherence  と呼ばれ、 広く使われている 24
  • 25. 2.  既存研究の紹介 ① Chang (2009) ② Newman (2010) ③ Mimno (2011) ④ Aletras (2013) ⑤ Lau (2014) 25
  • 26. ③ Mimno (2011) •  “Optimizing Semantic Coherence in Topic Models” トピックモデルの意味的コヒーレンスの最適化 •  ②Newman(2010)では、参照コーパス (Wikipedia)を⽤用意する必要があった •  本論論⽂文では、学習コーパスのみを⽤用いた Coherence の算出⽅方法を提案する 26
  • 27. ③ Mimno (2011) •  Framework  は②Newman(2010)と同じ •  単語間類似度度として、対数条件付き確率率率 •  学習コーパスを⽤用いる D(v):  単語出現⽂文書数  D(v1,v2): 単語共起⽂文書数 27
  • 28. ③ Mimno (2011) •  ⼈人間による3段階評価との関係を⾒見見る •  ベースラインとして、そのトピックに割 り当てられたトークン数(ギブスサンプリ ングにより推定)と⽐比較 •  ⼈人間による評価に近い結果が得られた (※②Newmanとの⽐比較は⾏行行われていない) 28
  • 29. 29
  • 30. ③ Mimno (2011) •  (good) v.s. (bad + intermediate) •  ROC 曲線の AUC – トークン数: 0.79 – Coherence:0.87 •  ロジスティック回帰の AIC – トークン数: 152.5 – Coherence:113.8 – 両⽅方: 115.8 30
  • 31. (余談) Word Intrusion の問題点 •  この論論⽂文では ①Chang が提案した Word Intrusion  の問題点が指摘されている •  トピックの単語が Chain している場合、 仲間はずれを⾒見見つけやすい { apple, apple-pie, meat-pie, meat, crab-meat, crab } •  しかしこのトピックの  Coherence は低い 31
  • 32. ③ Mimno (2011)  まとめ •  参照コーパスを使わず、学習コーパスの みで  Coherence  を算出する⽅方法を⽰示した •  UMass Coherence  と呼ばれる •  genism に実装されている •  新語、専⾨門⽤用語に強いと思われる(予想) •  (本論論⽂文では、この評価指標を最適にする新しい トピックモデルも提案。関係ないので割愛) 32
  • 33. 2.  既存研究の紹介 ① Chang (2009) ② Newman (2010) ③ Mimno (2011) ④ Aletras (2013) ⑤ Lau (2014) 33
  • 34. ④ Aletras (2013) •  “Evaluating Topic Coherence Using Distributional Semantics” 統計的意味論論を使ったトピックコヒーレンスの 評価 •  統計的意味論論における単語間類似度度を   Coherence  の⾃自動算出に使ってみた 34
  • 35. ④ Aletras (2013) •  Framework  は②Newman(2010)と同じ •  単語間類似度度の算出に  PMI  でなく、意味 空間(Semantic Space)上の類似度度を使う – コサイン類似度度、Dice係数、Jaccard係数 •  意味空間の作成に  Wikipedia を使う 35
  • 36. 意味空間(Semantic Space) •  単語を共起情報を⽤用いてベクトル化 – ⽂文脈ベクトルと呼ぶ •  よく似た共起分布を持つ単語はよく似た 意味を持つ単語である 36
  • 38. ④ Aletras (2013) •  意味空間を作るための単語の共起情報 •  PMI (⾃自⼰己相互情報量量) •  NMPI (Normalized PMI) (Bouma2009) ※それぞれ⼆二乗値を⽤用いる 38
  • 39. ④ Aletras (2013) •  全ての単語では意味空間の次元が⼤大きい •  Reduced Semantic Space (Islam2006) – 各単語 wi に対して、トップ βwi 個だけ使⽤用 •  Topic Word Space – トピックに現れる単語のみを使⽤用 m: コーパスサイズ、σ: 補正変数(今回は3に固定) 39
  • 40. ④ Aletras (2013) •  ⽂文脈ベクトル間の類似度度  3 つ •  コサイン類似度度 •  Dice  係数 •  Jaccard 係数 http://sucrose.hatenablog.com/entry/2012/11/30/132803 40
  • 41. ④ Aletras (2013) •  ⽂文脈ベクトル集合の類似度度  1  つ •  トピックの全単語の⽂文脈ベクトルの重⼼心 (Centroid)を  Tc とするとき、重⼼心からの コサイン類似度度の平均値 41
  • 42. ④ Aletras (2013) •  2 × 2 × (3+1) = 16 パターンについて、⼈人 間による評価とのスピアマン相関を⾒見見る •  ⼈人間による評価は  3 段階評価 •  学習コーパス 3 つを  LDA で学習 – NYT: New York Times articles(47,229) – 20NG: News Group emails(20,000) – Genomics: MEDLINE articles(30,000) MEDLINE:  医学論論⽂文データベース 42
  • 43. ④ Aletras (2013) •  既存研究で良良いものをベースラインとする Average NPMI  が最も良良い Newman の PMI を NPMI に変えたもの 43
  • 45. Topic Word Space は 既存研究より良良い 類似度度はコサイン類似度度が 総合的に良良い 45
  • 46. ④ Aletras (2013)  まとめ •  意味的な類似度度を⽤用いた  Coherence  評価 •  Topic Word Space でコサイン類似度度を使 うと既存研究より良良くなった •  統計的意味論論によるアプローチの有効性 を⽰示した •  NPMI はコサイン類似度度以外でもいい値を 出しているので意味論論的アプローチに向 いている 46
  • 47. 2.  既存研究の紹介 ① Chang (2009) ② Newman (2010) ③ Mimno (2011) ④ Aletras (2013) ⑤ Lau (2014) 47
  • 48. ⑤ Lau(2014) •  “Machine Reading Tea Leaves: Automatically Evaluation Topic Coherence and Topic Model Quality” 機械で紅茶茶占い:トピックコヒーレンスと    ト ピックモデル品質の⾃自動評価 •  Coherence を算出する様々な⼿手法が提案さ れているが、どれが良良いか分からない •  これらの⼿手法を俯瞰的に⽐比較し、どれが良良い かを評価する http://www.aclweb.org/anthology/E14-1056 48
  • 49. 既存研究まとめ モデル ⼈人間評価 類似度度 ⽐比較 ①Chang pLSI LDA CTM Word Intrusion ②Newman LDA 3段階 PMI なし ③Mimno LDA 3段階 LCP なし ④Aletras LDA 3段階 DS ②③ 49 LCP: Log Conditional Probability DS: Distributed Semantics
  • 50. 既存研究の問題点 •  ①Chang(2009)  と誰も⽐比較していない ⇨ Word Intrusion  の⾃自動化 •  トピックモデルの評価指標のはずが LDA だけで評価 ⇨ pLSI, LDA, CTM の  3つ •  参照コーパスとして  Wikipedia  のみ ⇨ Wikipedia, New York Times の  2つ 50
  • 51. 既存研究の問題点 •  モデルレベルで⾒見見た場合の  Coherence  と トピックレベルで⾒見見た場合の Coherence を分けて考えてない ⇨  分けて調査 51
  • 52. モデルレベル Coherence •  モデルに対する Coherence はトピックに 対する Coherence の平均値とする •  pLSI, LDA, CTM のそれぞれをトピック数   50, 100, 150 で作成(合計  9 つ) •  9 つのモデルを⼈人間による評価と⽐比較 •  ピアソン相関 (relative difference) 52
  • 53. モデルレベル Coherence •  ⼈人間による評価: – Word Intrusion(WI) – Observed Coherence(OC) : 3段階評価 •  この論論⽂文では、WI の⾃自動評価法を提案 •  OC については既存⼿手法を⽐比較 •  WI v.s. OC の⽐比較も⾏行行う 53
  • 54. 学習データと参照コーパス •  学習データ: – WIKI: Wikipedia(10,000) – NEWS: New York Times(8,447) •  参照コーパス: – WIKI-FULL: Wikipedia(3,300,000) – NEWS-FULL: New York Times(1,200,000) 54
  • 55. Word Intrusion の⾃自動化 <基本アイデア> •  Lau(2010) では、トピックの単語集合から 「最も良良くトピックを表す単語」を⾒見見つ ける⽅方法を⽰示した •  Word Intrusion は「トピックを表す単語 として最も悪いもの」を⾒見見つける作業で ある Lau(2010) Best Topic Word Selection for Topic Labelling 55
  • 56. Word Intrusion の⾃自動化 •  Intruder word を含む単語の集合について SVM-rank で順位を学習 •  特徴量量 3 つ 56
  • 57. モデルレベル(WI) •  PMI が良良い (※NPMI  は  特徴量量の PMI を NPMI に変たもの) •  参照コーパスは同じドメインが良良い 57
  • 58. モデルレベル(OC) •  単語間類似度度として 4 つ •  PMI (②Newman) •  NPMI (Newman改) •  LCP (③Mimno) – ただし、参照コーパスを使⽤用 •  DS (④Aletras) – 意味空間上のコサイン類似度度 – Topic Word Space, PMI, Wikipedia 58
  • 59. モデルレベル(OC) •  総合的には  NPMI  が良良い •  WIKI  に対しては LCP がベスト 59
  • 60. モデルレベル(WI v.s. OC) •  WI-Human  と  OC-Human  は強い相関 ⇨ 2つのアプローチはほぼ同じとみなして良良い •  PMI 以外は WI とも相関が⾼高い •  参照コーパスは同じドメインが良良い 60
  • 61. モデルレベル  まとめ •  WI と OC はほぼ同じとみなしてよい •  以下の⼿手法のどれも良良い – WI-Auto-PMI (WI でトップ) – OC-Auto-NPMI (OC でトップ) – OC-Auto-LCP (WIKI  でトップ) •  参照コーパスはドメインを同じにした⽅方 が良良い 61
  • 62. トピックレベル Coherence •  9 つのモデルの 900 トピックに対して   モデルレベルと同様に⽐比較 •  モデルレベルに⽐比べて⾮非常に低い相関 •  本質的な難しさがある •  Human Agreement: 評価者を2グループ に分けて、その相関を算出 62
  • 64. トピックレベル(OC) •  Human Agreement に勝利利 ⇨  ⼈人間と同レベルの評価が可能 •  OC-NPMI と  OC-DS が良良い 64
  • 65. トピックレベル(WI v.s. OC) •  WI-Human と OC-Human の相関は低い •  WI-Human  に対して最も良良いのは OC-DS だが、Human Agreement より低い 65
  • 66. (余談) WI の問題点 (太字:Intruder Word  四⾓角:⼈人間が選んだ単語) 1 & 2 ← 最初から仲間はずれが⼀一つある 3 & 4 ← 偶然関係のある単語が Intrude された 5 & 6 ← Intruder Word が浮いている 66 OC-Human*  および  WI-Human*  は  [0,1]  に正規化されている
  • 67. ⑤ Lau(2014)  まとめ •  Coherence の⾃自動評価について、これま でに提案された様々な⼿手法を⽐比較した。 •  モデルレベルでは、WI  と OC に違いはな く、既存の OC-NPMI, OC-LCP および 我々の提案する  WI-PMI が良良い。 •  トピックレベルでは、WI  と OC には差が あり、OC に対しては OC-NPMI と OC- DS が⼈人間と同じレベルで評価可能。 67