SlideShare uma empresa Scribd logo
1 de 21
Reading Wikipedia to Answer
Open-Domain Questions
Danqi Chen, Adam Fisch
Jason Weston and Antoine Bordes
ACL2017
読み人: 松田 耕史(東北大)
図はすべて、著者のポスターから拝借しています
http://cs.stanford.edu/people/danqi/presentations/acl2017_poster.pdf
1
どういう論文?
• Wikipedia全体を情報源に用いたオープンド
メイン質問応答システムを作りました
– machine reading at scale (MRS)
– Document Retriever: 答えを含む記事をざっくり
検索する
– Document Reader: 答えを含むスパンを注意深く
探し出す(読解)
• Finding: 読解モジュールの学習において、 自
動生成したパラグラフ-答えペアを使う(マル
チタスク学習)ことで性能が改善される
2
おさらい: SQuAD
[Rajpurkar+ EMNLP2016]
3
from: https://rajpurkar.github.io/mlx/qa-and-squad/
①Qを単語にバラして検索
Top n記事を取り出す
②読解モジュールでスパンを
当てる
4
文書検索モジュール
• TF-IDFで重み付けされた BoW+ bigramの
類似度
– 超シンプル(学習なし)
5
文書読解モジュール
• 入力: 文書, 出力: 答え(スパン)
6
7
さっき見てみたら・・・
読解における工夫
• SQuADだけではなく、他のデータセットか
らも学習
– CuratedTREC, WebQuestions, WikiMovies
8
9
まとめ
10
Heterogeneous Supervision for
Relation Extraction: A Representation
Learning Approach
Liyuan Liu, Xiang Ren , Qi Zhu , Huan Gui,
Shi Zhi, Heng Jiand Jiawei Han
EMNLP 2017
読み人: 松田 耕史(東北大)
11
どういう論文?
• 関係抽出における Distant Supervisionの一
般化:異種教師あり学習
– さまざまな種類の教師付け(ラベリング関数)
を統合して扱う仕組み
• 本論文:
– 「ラベリング関数」と「事例」の相性をモデ
ル化
– あるラベリング関数の信頼性が高い事例の集
合(Proficient subset)を近くに埋め込む
12
13from: https://www.slideshare.net/naoakiokazaki/modeling-missing-data-in-distant-supervision-for-information-
extraction-ritter-tacl-2013
Heterogeneous Supervision
異種教師あり学習(?)
• Distant Supervisionを含めた様々な「教師
信号」を統合的に扱う枠組み
• 鍵となる概念: ラベリング関数
1. 知識ベースのエントリにマッチしているか
を返す
2. エキスパートが書いた表層パターン
3. ドメイン知識
4. 他の分類器の予測結果 etc…
14
ラベリング関数の例
関数によってエラー率やカバレッジにばらつきが存在する
互いにコンフリクトする場合も存在する
たがいに相関をもっているような場合もある
(既存のルールとほとんど意味が同じルールを重複して書いてしまう)
⇒ラベリング関数の信頼性をモデル化 / Denoising
from: https://hazyresearch.github.io/snorkel/pdfs/snorkel_demo.pdf
15
異種教師あり学習の例:
Data Programming [Ratner+, NIPS2016]
from: https://hazyresearch.github.io/snorkel/pdfs/snorkel_demo.pdf
16
17
専門家を招いて8時間のハッカソンをしたら
F値が10ポイント上がった [Ratner+, NIPS2016]
本論文: 異種教師あり学習に対する
表現学習によるアプローチ
18
①文脈を埋め込む
②ラベリング関数を適用
③「真のラベル」を推定
④「真のラベル」から関係抽出器を訓練
④ ③①
Joint で訓練:
SGNS
Softmax
③ノイジーなアノテーションから
真のラベルを推定
• ラベリング関数と事例の「相性」を考える
– ある事例において信頼できるラベリング関数は、
似た事例でも信頼できるだろう
– あるラベリング関数 iが信頼できる事例の集合
• Proficient subset : Si へのメンバシップ確率をモデル
19
文脈 ラベリング
結果
20
全ラベルを利用
文脈非依存な
Truth Dicovery
提案: 文脈依存
Truth Discovery
21

Mais conteúdo relacionado

Semelhante a Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...

Using WordPress as a Content Management and Comment Site for Teacher Education
Using WordPress as a Content Management and Comment Site for Teacher EducationUsing WordPress as a Content Management and Comment Site for Teacher Education
Using WordPress as a Content Management and Comment Site for Teacher EducationJames Hall
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedbackharmonylab
 
cvpaper.challenge チームラボ講演
cvpaper.challenge チームラボ講演cvpaper.challenge チームラボ講演
cvpaper.challenge チームラボ講演cvpaper. challenge
 
ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報cvpaper. challenge
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニングgenroku
 
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...Deep Learning JP
 
Classifying Temporal Relations by Bidirectional LSTM over Dependency Paths
Classifying Temporal Relations by Bidirectional LSTM over Dependency PathsClassifying Temporal Relations by Bidirectional LSTM over Dependency Paths
Classifying Temporal Relations by Bidirectional LSTM over Dependency Paths浩気 西山
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Yuki Ogasawara
 
マイニング探検会#12
マイニング探検会#12マイニング探検会#12
マイニング探検会#12Yoji Kiyota
 
WWW2014 Session 16: Content Analysis 2 - Topics
WWW2014 Session 16: Content Analysis 2 - TopicsWWW2014 Session 16: Content Analysis 2 - Topics
WWW2014 Session 16: Content Analysis 2 - TopicsMasumi Shirakawa
 
[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them AllDeep Learning JP
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generationharmonylab
 
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...Takashi YAMAMURA
 
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...Deep Learning JP
 
大阪大学におけるPloneの活用事例
大阪大学におけるPloneの活用事例大阪大学におけるPloneの活用事例
大阪大学におけるPloneの活用事例Shigeo Honda
 

Semelhante a Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more... (20)

Using WordPress as a Content Management and Comment Site for Teacher Education
Using WordPress as a Content Management and Comment Site for Teacher EducationUsing WordPress as a Content Management and Comment Site for Teacher Education
Using WordPress as a Content Management and Comment Site for Teacher Education
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedback
 
cvpaper.challenge チームラボ講演
cvpaper.challenge チームラボ講演cvpaper.challenge チームラボ講演
cvpaper.challenge チームラボ講演
 
japan teacher
japan teacherjapan teacher
japan teacher
 
ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報ThemeStudy ― CHI2017-2018分析 + CHI2018速報
ThemeStudy ― CHI2017-2018分析 + CHI2018速報
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング
 
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...
[DL輪読会]Learning to Retrieve Reasoning Paths over Wikipedia Graph for Question...
 
Classifying Temporal Relations by Bidirectional LSTM over Dependency Paths
Classifying Temporal Relations by Bidirectional LSTM over Dependency PathsClassifying Temporal Relations by Bidirectional LSTM over Dependency Paths
Classifying Temporal Relations by Bidirectional LSTM over Dependency Paths
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512
 
Qaシステム解説
Qaシステム解説Qaシステム解説
Qaシステム解説
 
マイニング探検会#12
マイニング探検会#12マイニング探検会#12
マイニング探検会#12
 
SoCC12報告
SoCC12報告SoCC12報告
SoCC12報告
 
OSS ソースコードサーチツールの効能、有効活用方法
OSS ソースコードサーチツールの効能、有効活用方法OSS ソースコードサーチツールの効能、有効活用方法
OSS ソースコードサーチツールの効能、有効活用方法
 
WWW2014 Session 16: Content Analysis 2 - Topics
WWW2014 Session 16: Content Analysis 2 - TopicsWWW2014 Session 16: Content Analysis 2 - Topics
WWW2014 Session 16: Content Analysis 2 - Topics
 
[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All[DL輪読会]One Model To Learn Them All
[DL輪読会]One Model To Learn Them All
 
Variational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text GenerationVariational Template Machine for Data-to-Text Generation
Variational Template Machine for Data-to-Text Generation
 
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...
【文献紹介】Multi-modal Summarization for Asynchronous Collection of Text, Image, A...
 
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
[DL輪読会] Towards an Automatic Turing Test: Learning to Evaluate Dialogue Respo...
 
大阪大学におけるPloneの活用事例
大阪大学におけるPloneの活用事例大阪大学におけるPloneの活用事例
大阪大学におけるPloneの活用事例
 
Plone for ou
Plone for ouPlone for ou
Plone for ou
 

Mais de Koji Matsuda

KB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKoji Matsuda
 
Large-Scale Information Extraction from Textual Definitions through Deep Syn...
Large-Scale Information Extraction from Textual Definitions through Deep Syn...Large-Scale Information Extraction from Textual Definitions through Deep Syn...
Large-Scale Information Extraction from Textual Definitions through Deep Syn...Koji Matsuda
 
知識を紡ぐための言語処理と、 そのための言語資源
知識を紡ぐための言語処理と、そのための言語資源知識を紡ぐための言語処理と、そのための言語資源
知識を紡ぐための言語処理と、 そのための言語資源Koji Matsuda
 
「今日から使い切る」 ための GNU Parallel による並列処理入門
「今日から使い切る」ための GNU Parallelによる並列処理入門「今日から使い切る」ための GNU Parallelによる並列処理入門
「今日から使い切る」 ための GNU Parallel による並列処理入門Koji Matsuda
 
場所参照表現タグ付きコーパスの 構築と評価
場所参照表現タグ付きコーパスの構築と評価 場所参照表現タグ付きコーパスの構築と評価
場所参照表現タグ付きコーパスの 構築と評価 Koji Matsuda
 
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Koji Matsuda
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5Koji Matsuda
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...Koji Matsuda
 
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesJoint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesKoji Matsuda
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component AnalysisKoji Matsuda
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleKoji Matsuda
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric LearningKoji Matsuda
 
Unified Expectation Maximization
Unified Expectation MaximizationUnified Expectation Maximization
Unified Expectation MaximizationKoji Matsuda
 
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Koji Matsuda
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節Koji Matsuda
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節Koji Matsuda
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 

Mais de Koji Matsuda (19)

KB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみた
 
Large-Scale Information Extraction from Textual Definitions through Deep Syn...
Large-Scale Information Extraction from Textual Definitions through Deep Syn...Large-Scale Information Extraction from Textual Definitions through Deep Syn...
Large-Scale Information Extraction from Textual Definitions through Deep Syn...
 
知識を紡ぐための言語処理と、 そのための言語資源
知識を紡ぐための言語処理と、そのための言語資源知識を紡ぐための言語処理と、そのための言語資源
知識を紡ぐための言語処理と、 そのための言語資源
 
「今日から使い切る」 ための GNU Parallel による並列処理入門
「今日から使い切る」ための GNU Parallelによる並列処理入門「今日から使い切る」ための GNU Parallelによる並列処理入門
「今日から使い切る」 ための GNU Parallel による並列処理入門
 
場所参照表現タグ付きコーパスの 構築と評価
場所参照表現タグ付きコーパスの構築と評価 場所参照表現タグ付きコーパスの構築と評価
場所参照表現タグ付きコーパスの 構築と評価
 
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
 
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesJoint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component Analysis
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by Example
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric Learning
 
Unified Expectation Maximization
Unified Expectation MaximizationUnified Expectation Maximization
Unified Expectation Maximization
 
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 

Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...