SlideShare uma empresa Scribd logo
1 de 16
1




隠れマルコフモデルから
ビタビアルゴリズムまで
関口宏司@ロンウイット
英語の品詞タグ付けでの利用例
2




                                        入力
                                       テキスト

                 HMM:
                 Hidden Markov Model

     コーパス
                      HMM               POS     Viterbi
     (教師あ   学習                         Tagger   Algorithm
      り)              モデル



                                        出力
                                       品詞タグ付
                                       きテキスト
系列ラベリング
3


       データ系列の入力に対し、クラスの系列を出力
       普通の分類問題とは異なる
         普通の分類問題:F →c
         系列ラベリング:F1F2…Fn → c1c2…cn




               F1      F2     F3      F4      F5

              Time   flies   like    an     allow.
               c1      c2     c3      c4      c5

              [名詞]   [動詞]    [前置詞]   [冠詞]    [名詞]
系列ラベリング問題の解き方
4


       通常の分類器の逐次適用
         ciの推定に、Fi,   Fi-1, Fi+1やci-1などを用いる
            F1   F2    F3    F4   F5   …
            c1   c2    c3    c4   c5   …


       隠れマルコフモデル


       条件付き確率場(CRF)
マルコフ過程
5


       マルコフ過程
         ある記号の出力確率が、直前のN個の記号によって決
        まるとする確率過程
       隠れマルコフモデル
         「システムがパラメータ未知のマルコフ過程」と仮定
          し、観測可能な情報からその未知パラメータを推定
          (Wikipedia)
         外部で観測されるのは単語列であり、内部状態として
          見えない品詞の遷移がある(参考文献[1], [2])
         教師あり学習データを用いるのに「隠れ」とは違和感
          あるが、NLPでは呼称が定着(参考文献[3])
確率モデルの近似
6
HMM=オートマトンの一種
7



    隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。


                            状態の有限集合

                            出力記号の有限集合

                                       状態遷移確率分布



                                           記号出力確率分布


                             初期状態確率分布
単語/品詞のHMM
8

                                                          0.3
                                                                                time … 0.6
                                                                                flies … 0.1
                                                                  名詞            arrow … 0.3
                                                                  0.6


                                                                                         0.4
                                              0.7
                                                                                   0.3
                   an … 1.0                                                                                           0.1

                              冠詞                                  0.2                                  動詞
                              0.4                                                                      0.0
                                                    0.5                           0.2                             time … 0.1
                                                          0.1             0.6
                                                                                                                  flies … 0.2
                                                                                                                  like … 0.7
                                                            0.3          0.2                   0.2
                                       0.1
                               0.3

              出力記号(単語)
               …出力確率
     状態(品詞)
    初期状態確率
                                             形容詞                   0.1                   前置詞         like … 1.0
                          like … 1.0          0.0                                         0.0
       状態遷移確率                  0.4
                                                                                                                       出典:参考文献 [2]
HMMを適用する問題
9


       評価問題                                : 出力記号系列
           P(o1T|M)を求める問題
           素朴な方法(O(NT))
                                            : 状態遷移系列
           前向きアルゴリズム(O(N2T))
           後向きアルゴリズム(O(N2T))
       復号化問題
           argmax{q1T}P(o1T,q1T|M)を求める問題
           ビタビアルゴリズム
       推定問題
           argmax{M}P(o1T|M)を求める問題
           前向き後向きアルゴリズム
           EMアルゴリズム
状態遷移系列の生成確率
10




     N: 名詞,   V: 動詞,   P: 前置詞,   D: 冠詞   出典:参考文献 [2]
前向きアルゴリズム
11


     1.   前向き確率の初期化



     2.   前向き確率の再帰的な計算



     3.   最終確率の計算
前向きアルゴリズム
12

                 time            flies                         like                   an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞      0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                    1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.00504               0.004068           0.0008542
                                                                      0.3
          前向き確率αt+1                                   0.2


                                動詞               0.2         前置詞            0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00792
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00684




                                                                                                   出典:参考文献 [2]
ビタビアルゴリズム
13


        時刻tで状態qiに到達する状態遷移系列q1t-1に関し
         て最大の確率値を記憶する




        時刻t+1で最大の確率値を与える直前の時刻tの状
         態iを記憶する
ビタビアルゴリズム
14


     1.   変数の初期化



     2.   最大確率値と状態の再帰計算



     3.   再帰計算の終了



     4.   バックトラックによる最適状態遷移系列の復元
ビタビアルゴリズム
15

                 time            flies                         like                    an                arrow


          0.6    名詞     0.3     名詞             0.4            動詞       0.2            冠詞      0.7        名詞
     文頭
                 0.6            0.1                           0.7                     1.0                0.3
                        0.4                     0.1
                 0.36         0.0108                        0.003024               0.001728           0.0003628
                                                                       0.3
          最大の確率値 δt+1                                 0.2


                                動詞               0.2         前置詞             0.1
                                0.2                           1.0

                              0.0288                  0.1 0.00576
                                         0.2




                                                             形容詞
                                                              1.0

                                                            0.00576




                                                                                                    出典:参考文献 [2]
参考文献
16


        [1] 岩波講座ソフトウェア科学15自然言語処理長
         尾真編岩波書店
        [2] 言語と計算4確率的言語モデル北研二著東京大
         学出版会
        [3] 自然言語処理シリーズ1言語処理のための機械
         学習入門奥村学監修コロナ社
        [4] 自然言語処理の基礎奥村学著コロナ社

Mais conteúdo relacionado

Mais procurados

PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...Deep Learning JP
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection modelWEBFARMER. ltd.
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証Masaharu Kinoshita
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要Kenji Urai
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチHironobu Fujiyoshi
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出Kai Sasaki
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Yusuke Fujimoto
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
 
【DL輪読会】Segment Anything
【DL輪読会】Segment Anything【DL輪読会】Segment Anything
【DL輪読会】Segment AnythingDeep Learning JP
 
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-Deep Learning JP
 
動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類Tsubasa Hirakawa
 
時系列分析による異常検知入門
時系列分析による異常検知入門時系列分析による異常検知入門
時系列分析による異常検知入門Yohei Sato
 

Mais procurados (20)

PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
サポートベクトルデータ記述法による異常検知 in 機械学習プロフェッショナルシリーズ輪読会
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection model
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
 
Graph LSTM解説
Graph LSTM解説Graph LSTM解説
Graph LSTM解説
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
深層学習 第6章
深層学習 第6章深層学習 第6章
深層学習 第6章
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
【DL輪読会】Segment Anything
【DL輪読会】Segment Anything【DL輪読会】Segment Anything
【DL輪読会】Segment Anything
 
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
 
動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類動画像を用いた経路予測手法の分類
動画像を用いた経路予測手法の分類
 
時系列分析による異常検知入門
時系列分析による異常検知入門時系列分析による異常検知入門
時系列分析による異常検知入門
 

Mais de Koji Sekiguchi

20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdfKoji Sekiguchi
 
Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Koji Sekiguchi
 
Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Koji Sekiguchi
 
Lucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostLucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostKoji Sekiguchi
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習Koji Sekiguchi
 
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)Koji Sekiguchi
 
An Introduction to NLP4L
An Introduction to NLP4LAn Introduction to NLP4L
An Introduction to NLP4LKoji Sekiguchi
 
コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用Koji Sekiguchi
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用までKoji Sekiguchi
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerKoji Sekiguchi
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介Koji Sekiguchi
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出Koji Sekiguchi
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンKoji Sekiguchi
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extractionKoji Sekiguchi
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene indexKoji Sekiguchi
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成Koji Sekiguchi
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronKoji Sekiguchi
 

Mais de Koji Sekiguchi (20)

20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
20221209-ApacheSolrによるはじめてのセマンティックサーチ.pdf
 
Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出Solr から使う OpenNLP の日本語固有表現抽出
Solr から使う OpenNLP の日本語固有表現抽出
 
Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1Learning-to-Rank meetup Vol. 1
Learning-to-Rank meetup Vol. 1
 
Lucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boostLucene 6819-good-bye-index-time-boost
Lucene 6819-good-bye-index-time-boost
 
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
NLP4L - 情報検索における性能改善のためのコーパスの活用とランキング学習
 
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
An Introduction to NLP4L (Scala by the Bay / Big Data Scala 2015)
 
An Introduction to NLP4L
An Introduction to NLP4LAn Introduction to NLP4L
An Introduction to NLP4L
 
Nlp4 l intro-20150513
Nlp4 l intro-20150513Nlp4 l intro-20150513
Nlp4 l intro-20150513
 
コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用コーパス学習による Apache Solr の徹底活用
コーパス学習による Apache Solr の徹底活用
 
情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで情報検索の基礎からデータの徹底活用まで
情報検索の基礎からデータの徹底活用まで
 
LUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizerLUCENE-5252 NGramSynonymTokenizer
LUCENE-5252 NGramSynonymTokenizer
 
情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介情報検索におけるランキング計算の紹介
情報検索におけるランキング計算の紹介
 
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
系列パターンマイニングを用いた単語パターン学習とWikipediaからの組織名抽出
 
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョンLuceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
Luceneインデックスの共起単語分析とSolrによる共起単語サジェスチョン
 
Html noise reduction
Html noise reductionHtml noise reduction
Html noise reduction
 
Lucene terms extraction
Lucene terms extractionLucene terms extraction
Lucene terms extraction
 
Visualize terms network in Lucene index
Visualize terms network in Lucene indexVisualize terms network in Lucene index
Visualize terms network in Lucene index
 
WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成WikipediaからのSolr用類義語辞書の自動生成
WikipediaからのSolr用類義語辞書の自動生成
 
NLP x Lucene/Solr
NLP x Lucene/SolrNLP x Lucene/Solr
NLP x Lucene/Solr
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
 

Último

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 

Último (10)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 

HMM viterbi

  • 2. 英語の品詞タグ付けでの利用例 2 入力 テキスト HMM: Hidden Markov Model コーパス HMM POS Viterbi (教師あ 学習 Tagger Algorithm り) モデル 出力 品詞タグ付 きテキスト
  • 3. 系列ラベリング 3  データ系列の入力に対し、クラスの系列を出力  普通の分類問題とは異なる  普通の分類問題:F →c  系列ラベリング:F1F2…Fn → c1c2…cn F1 F2 F3 F4 F5 Time flies like an allow. c1 c2 c3 c4 c5 [名詞] [動詞] [前置詞] [冠詞] [名詞]
  • 4. 系列ラベリング問題の解き方 4  通常の分類器の逐次適用  ciの推定に、Fi, Fi-1, Fi+1やci-1などを用いる F1 F2 F3 F4 F5 … c1 c2 c3 c4 c5 …  隠れマルコフモデル  条件付き確率場(CRF)
  • 5. マルコフ過程 5  マルコフ過程  ある記号の出力確率が、直前のN個の記号によって決 まるとする確率過程  隠れマルコフモデル  「システムがパラメータ未知のマルコフ過程」と仮定 し、観測可能な情報からその未知パラメータを推定 (Wikipedia)  外部で観測されるのは単語列であり、内部状態として 見えない品詞の遷移がある(参考文献[1], [2])  教師あり学習データを用いるのに「隠れ」とは違和感 あるが、NLPでは呼称が定着(参考文献[3])
  • 7. HMM=オートマトンの一種 7 隠れマルコフモデルは5項組 M=(Q, Σ, A, B, π) により定義される。 状態の有限集合 出力記号の有限集合 状態遷移確率分布 記号出力確率分布 初期状態確率分布
  • 8. 単語/品詞のHMM 8 0.3 time … 0.6 flies … 0.1 名詞 arrow … 0.3 0.6 0.4 0.7 0.3 an … 1.0 0.1 冠詞 0.2 動詞 0.4 0.0 0.5 0.2 time … 0.1 0.1 0.6 flies … 0.2 like … 0.7 0.3 0.2 0.2 0.1 0.3 出力記号(単語) …出力確率 状態(品詞) 初期状態確率 形容詞 0.1 前置詞 like … 1.0 like … 1.0 0.0 0.0 状態遷移確率 0.4 出典:参考文献 [2]
  • 9. HMMを適用する問題 9  評価問題 : 出力記号系列  P(o1T|M)を求める問題  素朴な方法(O(NT)) : 状態遷移系列  前向きアルゴリズム(O(N2T))  後向きアルゴリズム(O(N2T))  復号化問題  argmax{q1T}P(o1T,q1T|M)を求める問題  ビタビアルゴリズム  推定問題  argmax{M}P(o1T|M)を求める問題  前向き後向きアルゴリズム  EMアルゴリズム
  • 10. 状態遷移系列の生成確率 10 N: 名詞, V: 動詞, P: 前置詞, D: 冠詞 出典:参考文献 [2]
  • 11. 前向きアルゴリズム 11 1. 前向き確率の初期化 2. 前向き確率の再帰的な計算 3. 最終確率の計算
  • 12. 前向きアルゴリズム 12 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.00504 0.004068 0.0008542 0.3 前向き確率αt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00792 0.2 形容詞 1.0 0.00684 出典:参考文献 [2]
  • 13. ビタビアルゴリズム 13  時刻tで状態qiに到達する状態遷移系列q1t-1に関し て最大の確率値を記憶する  時刻t+1で最大の確率値を与える直前の時刻tの状 態iを記憶する
  • 14. ビタビアルゴリズム 14 1. 変数の初期化 2. 最大確率値と状態の再帰計算 3. 再帰計算の終了 4. バックトラックによる最適状態遷移系列の復元
  • 15. ビタビアルゴリズム 15 time flies like an arrow 0.6 名詞 0.3 名詞 0.4 動詞 0.2 冠詞 0.7 名詞 文頭 0.6 0.1 0.7 1.0 0.3 0.4 0.1 0.36 0.0108 0.003024 0.001728 0.0003628 0.3 最大の確率値 δt+1 0.2 動詞 0.2 前置詞 0.1 0.2 1.0 0.0288 0.1 0.00576 0.2 形容詞 1.0 0.00576 出典:参考文献 [2]
  • 16. 参考文献 16  [1] 岩波講座ソフトウェア科学15自然言語処理長 尾真編岩波書店  [2] 言語と計算4確率的言語モデル北研二著東京大 学出版会  [3] 自然言語処理シリーズ1言語処理のための機械 学習入門奥村学監修コロナ社  [4] 自然言語処理の基礎奥村学著コロナ社