SlideShare uma empresa Scribd logo
1 de 56
Baixar para ler offline
© 2010 IBM Corporation
自然言語処理勉強会@東京
統計的係り受け解析入門
日本アイ・ビー・エム(株)東京基礎研究所
海野 裕也(@unnonouno)
自然言語処理勉強会@東京
© 2010 IBM Corporation
IBM Research - Tokyo
2 自然言語処理勉強会@東京 第3回2010/11/07
自己紹介 (1/2)
海野 裕也(うんの ゆうや)
–twitter: @unnonouno
–blog: http://unnonouno.blogspot.com
–NLPかプログラミングか写真の話題
日本アイ・ビー・エム 東京基礎研究所所属
–今はTRLという略称は使われていません:)
–テキストマイニング,自然言語処理の研究開発
–主に,動的計画法と木構造と戯れている
© 2010 IBM Corporation
IBM Research - Tokyo
3 自然言語処理勉強会@東京 第3回2010/11/07
自己紹介 (2/2)
読めない
unno / no / uno
–≠unnounno, unonono
–たまにリプライ先を間違えられる
海野(うんの) / の / UNO
–この文自体に特に意味はない
かな漢字変換と分かち書きという日本語自然言語処理
特有の問題を表したID
@unnonouno
© 2010 IBM Corporation
IBM Research - Tokyo
4 自然言語処理勉強会@東京 第3回2010/11/07
今日のお話
係り受け解析とは何か知ろう
いくつかの重要な用語,記法を知ろう
典型的なアルゴリズムを知ろう
© 2010 IBM Corporation
IBM Research - Tokyo
5 自然言語処理勉強会@東京 第3回2010/11/07
目次
係り受け解析とは何か
–用語の説明
–タスクの説明
手法の紹介
–Shift-reduce法
–Eisner法
–その他の手法
まとめ
© 2010 IBM Corporation
IBM Research - Tokyo
6 自然言語処理勉強会@東京 第3回2010/11/07
目次
係り受け解析とは何か
–用語の説明
–タスクの説明
手法の紹介
–Shift-reduce法
–Eisner法
–その他の手法
まとめ
© 2010 IBM Corporation
IBM Research - Tokyo
7 自然言語処理勉強会@東京 第3回2010/11/07
係り受け解析とは何か?
各単語(or文節)の係り先を決定する
係り先とは何ぞや?という問題は割愛します :)
今日, 私は NLPの 発表を した。
※日本語だと係り元から係り先を指すことが多い
紫の部分を当てる問題
© 2010 IBM Corporation
IBM Research - Tokyo
8 自然言語処理勉強会@東京 第3回2010/11/07
海賊王に俺はなる!
海賊王に俺は なる!
名詞節
動詞節
文
海賊王に 俺は なる!
海賊王に俺は なる! 海賊王に 俺は なる!
係り受け(依存文法)
句構造文法
?
文法を変える?
左の構造を変換
する?
どちらも自然に
扱える
名詞節 動詞節
文法は適当です
© 2010 IBM Corporation
IBM Research - Tokyo
9 自然言語処理勉強会@東京 第3回2010/11/07
係り受け解析の応用例
情報抽出に使う
–「私は・・・発表を・・・した」を探す
今日, 私は NLPの 発表を した。
話した。私は 人と発表を した
○
×
私は 発表を した。
単なる単語共起ではゴミが多いときに有効
© 2010 IBM Corporation
IBM Research - Tokyo
10 自然言語処理勉強会@東京 第3回2010/11/07
教科書の紹介
Dependency Parsing (Synthesis Lectures
on Human Language Technologies)
–S. Kubler, R. McDonald, J. Nivre
–MSTパーザーのR. McDonaldとShift-
ReduceパーザーのJ. Nivreの本
–読みやすいのでお勧め
言語と計算 (4) 確率的言語モデル
–北 研二, 辻井 潤一
–この本にもEisner法と同等の手法が載ってる
–最近の本を知っている人は教えてください
© 2010 IBM Corporation
IBM Research - Tokyo
11 自然言語処理勉強会@東京 第3回2010/11/07
係り受け解析の用語
今日は,交差なし・双方向を中心にはなします
交差あり (non-projective) 交差なし (projective)
双方向 単方向
最近は交差を許す問題設定が多い ほとんどの場合,交差しない
英語など一般的には双方向 日本語書き言葉など一部の言語
© 2010 IBM Corporation
IBM Research - Tokyo
12 自然言語処理勉強会@東京 第3回2010/11/07
問題の定式化
入力
–単語列 S = {w1, …, wn}
出力
–係り先 D = {d1, …, dn}
–ただし,連結・非サイクルである必要アリ
長さnの単語列の各単語の係り先を出力
ラベル付きなどもあるが今回は無視
日本語の場合,文節単
位のことも多い
今日, 私は NLPの 発表を した。
国際的には矢印は逆向き
© 2010 IBM Corporation
IBM Research - Tokyo
13 自然言語処理勉強会@東京 第3回2010/11/07
思いつくままにやってみる(品詞編)
係り関係になりそうな品詞組みを考える
–名詞,→動詞
–名詞は→動詞
–名詞の→名詞
–名詞を→動詞
係り関係になる品詞対をルール化すればよさそう
今日, 私は NLPの 発表を した。
© 2010 IBM Corporation
IBM Research - Tokyo
14 自然言語処理勉強会@東京 第3回2010/11/07
品詞だけでは解決できない例がすぐ思い浮かぶ
同じ名詞なのに係り先が異なる
本質的に曖昧な文も存在する
–ex. 黒い目の大きな女の子
値段値段値段値段の 高い ワインを 飲んだ。
父父父父の 高い ワインを 飲んだ。
© 2010 IBM Corporation
IBM Research - Tokyo
15 自然言語処理勉強会@東京 第3回2010/11/07
プログラミング言語の構文解析との違い
プログラミング言語の文法は曖昧性がない
–1つの文に対して高々1つの構文木しか存在しない
–線形時間で必ず解析できるクラスに限定される
自然言語の文法は曖昧
–1つの文に対して解釈可能な構文木が複数存在する
–一般的には文長の指数個候補が存在する
ルールのみでは1つの構文木に決定できない
© 2010 IBM Corporation
IBM Research - Tokyo
16 自然言語処理勉強会@東京 第3回2010/11/07
機械学習を使ってみよう
それぞれの単語の係り先を多値分類
交差しないよう,全単語に対して繰り返す
これで結構いい精度がでる
–通称,相対モデル [工藤&松本04]
–多値分類は最大エントロピー法を使う
今日, 私は NLPの 発表を した。
今日, 私は NLPの 発表を した。
© 2010 IBM Corporation
IBM Research - Tokyo
17 自然言語処理勉強会@東京 第3回2010/11/07
係り受け解析の難しさ
先の手法は全候補を網羅していない
出力の候補は入力長の指数オーダー以上
–各単語の係り先候補がnくらいあるので,出力Dの候補は
大体nnくらいある
これを解消するために色んなテクを駆使する
–文法理論,機械学習,動的計画法,グラフ理論,整数計
画法
本質的には膨大な候補存在する
ところをどう抑えるかが鍵
© 2010 IBM Corporation
IBM Research - Tokyo
18 自然言語処理勉強会@東京 第3回2010/11/07
目次
係り受け解析とは何か
–用語の説明
–タスクの説明
手法の紹介
–Shift-reduce法
–Eisner法
–その他の手法
まとめ
© 2010 IBM Corporation
IBM Research - Tokyo
19 自然言語処理勉強会@東京 第3回2010/11/07
係り受け解析の2大派閥
膨大な候補から選ぶ戦略として2つの手法方向性がある
Transition-based (局所最適型)
–局所的な選択を繰り返すため,大域最適ではない
–複雑な特徴量を使える
–Shift-Reduce
Graph-based (大域最適型)
–全候補の中からスコア最大の木を選ぶ
–単純な特徴量しか使えない
–MST,Eisner
© 2010 IBM Corporation
IBM Research - Tokyo
20 自然言語処理勉強会@東京 第3回2010/11/07
両者を比較する
局所最適 大域最適
ローカル素性
大域素性
Shift-Reduce
MST
Eisner
Higher-order
Eisner
ILP
性能が良い
計算量を抑えながら大域素
性・大域最適を目指したい
性能が悪い
両方満たす代わり
に解は近似解
© 2010 IBM Corporation
IBM Research - Tokyo
21 自然言語処理勉強会@東京 第3回2010/11/07
今日紹介する手法
Shift-Reduce法
–Transition-basedの代表的な手法
–実装簡単,高速
Eisner法
–Graph-basedの代表的な手法の一つ
–動的計画法は楽しい
–※こっちがメインです
© 2010 IBM Corporation
IBM Research - Tokyo
22 自然言語処理勉強会@東京 第3回2010/11/07
Shift-Reduce法 [Nivre03, Yamada&Matsumoto03]
前から順に読んで,未処理の単語をスタックに積む
スタックと次の単語間に係り関係があったら消す
前から読んでいく人間の理解に近い(?)
例)今日,私はNLPの・・・
今日,
私は
NLPの
発表を した。
※係り先が決まっていない単語
スタックスタックスタックスタック
© 2010 IBM Corporation
IBM Research - Tokyo
23 自然言語処理勉強会@東京 第3回2010/11/07
Shift-Reduce法の特徴
積む(shift)か消す(reduce)の分類を繰り返す
利点
–高速(線形時間),作るのが簡単
–遠くの構造を素性に入れられる
欠点
–大域最適ではない(garden pathなどに弱い)
–自明には交差に対応できない
This This
is
is is
a
is
a
is
pen
is
pen
shift shift left shift shift left right
© 2010 IBM Corporation
IBM Research - Tokyo
24 自然言語処理勉強会@東京 第3回2010/11/07
Shift-Reduceの詳細 [Nivre04]
入力をそのまま積む(shift)
スタックの上2つに係り関係をつける(left / right)
操作の異なる亜種は多い
これらの操作で生成される構造に交差はない
This is a pen
This This
is
is is
a
is
a
is
pen
is
pen
shift shift left shift shift left right
© 2010 IBM Corporation
IBM Research - Tokyo
25 自然言語処理勉強会@東京 第3回2010/11/07
Swap操作で交差へ対応 [Nivre09]
スタックの2番目の要素を戻すSwap操作を追加
A B C
A A
B
A
C
A A
B
B
shift shift shift swap right shift right
A
C
B
B
swapされたノードは一
度入力列に戻される
© 2010 IBM Corporation
IBM Research - Tokyo
26 自然言語処理勉強会@東京 第3回2010/11/07
Eisner法
動的計画法により大域最適を探す
CKYアルゴリズムと同種の方法を使う
–基本的に非交差しか扱えない
局所的な素性しか扱えない
–“局所”の度合いで複雑度が異なる(cf. 高階Eisner)
© 2010 IBM Corporation
IBM Research - Tokyo
27 自然言語処理勉強会@東京 第3回2010/11/07
おさらい:CKYアルゴリズム
句構造文法の構文解析手法
下図のような木構造を出力する
動的計画法で計算量はO(n3)
1:今日, 2:私は 3:NLPの 4:発表を 5:した。
非終端記号
は省略
© 2010 IBM Corporation
IBM Research - Tokyo
28 自然言語処理勉強会@東京 第3回2010/11/07
チョムスキー標準形 (Chomsky Normal Form,
CNF)
書き換え規則が2分割か,単語生成しかない文法
一般的には非終端記号( )にはラベルが振られてい
る
CKYアルゴリズムは文法がCNFである必要がある
or
w
© 2010 IBM Corporation
IBM Research - Tokyo
29 自然言語処理勉強会@東京 第3回2010/11/07
CKYアルゴリズムの定式化
sequenceに対するViterbiアルゴリズムのtree版
局所的なスコアの総和が最大になるtreeを選択する
treeの候補は指数なので,全列挙はできない
1:今日, 2:私は 3:NLPの 4:発表を 5:した。
各三角にスコアが割
り振られ,その総和
が全体のスコア
© 2010 IBM Corporation
IBM Research - Tokyo
30 自然言語処理勉強会@東京 第3回2010/11/07
CKYアルゴリズムを再帰で理解する(1/3)
1:今日, 2:私は 3:NLPの 4:発表を 5:した。
(3-4)
(3-5)
(2-5)
(1-5) 3番目から5番目の単語が
末端に来ることを示している
(1-1)
(2-2)
(3-3) (4-4)
(5-5)
領域に関して,以下のルールが成り立つ
– (s, e) (s, k) + (k+1, e)
– (s, s) 終端 左側の木と右側の木の境目を
再帰的に決定している
© 2010 IBM Corporation
IBM Research - Tokyo
31 自然言語処理勉強会@東京 第3回2010/11/07
CKYアルゴリズムを再帰で理解する(2/3)
s k k+1 e
(k+1 - e)
(s - e)
(s - k)
sからeの領域をkとk+1で分けたときの最大スコアは,sからkの領域の最大
と,k+1からeの領域の最大と,三角の局所スコアの和
kをsからe-1まで変化させて最大値をとるkを探す
sからk,k+1からeの領域も再帰的に最大の構造を探す
・・・ ・・・
© 2010 IBM Corporation
IBM Research - Tokyo
32 自然言語処理勉強会@東京 第3回2010/11/07
CKYアルゴリズムを再帰で理解する(3/3)
領域(s,e)の最大スコア f(s, e) は
–f(s, e) = maxk {S(s,k,e) + f(s, k) + f(k+1, e)}
–S(s,k,e) は (s,e) (s,k) (k+1,e) という規則に対す
る局所的なスコア
領域(s,s)のスコア f(s,s) は
–f(s, s)=0
上記再帰式をメモ化すればOK
© 2010 IBM Corporation
IBM Research - Tokyo
33 自然言語処理勉強会@東京 第3回2010/11/07
係り受けと句構造の比較
なんとなく形が似ている気もする・・・
今日, 私は NLPの 発表を した。
今日, 私は NLPの 発表を した。
© 2010 IBM Corporation
IBM Research - Tokyo
34 自然言語処理勉強会@東京 第3回2010/11/07
関連の薄そうな2つは,以下の記号を導入すると・・・
係り受けを句構造風に解釈するには?
This is a pen
ルール
のところに係り受け
w
句構造と同種の手法
(CKYやinside-
outside)が使える気が
してくる!
© 2010 IBM Corporation
IBM Research - Tokyo
35 自然言語処理勉強会@東京 第3回2010/11/07
Eisner法を数式で書いてみる
C(s, e) = maxk(C(s, k) + I(k, e))
I(s, e) = S(s, e) + maxk(C(k, s) + C(k+1, e))
–ただし,S(s, e)はsがeに係ることに対するスコア
上記再帰式をメモ化すればOK
Complete span
Incomplete span
© 2010 IBM Corporation
IBM Research - Tokyo
36 自然言語処理勉強会@東京 第3回2010/11/07
Eisner法を擬似コードで書いてみる
function comp(s, e):
if s = e:
return 0
elif (s, e) in comp_cache:
return comp_cache[(s, e)]
else:
m = -INF
for k in {s, …, e}:
m = max(m, comp(s, k) + incomp(s, k))
return comp_cache[(s, e)] = m
function incomp(s, e):
if (s, e) in incomp_cache:
return incomp_cache[(s, e)]
else:
m = -INF
for k in {s, …, e-1}:
m = max(m, S(s, e) + comp(k, s) + comp(k+1, e))
return incomp_cache[(s, e)] = m
© 2010 IBM Corporation
IBM Research - Tokyo
37 自然言語処理勉強会@東京 第3回2010/11/07
Nベスト出力 [Jimenez&Marzal2000]
スコアの高い上位N件を出力したい
元の論文はPCFGをN-best化する方法
© 2010 IBM Corporation
IBM Research - Tokyo
38 自然言語処理勉強会@東京 第3回2010/11/07
ソート済み配列の足し算
ソート済み配列の足
し算をソートする
priority queueを使
えば簡単に実現でき
る
357101
6
10
12
2
810134
1214178
14161910
469
19
17
16
14
13
14
12
12
10
© 2010 IBM Corporation
IBM Research - Tokyo
39 自然言語処理勉強会@東京 第3回2010/11/07
CKYもEisnerも足し算の塊 (1/2)
C(0, 4)
+
k=1
+
k=2
+
k=3
C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4)
+
k=4
C(0,4) I(4,4)
1, 1 1, 1 1, 1 1, 1
C(s, e) = maxk(C(s, k) + I(k, e))
1
1 1
1番目の候補を探すC(0, 1)の1番目,
I(1, 4)の1番目の意
これがbest
再帰的に計算する
© 2010 IBM Corporation
IBM Research - Tokyo
40 自然言語処理勉強会@東京 第3回2010/11/07
CKYもEisnerも足し算の塊 (2/2)
C(0, 4)
+
k=1
+
k=2
+
k=3
C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4)
+
k=4
C(0,4) I(4,4)
1, 1 1, 1 1, 12, 1
1, 2
C(s, e) = maxk(C(s, k) + I(k, e))
2
1 2
2番目の候補を探す
隣接候補を追加
これが2番
再帰的に計算する(I(2,4)は2番目を探す)
© 2010 IBM Corporation
IBM Research - Tokyo
41 自然言語処理勉強会@東京 第3回2010/11/07
Higher order Eisner
以上は 1st order Eisner と呼ばれる
–1st order とは,係り元と係り先しか見ない
より多くの依存関係を同時に見たくなる
–2nd order
•同じ係り先の兄弟
–3rd order
•祖父と親と子,あるいは親と子の兄弟
–いずれも多項式時間で実現できる
© 2010 IBM Corporation
IBM Research - Tokyo
42 自然言語処理勉強会@東京 第3回2010/11/07
2nd order Eisner
兄弟に関する制約や素性を追加したい
–例えば同じ格助詞を持つ文節は兄弟にしたくない
以下のノードを追加すると解決する
1st order 2nd order
© 2010 IBM Corporation
IBM Research - Tokyo
43 自然言語処理勉強会@東京 第3回2010/11/07
2nd order Eisnerを直感的に理解する
木をたどる操作には2種類ある
1. 子ノードに遷移する
2. 兄弟ノードを遷移する
1st order は,いわば2を1で無理やり表現したため,
兄弟間の素性を設計できない
2nd order では2を直接表現しているため,兄弟間
の素性を設計できる
今日, 私は
NLPの
発表を
した。1
2
© 2010 IBM Corporation
IBM Research - Tokyo
44 自然言語処理勉強会@東京 第3回2010/11/07
2nd order Eisnerを絵で理解する
1st order
2nd order
(((w1, w2), w3), w4)
雰囲気としてはcar,cdrのような感じ
w1 w2 w3 w4
w1 w2 w3 w4
兄弟関係を直接表現するノードがない
© 2010 IBM Corporation
IBM Research - Tokyo
45 自然言語処理勉強会@東京 第3回2010/11/07
3rd order Eisner [Koo&Colins2010]
親子だけではなくて孫も同時に見たい
–uni-gramからbi-gramにする感覚
親子と同時に子の兄弟も見たい
–親と兄弟の3項関係
T. Koo and M. Collins, Efficient
third-order dependency parsers.
ACL 2010.
祖父を見ている
親と兄弟を同時に
見ている
© 2010 IBM Corporation
IBM Research - Tokyo
46 自然言語処理勉強会@東京 第3回2010/11/07
1st, 2nd, 3rd の比較
1st order
親子のみ
2nd order
兄弟を追加
3rd order
祖父,親,孫を追加
親,兄弟を追加
表現できる素性がだんだん増えている
© 2010 IBM Corporation
IBM Research - Tokyo
47 自然言語処理勉強会@東京 第3回2010/11/07
他の手法
簡単な紹介だけ
MST
ILP
© 2010 IBM Corporation
IBM Research - Tokyo
48 自然言語処理勉強会@東京 第3回2010/11/07
MSTパーザー
最大全域木(Maximum Spanning Tree)アルゴリズ
ムを使う
詳しく紹介しないが,現在主流の手法の一つ
© 2010 IBM Corporation
IBM Research - Tokyo
49 自然言語処理勉強会@東京 第3回2010/11/07
MSTパーザーの特徴 [McDonald05]
最大全域木(Maximum Spanning Tree)アルゴリズムを使う
利点
–大域最適である
–解析時の計算量がO(n2)と意外と小さい
–交差を自然に解いてくれる
欠点
–直接の係り関係しか使えない
–2nd order以上になるとNP hard
This is a pen
© 2010 IBM Corporation
IBM Research - Tokyo
50 自然言語処理勉強会@東京 第3回2010/11/07
ILP (Integer Linear Programming)パー
ザーの特徴 [Riedel&Clarke06, Martins+09]
MSTパーザーのスコアを線形の目的関数にする
「木である」条件をがんばって整数の線形式で書き表す
線形式の制約による,線形目的関数の最大化問題
線形式で書けさえすれば,大域的なスコアを目的関数
に入れたり,大域的な制約を入れられる
線形整数計画問題で解ける!
© 2010 IBM Corporation
IBM Research - Tokyo
51 自然言語処理勉強会@東京 第3回2010/11/07
目次
係り受け解析とは何か
–用語の説明
–タスクの説明
手法の紹介
–Shift-reduce法
–Eisner法
–その他の手法
まとめ
© 2010 IBM Corporation
IBM Research - Tokyo
52 自然言語処理勉強会@東京 第3回2010/11/07
おさらい
係り受け解析とは?
–単語の係り先を当てる問題
–構造を当てる問題なので,候補がたくさんあってタイヘン
主な手法は2つの派閥
–局所最適だが大域素性のTransition-based
–大域最適だが局所素性のGraph-based
2つの手法を紹介した
–Shift-Reduce法はスタックを使った方法
–Eisner法は動的計画法を使った方法
© 2010 IBM Corporation
IBM Research - Tokyo
53 自然言語処理勉強会@東京 第3回2010/11/07
使ってみよう
日本語
–KNP (@黒橋研)
•http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html
•ルールベース
–CaboCha (工藤さん)
•http://chasen.org/~taku/software/cabocha/
•Cascaded Chunking Model
英語
–MSTParser (R. McDonald)
•http://sourceforge.net/projects/mstparser/
•MST, Eisner
–MaltParser (J. Nivre)
•http://maltparser.org/
•Shift-Reduce
© 2010 IBM Corporation
IBM Research - Tokyo
54 自然言語処理勉強会@東京 第3回2010/11/07
ご清聴ありがとうございました
© 2010 IBM Corporation
IBM Research - Tokyo
55 自然言語処理勉強会@東京 第3回2010/11/07
参考文献
Shift-Reduce
– [Nivre03] J. Nivre, An Efficient Algorithm for Projective
Dependency Parsing. IWPT 003.
– [Yamada&Matsumoto03] H. Yamada and Y. Matsumoto, Statistical
Dependency Analysis with Support Vector Machines. IWPT 2003.
– [Nivre04] J. Nivre, Incrementality in Deterministic Dependency
Parsing. Workshop on Incremental Parsing 2004.
– [Nivre09] J. Nivre, Non-Projective Dependency Parsing in Expected
Linear Time. ACL-IJCNLP 2009.
Eisner
– [Eisner96] J. M. Eisner, Three New Probabilistic Models for
Dependency Parsing: An Exploration. COLING 1996.
– [Jimenez&Marzal01] V. Jimenez and A. Marzel, Computation of the N
best parse trees for weighted and stochastic context-free
grammars. Advances in Pattern Recognition.
– [Koo&Colins10] T. Koo and M. Collins, Efficient third-order
dependency parsers. ACL 2010.
© 2010 IBM Corporation
IBM Research - Tokyo
56 自然言語処理勉強会@東京 第3回2010/11/07
参考文献
MST
–[McDonald+05] R. McDonald, F. Pereira, K. Ribarov and J.
Hajic, Non-projective Dependency Parsing using
Spanning Tree Algorithms. f HLT-EMNLP 2005.
ILP
–[Riedel&Clarke06] S. Riedel and J. Clarke, Incremental
Integer Linear Programming for Non-projective
Dependency Parsing. EMNLP 2006.
–[Martins et.al.09] A. F. T. Martins, N. A. Smith and E. P. Xing,
Concise Integer Linear Programming Formulations for
Dependency Parsing. ACL-IJCNLP 2009.
その他
–[工藤&松本04] 工藤 拓, 松本 裕治. 相対的相対的相対的相対的なななな係係係係りやすさをりやすさをりやすさをりやすさを考慮考慮考慮考慮したしたしたした日本日本日本日本
語係語係語係語係りりりり受受受受けけけけ解析解析解析解析モデルモデルモデルモデル. SIGNL-162, 2004.

Mais conteúdo relacionado

Mais procurados

Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜Megagon Labs
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
Pythonではじめるロケーションデータ解析
Pythonではじめるロケーションデータ解析Pythonではじめるロケーションデータ解析
Pythonではじめるロケーションデータ解析Hiroaki Sengoku
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCHDeep Learning JP
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景Masato Nakai
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Yamato OKAMOTO
 

Mais procurados (20)

Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
Pythonではじめるロケーションデータ解析
Pythonではじめるロケーションデータ解析Pythonではじめるロケーションデータ解析
Pythonではじめるロケーションデータ解析
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
Word2vecの理論背景
Word2vecの理論背景Word2vecの理論背景
Word2vecの理論背景
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 

Semelhante a 統計的係り受け解析入門

kagamicomput201701
kagamicomput201701kagamicomput201701
kagamicomput201701swkagami
 
kagamicomput201801
kagamicomput201801kagamicomput201801
kagamicomput201801swkagami
 
kagami_comput2016_01
kagami_comput2016_01kagami_comput2016_01
kagami_comput2016_01swkagami
 
kagami_comput2015_1
kagami_comput2015_1kagami_comput2015_1
kagami_comput2015_1swkagami
 
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化Kazuaki Ishizaki
 
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmYuya Unno
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative OptimizationTakuya Minagawa
 
NeurIPS2020参加報告
NeurIPS2020参加報告NeurIPS2020参加報告
NeurIPS2020参加報告Sho Takase
 
20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdfKazuaki Ishizaki
 
20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_publicKazuaki Ishizaki
 
TSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くTSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くRui High
 
20171212 titech lecture_ishizaki_public
20171212 titech lecture_ishizaki_public20171212 titech lecture_ishizaki_public
20171212 titech lecture_ishizaki_publicKazuaki Ishizaki
 
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Akiko Kosaka
 
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Kenji Hiranabe
 
CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析Ryosuke Tanno
 
Interop2017
Interop2017Interop2017
Interop2017tak9029
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 

Semelhante a 統計的係り受け解析入門 (20)

kagamicomput201701
kagamicomput201701kagamicomput201701
kagamicomput201701
 
kagamicomput201801
kagamicomput201801kagamicomput201801
kagamicomput201801
 
kagami_comput2016_01
kagami_comput2016_01kagami_comput2016_01
kagami_comput2016_01
 
kagami_comput2015_1
kagami_comput2015_1kagami_comput2015_1
kagami_comput2015_1
 
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
静的型付き言語用Just-In-Timeコンパイラの再利用による、動的型付き言語用コンパイラの実装と最適化
 
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative Optimization
 
NeurIPS2020参加報告
NeurIPS2020参加報告NeurIPS2020参加報告
NeurIPS2020参加報告
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf
 
20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public20151112 kutech lecture_ishizaki_public
20151112 kutech lecture_ishizaki_public
 
TSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くTSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解く
 
20171212 titech lecture_ishizaki_public
20171212 titech lecture_ishizaki_public20171212 titech lecture_ishizaki_public
20171212 titech lecture_ishizaki_public
 
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
 
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
Tohnaka Giri Ninjo Programmer Tohnaka at AgileJpan 2011
 
CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析
 
Interop2017
Interop2017Interop2017
Interop2017
 
T69 episteme
T69 epistemeT69 episteme
T69 episteme
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラムアルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
 

Mais de Yuya Unno

深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来Yuya Unno
 
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネスYuya Unno
 
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするYuya Unno
 
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動Yuya Unno
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化Yuya Unno
 
進化するChainer
進化するChainer進化するChainer
進化するChainerYuya Unno
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアルYuya Unno
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーションYuya Unno
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...Yuya Unno
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門Yuya Unno
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Yuya Unno
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴Yuya Unno
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得Yuya Unno
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」Yuya Unno
 
Chainer入門と最近の機能
Chainer入門と最近の機能Chainer入門と最近の機能
Chainer入門と最近の機能Yuya Unno
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクールYuya Unno
 
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端Yuya Unno
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep LearningYuya Unno
 

Mais de Yuya Unno (20)

深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来深層学習で切り拓くパーソナルロボットの未来
深層学習で切り拓くパーソナルロボットの未来
 
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネス
 
ベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をするベンチャー企業で言葉を扱うロボットの研究開発をする
ベンチャー企業で言葉を扱うロボットの研究開発をする
 
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化
 
進化するChainer
進化するChainer進化するChainer
進化するChainer
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
 
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
 
Chainer入門と最近の機能
Chainer入門と最近の機能Chainer入門と最近の機能
Chainer入門と最近の機能
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
 
企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端企業における自然言語処理技術利用の最先端
企業における自然言語処理技術利用の最先端
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep Learning
 

Último

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Último (8)

自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

統計的係り受け解析入門

  • 1. © 2010 IBM Corporation 自然言語処理勉強会@東京 統計的係り受け解析入門 日本アイ・ビー・エム(株)東京基礎研究所 海野 裕也(@unnonouno) 自然言語処理勉強会@東京
  • 2. © 2010 IBM Corporation IBM Research - Tokyo 2 自然言語処理勉強会@東京 第3回2010/11/07 自己紹介 (1/2) 海野 裕也(うんの ゆうや) –twitter: @unnonouno –blog: http://unnonouno.blogspot.com –NLPかプログラミングか写真の話題 日本アイ・ビー・エム 東京基礎研究所所属 –今はTRLという略称は使われていません:) –テキストマイニング,自然言語処理の研究開発 –主に,動的計画法と木構造と戯れている
  • 3. © 2010 IBM Corporation IBM Research - Tokyo 3 自然言語処理勉強会@東京 第3回2010/11/07 自己紹介 (2/2) 読めない unno / no / uno –≠unnounno, unonono –たまにリプライ先を間違えられる 海野(うんの) / の / UNO –この文自体に特に意味はない かな漢字変換と分かち書きという日本語自然言語処理 特有の問題を表したID @unnonouno
  • 4. © 2010 IBM Corporation IBM Research - Tokyo 4 自然言語処理勉強会@東京 第3回2010/11/07 今日のお話 係り受け解析とは何か知ろう いくつかの重要な用語,記法を知ろう 典型的なアルゴリズムを知ろう
  • 5. © 2010 IBM Corporation IBM Research - Tokyo 5 自然言語処理勉強会@東京 第3回2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ
  • 6. © 2010 IBM Corporation IBM Research - Tokyo 6 自然言語処理勉強会@東京 第3回2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ
  • 7. © 2010 IBM Corporation IBM Research - Tokyo 7 自然言語処理勉強会@東京 第3回2010/11/07 係り受け解析とは何か? 各単語(or文節)の係り先を決定する 係り先とは何ぞや?という問題は割愛します :) 今日, 私は NLPの 発表を した。 ※日本語だと係り元から係り先を指すことが多い 紫の部分を当てる問題
  • 8. © 2010 IBM Corporation IBM Research - Tokyo 8 自然言語処理勉強会@東京 第3回2010/11/07 海賊王に俺はなる! 海賊王に俺は なる! 名詞節 動詞節 文 海賊王に 俺は なる! 海賊王に俺は なる! 海賊王に 俺は なる! 係り受け(依存文法) 句構造文法 ? 文法を変える? 左の構造を変換 する? どちらも自然に 扱える 名詞節 動詞節 文法は適当です
  • 9. © 2010 IBM Corporation IBM Research - Tokyo 9 自然言語処理勉強会@東京 第3回2010/11/07 係り受け解析の応用例 情報抽出に使う –「私は・・・発表を・・・した」を探す 今日, 私は NLPの 発表を した。 話した。私は 人と発表を した ○ × 私は 発表を した。 単なる単語共起ではゴミが多いときに有効
  • 10. © 2010 IBM Corporation IBM Research - Tokyo 10 自然言語処理勉強会@東京 第3回2010/11/07 教科書の紹介 Dependency Parsing (Synthesis Lectures on Human Language Technologies) –S. Kubler, R. McDonald, J. Nivre –MSTパーザーのR. McDonaldとShift- ReduceパーザーのJ. Nivreの本 –読みやすいのでお勧め 言語と計算 (4) 確率的言語モデル –北 研二, 辻井 潤一 –この本にもEisner法と同等の手法が載ってる –最近の本を知っている人は教えてください
  • 11. © 2010 IBM Corporation IBM Research - Tokyo 11 自然言語処理勉強会@東京 第3回2010/11/07 係り受け解析の用語 今日は,交差なし・双方向を中心にはなします 交差あり (non-projective) 交差なし (projective) 双方向 単方向 最近は交差を許す問題設定が多い ほとんどの場合,交差しない 英語など一般的には双方向 日本語書き言葉など一部の言語
  • 12. © 2010 IBM Corporation IBM Research - Tokyo 12 自然言語処理勉強会@東京 第3回2010/11/07 問題の定式化 入力 –単語列 S = {w1, …, wn} 出力 –係り先 D = {d1, …, dn} –ただし,連結・非サイクルである必要アリ 長さnの単語列の各単語の係り先を出力 ラベル付きなどもあるが今回は無視 日本語の場合,文節単 位のことも多い 今日, 私は NLPの 発表を した。 国際的には矢印は逆向き
  • 13. © 2010 IBM Corporation IBM Research - Tokyo 13 自然言語処理勉強会@東京 第3回2010/11/07 思いつくままにやってみる(品詞編) 係り関係になりそうな品詞組みを考える –名詞,→動詞 –名詞は→動詞 –名詞の→名詞 –名詞を→動詞 係り関係になる品詞対をルール化すればよさそう 今日, 私は NLPの 発表を した。
  • 14. © 2010 IBM Corporation IBM Research - Tokyo 14 自然言語処理勉強会@東京 第3回2010/11/07 品詞だけでは解決できない例がすぐ思い浮かぶ 同じ名詞なのに係り先が異なる 本質的に曖昧な文も存在する –ex. 黒い目の大きな女の子 値段値段値段値段の 高い ワインを 飲んだ。 父父父父の 高い ワインを 飲んだ。
  • 15. © 2010 IBM Corporation IBM Research - Tokyo 15 自然言語処理勉強会@東京 第3回2010/11/07 プログラミング言語の構文解析との違い プログラミング言語の文法は曖昧性がない –1つの文に対して高々1つの構文木しか存在しない –線形時間で必ず解析できるクラスに限定される 自然言語の文法は曖昧 –1つの文に対して解釈可能な構文木が複数存在する –一般的には文長の指数個候補が存在する ルールのみでは1つの構文木に決定できない
  • 16. © 2010 IBM Corporation IBM Research - Tokyo 16 自然言語処理勉強会@東京 第3回2010/11/07 機械学習を使ってみよう それぞれの単語の係り先を多値分類 交差しないよう,全単語に対して繰り返す これで結構いい精度がでる –通称,相対モデル [工藤&松本04] –多値分類は最大エントロピー法を使う 今日, 私は NLPの 発表を した。 今日, 私は NLPの 発表を した。
  • 17. © 2010 IBM Corporation IBM Research - Tokyo 17 自然言語処理勉強会@東京 第3回2010/11/07 係り受け解析の難しさ 先の手法は全候補を網羅していない 出力の候補は入力長の指数オーダー以上 –各単語の係り先候補がnくらいあるので,出力Dの候補は 大体nnくらいある これを解消するために色んなテクを駆使する –文法理論,機械学習,動的計画法,グラフ理論,整数計 画法 本質的には膨大な候補存在する ところをどう抑えるかが鍵
  • 18. © 2010 IBM Corporation IBM Research - Tokyo 18 自然言語処理勉強会@東京 第3回2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ
  • 19. © 2010 IBM Corporation IBM Research - Tokyo 19 自然言語処理勉強会@東京 第3回2010/11/07 係り受け解析の2大派閥 膨大な候補から選ぶ戦略として2つの手法方向性がある Transition-based (局所最適型) –局所的な選択を繰り返すため,大域最適ではない –複雑な特徴量を使える –Shift-Reduce Graph-based (大域最適型) –全候補の中からスコア最大の木を選ぶ –単純な特徴量しか使えない –MST,Eisner
  • 20. © 2010 IBM Corporation IBM Research - Tokyo 20 自然言語処理勉強会@東京 第3回2010/11/07 両者を比較する 局所最適 大域最適 ローカル素性 大域素性 Shift-Reduce MST Eisner Higher-order Eisner ILP 性能が良い 計算量を抑えながら大域素 性・大域最適を目指したい 性能が悪い 両方満たす代わり に解は近似解
  • 21. © 2010 IBM Corporation IBM Research - Tokyo 21 自然言語処理勉強会@東京 第3回2010/11/07 今日紹介する手法 Shift-Reduce法 –Transition-basedの代表的な手法 –実装簡単,高速 Eisner法 –Graph-basedの代表的な手法の一つ –動的計画法は楽しい –※こっちがメインです
  • 22. © 2010 IBM Corporation IBM Research - Tokyo 22 自然言語処理勉強会@東京 第3回2010/11/07 Shift-Reduce法 [Nivre03, Yamada&Matsumoto03] 前から順に読んで,未処理の単語をスタックに積む スタックと次の単語間に係り関係があったら消す 前から読んでいく人間の理解に近い(?) 例)今日,私はNLPの・・・ 今日, 私は NLPの 発表を した。 ※係り先が決まっていない単語 スタックスタックスタックスタック
  • 23. © 2010 IBM Corporation IBM Research - Tokyo 23 自然言語処理勉強会@東京 第3回2010/11/07 Shift-Reduce法の特徴 積む(shift)か消す(reduce)の分類を繰り返す 利点 –高速(線形時間),作るのが簡単 –遠くの構造を素性に入れられる 欠点 –大域最適ではない(garden pathなどに弱い) –自明には交差に対応できない This This is is is a is a is pen is pen shift shift left shift shift left right
  • 24. © 2010 IBM Corporation IBM Research - Tokyo 24 自然言語処理勉強会@東京 第3回2010/11/07 Shift-Reduceの詳細 [Nivre04] 入力をそのまま積む(shift) スタックの上2つに係り関係をつける(left / right) 操作の異なる亜種は多い これらの操作で生成される構造に交差はない This is a pen This This is is is a is a is pen is pen shift shift left shift shift left right
  • 25. © 2010 IBM Corporation IBM Research - Tokyo 25 自然言語処理勉強会@東京 第3回2010/11/07 Swap操作で交差へ対応 [Nivre09] スタックの2番目の要素を戻すSwap操作を追加 A B C A A B A C A A B B shift shift shift swap right shift right A C B B swapされたノードは一 度入力列に戻される
  • 26. © 2010 IBM Corporation IBM Research - Tokyo 26 自然言語処理勉強会@東京 第3回2010/11/07 Eisner法 動的計画法により大域最適を探す CKYアルゴリズムと同種の方法を使う –基本的に非交差しか扱えない 局所的な素性しか扱えない –“局所”の度合いで複雑度が異なる(cf. 高階Eisner)
  • 27. © 2010 IBM Corporation IBM Research - Tokyo 27 自然言語処理勉強会@東京 第3回2010/11/07 おさらい:CKYアルゴリズム 句構造文法の構文解析手法 下図のような木構造を出力する 動的計画法で計算量はO(n3) 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 非終端記号 は省略
  • 28. © 2010 IBM Corporation IBM Research - Tokyo 28 自然言語処理勉強会@東京 第3回2010/11/07 チョムスキー標準形 (Chomsky Normal Form, CNF) 書き換え規則が2分割か,単語生成しかない文法 一般的には非終端記号( )にはラベルが振られてい る CKYアルゴリズムは文法がCNFである必要がある or w
  • 29. © 2010 IBM Corporation IBM Research - Tokyo 29 自然言語処理勉強会@東京 第3回2010/11/07 CKYアルゴリズムの定式化 sequenceに対するViterbiアルゴリズムのtree版 局所的なスコアの総和が最大になるtreeを選択する treeの候補は指数なので,全列挙はできない 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 各三角にスコアが割 り振られ,その総和 が全体のスコア
  • 30. © 2010 IBM Corporation IBM Research - Tokyo 30 自然言語処理勉強会@東京 第3回2010/11/07 CKYアルゴリズムを再帰で理解する(1/3) 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 (3-4) (3-5) (2-5) (1-5) 3番目から5番目の単語が 末端に来ることを示している (1-1) (2-2) (3-3) (4-4) (5-5) 領域に関して,以下のルールが成り立つ – (s, e) (s, k) + (k+1, e) – (s, s) 終端 左側の木と右側の木の境目を 再帰的に決定している
  • 31. © 2010 IBM Corporation IBM Research - Tokyo 31 自然言語処理勉強会@東京 第3回2010/11/07 CKYアルゴリズムを再帰で理解する(2/3) s k k+1 e (k+1 - e) (s - e) (s - k) sからeの領域をkとk+1で分けたときの最大スコアは,sからkの領域の最大 と,k+1からeの領域の最大と,三角の局所スコアの和 kをsからe-1まで変化させて最大値をとるkを探す sからk,k+1からeの領域も再帰的に最大の構造を探す ・・・ ・・・
  • 32. © 2010 IBM Corporation IBM Research - Tokyo 32 自然言語処理勉強会@東京 第3回2010/11/07 CKYアルゴリズムを再帰で理解する(3/3) 領域(s,e)の最大スコア f(s, e) は –f(s, e) = maxk {S(s,k,e) + f(s, k) + f(k+1, e)} –S(s,k,e) は (s,e) (s,k) (k+1,e) という規則に対す る局所的なスコア 領域(s,s)のスコア f(s,s) は –f(s, s)=0 上記再帰式をメモ化すればOK
  • 33. © 2010 IBM Corporation IBM Research - Tokyo 33 自然言語処理勉強会@東京 第3回2010/11/07 係り受けと句構造の比較 なんとなく形が似ている気もする・・・ 今日, 私は NLPの 発表を した。 今日, 私は NLPの 発表を した。
  • 34. © 2010 IBM Corporation IBM Research - Tokyo 34 自然言語処理勉強会@東京 第3回2010/11/07 関連の薄そうな2つは,以下の記号を導入すると・・・ 係り受けを句構造風に解釈するには? This is a pen ルール のところに係り受け w 句構造と同種の手法 (CKYやinside- outside)が使える気が してくる!
  • 35. © 2010 IBM Corporation IBM Research - Tokyo 35 自然言語処理勉強会@東京 第3回2010/11/07 Eisner法を数式で書いてみる C(s, e) = maxk(C(s, k) + I(k, e)) I(s, e) = S(s, e) + maxk(C(k, s) + C(k+1, e)) –ただし,S(s, e)はsがeに係ることに対するスコア 上記再帰式をメモ化すればOK Complete span Incomplete span
  • 36. © 2010 IBM Corporation IBM Research - Tokyo 36 自然言語処理勉強会@東京 第3回2010/11/07 Eisner法を擬似コードで書いてみる function comp(s, e): if s = e: return 0 elif (s, e) in comp_cache: return comp_cache[(s, e)] else: m = -INF for k in {s, …, e}: m = max(m, comp(s, k) + incomp(s, k)) return comp_cache[(s, e)] = m function incomp(s, e): if (s, e) in incomp_cache: return incomp_cache[(s, e)] else: m = -INF for k in {s, …, e-1}: m = max(m, S(s, e) + comp(k, s) + comp(k+1, e)) return incomp_cache[(s, e)] = m
  • 37. © 2010 IBM Corporation IBM Research - Tokyo 37 自然言語処理勉強会@東京 第3回2010/11/07 Nベスト出力 [Jimenez&Marzal2000] スコアの高い上位N件を出力したい 元の論文はPCFGをN-best化する方法
  • 38. © 2010 IBM Corporation IBM Research - Tokyo 38 自然言語処理勉強会@東京 第3回2010/11/07 ソート済み配列の足し算 ソート済み配列の足 し算をソートする priority queueを使 えば簡単に実現でき る 357101 6 10 12 2 810134 1214178 14161910 469 19 17 16 14 13 14 12 12 10
  • 39. © 2010 IBM Corporation IBM Research - Tokyo 39 自然言語処理勉強会@東京 第3回2010/11/07 CKYもEisnerも足し算の塊 (1/2) C(0, 4) + k=1 + k=2 + k=3 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) + k=4 C(0,4) I(4,4) 1, 1 1, 1 1, 1 1, 1 C(s, e) = maxk(C(s, k) + I(k, e)) 1 1 1 1番目の候補を探すC(0, 1)の1番目, I(1, 4)の1番目の意 これがbest 再帰的に計算する
  • 40. © 2010 IBM Corporation IBM Research - Tokyo 40 自然言語処理勉強会@東京 第3回2010/11/07 CKYもEisnerも足し算の塊 (2/2) C(0, 4) + k=1 + k=2 + k=3 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) + k=4 C(0,4) I(4,4) 1, 1 1, 1 1, 12, 1 1, 2 C(s, e) = maxk(C(s, k) + I(k, e)) 2 1 2 2番目の候補を探す 隣接候補を追加 これが2番 再帰的に計算する(I(2,4)は2番目を探す)
  • 41. © 2010 IBM Corporation IBM Research - Tokyo 41 自然言語処理勉強会@東京 第3回2010/11/07 Higher order Eisner 以上は 1st order Eisner と呼ばれる –1st order とは,係り元と係り先しか見ない より多くの依存関係を同時に見たくなる –2nd order •同じ係り先の兄弟 –3rd order •祖父と親と子,あるいは親と子の兄弟 –いずれも多項式時間で実現できる
  • 42. © 2010 IBM Corporation IBM Research - Tokyo 42 自然言語処理勉強会@東京 第3回2010/11/07 2nd order Eisner 兄弟に関する制約や素性を追加したい –例えば同じ格助詞を持つ文節は兄弟にしたくない 以下のノードを追加すると解決する 1st order 2nd order
  • 43. © 2010 IBM Corporation IBM Research - Tokyo 43 自然言語処理勉強会@東京 第3回2010/11/07 2nd order Eisnerを直感的に理解する 木をたどる操作には2種類ある 1. 子ノードに遷移する 2. 兄弟ノードを遷移する 1st order は,いわば2を1で無理やり表現したため, 兄弟間の素性を設計できない 2nd order では2を直接表現しているため,兄弟間 の素性を設計できる 今日, 私は NLPの 発表を した。1 2
  • 44. © 2010 IBM Corporation IBM Research - Tokyo 44 自然言語処理勉強会@東京 第3回2010/11/07 2nd order Eisnerを絵で理解する 1st order 2nd order (((w1, w2), w3), w4) 雰囲気としてはcar,cdrのような感じ w1 w2 w3 w4 w1 w2 w3 w4 兄弟関係を直接表現するノードがない
  • 45. © 2010 IBM Corporation IBM Research - Tokyo 45 自然言語処理勉強会@東京 第3回2010/11/07 3rd order Eisner [Koo&Colins2010] 親子だけではなくて孫も同時に見たい –uni-gramからbi-gramにする感覚 親子と同時に子の兄弟も見たい –親と兄弟の3項関係 T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010. 祖父を見ている 親と兄弟を同時に 見ている
  • 46. © 2010 IBM Corporation IBM Research - Tokyo 46 自然言語処理勉強会@東京 第3回2010/11/07 1st, 2nd, 3rd の比較 1st order 親子のみ 2nd order 兄弟を追加 3rd order 祖父,親,孫を追加 親,兄弟を追加 表現できる素性がだんだん増えている
  • 47. © 2010 IBM Corporation IBM Research - Tokyo 47 自然言語処理勉強会@東京 第3回2010/11/07 他の手法 簡単な紹介だけ MST ILP
  • 48. © 2010 IBM Corporation IBM Research - Tokyo 48 自然言語処理勉強会@東京 第3回2010/11/07 MSTパーザー 最大全域木(Maximum Spanning Tree)アルゴリズ ムを使う 詳しく紹介しないが,現在主流の手法の一つ
  • 49. © 2010 IBM Corporation IBM Research - Tokyo 49 自然言語処理勉強会@東京 第3回2010/11/07 MSTパーザーの特徴 [McDonald05] 最大全域木(Maximum Spanning Tree)アルゴリズムを使う 利点 –大域最適である –解析時の計算量がO(n2)と意外と小さい –交差を自然に解いてくれる 欠点 –直接の係り関係しか使えない –2nd order以上になるとNP hard This is a pen
  • 50. © 2010 IBM Corporation IBM Research - Tokyo 50 自然言語処理勉強会@東京 第3回2010/11/07 ILP (Integer Linear Programming)パー ザーの特徴 [Riedel&Clarke06, Martins+09] MSTパーザーのスコアを線形の目的関数にする 「木である」条件をがんばって整数の線形式で書き表す 線形式の制約による,線形目的関数の最大化問題 線形式で書けさえすれば,大域的なスコアを目的関数 に入れたり,大域的な制約を入れられる 線形整数計画問題で解ける!
  • 51. © 2010 IBM Corporation IBM Research - Tokyo 51 自然言語処理勉強会@東京 第3回2010/11/07 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ
  • 52. © 2010 IBM Corporation IBM Research - Tokyo 52 自然言語処理勉強会@東京 第3回2010/11/07 おさらい 係り受け解析とは? –単語の係り先を当てる問題 –構造を当てる問題なので,候補がたくさんあってタイヘン 主な手法は2つの派閥 –局所最適だが大域素性のTransition-based –大域最適だが局所素性のGraph-based 2つの手法を紹介した –Shift-Reduce法はスタックを使った方法 –Eisner法は動的計画法を使った方法
  • 53. © 2010 IBM Corporation IBM Research - Tokyo 53 自然言語処理勉強会@東京 第3回2010/11/07 使ってみよう 日本語 –KNP (@黒橋研) •http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html •ルールベース –CaboCha (工藤さん) •http://chasen.org/~taku/software/cabocha/ •Cascaded Chunking Model 英語 –MSTParser (R. McDonald) •http://sourceforge.net/projects/mstparser/ •MST, Eisner –MaltParser (J. Nivre) •http://maltparser.org/ •Shift-Reduce
  • 54. © 2010 IBM Corporation IBM Research - Tokyo 54 自然言語処理勉強会@東京 第3回2010/11/07 ご清聴ありがとうございました
  • 55. © 2010 IBM Corporation IBM Research - Tokyo 55 自然言語処理勉強会@東京 第3回2010/11/07 参考文献 Shift-Reduce – [Nivre03] J. Nivre, An Efficient Algorithm for Projective Dependency Parsing. IWPT 003. – [Yamada&Matsumoto03] H. Yamada and Y. Matsumoto, Statistical Dependency Analysis with Support Vector Machines. IWPT 2003. – [Nivre04] J. Nivre, Incrementality in Deterministic Dependency Parsing. Workshop on Incremental Parsing 2004. – [Nivre09] J. Nivre, Non-Projective Dependency Parsing in Expected Linear Time. ACL-IJCNLP 2009. Eisner – [Eisner96] J. M. Eisner, Three New Probabilistic Models for Dependency Parsing: An Exploration. COLING 1996. – [Jimenez&Marzal01] V. Jimenez and A. Marzel, Computation of the N best parse trees for weighted and stochastic context-free grammars. Advances in Pattern Recognition. – [Koo&Colins10] T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010.
  • 56. © 2010 IBM Corporation IBM Research - Tokyo 56 自然言語処理勉強会@東京 第3回2010/11/07 参考文献 MST –[McDonald+05] R. McDonald, F. Pereira, K. Ribarov and J. Hajic, Non-projective Dependency Parsing using Spanning Tree Algorithms. f HLT-EMNLP 2005. ILP –[Riedel&Clarke06] S. Riedel and J. Clarke, Incremental Integer Linear Programming for Non-projective Dependency Parsing. EMNLP 2006. –[Martins et.al.09] A. F. T. Martins, N. A. Smith and E. P. Xing, Concise Integer Linear Programming Formulations for Dependency Parsing. ACL-IJCNLP 2009. その他 –[工藤&松本04] 工藤 拓, 松本 裕治. 相対的相対的相対的相対的なななな係係係係りやすさをりやすさをりやすさをりやすさを考慮考慮考慮考慮したしたしたした日本日本日本日本 語係語係語係語係りりりり受受受受けけけけ解析解析解析解析モデルモデルモデルモデル. SIGNL-162, 2004.