Mais conteúdo relacionado
Semelhante a [part 2]ナレッジグラフ推論チャレンジ・Tech Live! (20)
Mais de KnowledgeGraph (20)
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
- 3. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
ナレッジグラフ
知識グラフ(Knowledge Graph: ナレッジグラフ)とは
“知識グラフとは,グラフ構造で表現された知識.
知識グラフには,オントロジーとインスタンスの双方が含まれる”
https://github.com/KnowledgeGraphJapan/Tutorial/blob/master/What_Is_KG.md
3
"Example Wikidata Query knowledge graph showing Portrait of Madame X" © Fuzheado (Licensed under CC BY 4.0)
- 7. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
単語のベクトル化︓ word2vec
単語の意味を数値ベクトルで表現する⼿法
Ø Tomas Mikolov, et al. NeurIPS2013
Ø Googleがツールを公開し⼀気に話題に
ühttps://code.google.com/archive/p/word2vec/
「単語の意味は周辺に現れる単語の頻度で表現できる」という仮説に
基づく
Ø 意味が似ている単語は,周辺単語も似ているはず…︖
単語を数値ベクトル化することで,意味の近さを計算したり意味の⾜
し引きができる
Ø 例︓King – Man + Woman = Queen
ü 各単語ベクトルの⾜し引きをしたベクトルと
もっとも類似度の⾼いベクトルがQueenのベクトルとなった
7
[補足]ベクトル同士の類似度はcosθで
計算(Cosine類似度)
- 8. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
Word2vec: Skip-Gram
⼊⼒,隠れ層x1,出⼒の単純なニューラルネットワーク
ある単語を⼊⼒したとき,その周辺にどの単語が出現しやすいか学
習する
Ø 実際には(1単語の)⼊⼒に対して適切な(周辺単語の)出⼒をする隠
れ層の重み⾏列を学習する
Ø 単語のone-hotベクトルと学習した重み⾏列の内積が単語の意味ベクトル
8
w(t)
w(t+2)
w(t+1)
w(t-2)
w(t-1)
Input Output隠れ層
文: I want to eat apple. I like apple.
単語集合: {apple eat I like to want .}
絵で理解するWord2vecの仕組み
https://qiita.com/Hironsan/items/11b388575a058dc8a46a
(1, 0, 0, 0, 0, 0, 0)
appleのone-hotベクトル表現
2個前
1個前
1個後
2個後
- 12. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
Graph walk-basedモデル
DeepWalk(KDD’14)に代表されるナレッジグラフの埋め込みモデル
グラフ上をランダムウォークし,辿ったパスを元に⽣成するシーケンス集
合を⼊⼒とし,Skip-gramモデルを使⽤してベクトル化する
近年,「〜2vec」と名の付く多くの拡張モデルが提案されている
12
シーケンス:
v1→v2→v3→…
v2→v1→v4→…
v10→v6→v7→…
w(t)
w(t+2)
w(t+1)
w(t-2)
w(t-1)
Input Output隠れ層
- 15. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
RDF2vec
1. グラフ𝐺 = (𝑉, 𝐸)が与えられたとき,各頂点𝑣 ∈ 𝑉に関して起点𝑣!から深さ𝑑のウォーク
パス𝑃"を𝑣! → 𝑒#,% → 𝑣#,% → ⋯ → 𝑣&,%のように⽣成する(𝑖 ∈ 𝐸(𝑣!))
2. Weisfeiler-Lehman Subtree Graph Kernel for RDF (WLRDF)[ECML-PKDD’13]
を使⽤してラベルを更新する
15
1:11 →6
2:11→7
3:12→8
4:11,14→9
5:13→10
11:1→15
11:3→16
・・・
シーケンス例:
1→6→15→7; 1→6→15→7→18→8; 1→6→15→7→17→9; ・・・
3. リラベルグラフ上をグラフウォークし,WLRDFの反復回数分だけ生成する
11:2→17
12:2→18
13:4→19
14:3→20
最終的なシーケンス集合は⋃%'#
(
⋃"∈* 𝑃"となる(ℎ =反復回数)
Ristoski, P., & Paulheim, H. (2016, October). Rdf2vec: Rdf graph
embeddings for data mining. In International Semantic Web
Conference (pp. 498-514). Springer, Cham.
- 16. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会 16
シーケンス集合をもとにword2vec[NIPS’13]により各エンティティ
のベクトル表現を獲得
p word2vecのSkip-Gramモデルは3層からなるニューラルネットワークで,
入力単語が与えられた時の周辺語を学習
w(t)
w(t+2)
w(t+1)
w(t-2)
w(t-1)
Window幅(周辺単語)2の時の
Skip-Gramモデル図
Input Output隠れ層
ここで確率𝑝(𝑤$|𝑤$%&)はsoftmax関数を用いて
𝑝 𝑤' 𝑤! =
exp(𝑣(
)!
*
𝑣)"
)
∑)+"
,
exp(𝑣)
* 𝑣)"
)
次式を最大化
1
𝑇
9
$+"
*
9
&
log(𝑝(𝑤$|𝑤$%&))
RDF2vec (2)
- 17. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
Translation-basedモデル
TransE (NeuIPS’13)に代表されるKGの埋め込みモデル
head(h) tail(t)のトリプル<h,r,t>において,各エン
ティティのベクトル表現が,h+r≈tとなるように誤差を最⼩化する
タイプ
近年,「Trans〜」と名の付く多くの拡張モデルが提案されている
17
TransEのイメージ
relation(r)
主語のベクトルと
述語のベクトルを足したら
目的語のベクトルに近くなる?
Bordes, Antoine, et al. "Translating embeddings for modeling multi-relational
data." Advances in neural information processing systems. 2013.
- 19. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
TransH
ナレッジグラフでは1対多、多対1、多対多の関係も考慮する必
要があり、TransEはこれらのプロパティをうまく学習できない
Ø 例えばh, rが同じだがtが異なるトリプルが複数ある時,異なるtが⼀点に
埋め込まれてしまう
関係rを同じ空間に埋め込むのではなく、関係固有の超平⾯に
配置する
2020/10/2 19
Wang, Z., Zhang, J., Feng, J., & Chen, Z. (2014, July). Knowledge graph embedding by translating on hyperplanes. In Aaai (Vol.
14, No. 2014, pp. 1112-1119).
- 21. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
⽋損補完の流れ
1. 推論チャレンジの提供するナレッジグラフの埋め込み表現を得る
2. ベクトル同⼠の⾜し引き
Ø 任意のh, r, tの組み合わせで⾜し引きを⾏う
ü <h, r, (⽋損)>の場合︓h+rを計算
ü <(⽋損), r, t>の場合︓t-rを計算
3. ⾜し引きされた結果に最も近いベクトルを⾒つける
Ø コサイン類似度で計算可能
4. ⾒つかった類似度の⾼いベクトルのエンティティを⽤いて、ナレッジ
グラフにトリプルを追加する
2020/10/2 21
https://www.cse.kyoto-su.ac.jp/~g0846020/keywords/cosinSimilarity.html
- 25. CC-BY4.0: ⼈⼯知能学会 セマンティクWebとオントロジー(SWO)研究会
昨年の応募
ナレッジグラフの埋め込み技術を使った受賞作品
優秀賞
Ø ⿊川 茂莉 ⽒(KDDI総合研究所)
Ø 複数ナレッジグラフで共通のエンティティを考慮するためIPTransEを
使⽤
Ø https://github.com/KnowledgeGraphJapan/LOD-ws-
2020/raw/master/kgrc2020ws/KGRC20200909-KDDI.pdf
学⽣奨励賞
Ø 勝島 修平 ⽒(東京都市⼤学)
Ø Graph Neural Networkによる未知エンティティ(ナレッジグラフ内
に無いエンティティ)との関係を補完
Ø http://challenge.knowledge-
graph.jp/submissions/2019/katsushima/application_form_K
atsushima.pdf
2020/10/2 25