SlideShare uma empresa Scribd logo
1 de 36
深層学習による
自然言語処理
言語処理における深層学習の基礎
藤堂 健世
東京工業大学 博士2年
@yousui_t_ken
自己紹介
東京工業大学情報理工学院博士2年
①知能とはなにか?みたいな厨二的な感覚で人工
知能の研究を始める(学部教育学)
②1つのアイデアとして、感情(Emotion)と性格
(Personality)を組み込んだエージェントを作りた
いと思い研究を進めていた
③次の研究どうしよう→機械による言語・概念創
発っておもしろそうじゃない?機械独自のコミュニ
ケーションってどういう体型なんだろう?生命現象
としても面白いんじゃないか?
④研究室教授とバトル中(そろそろデータをまと
めないと行けないシーズン)
全然更新していないけどブログ
もやっています
「やわやわ人工知能考察」
技術論ではなく、そもそも「人
工知能ってなんやねん」という
ものを今のSOTA的技術を使っ
て説明しようとかする無理ゲー
コンセプト
次回
・ボンガルド問題
・パターンの外側に何がある?
http://www.foundalis.com/res/bps/bpidx.htm
BP#10. Designer: M. M. Bongard
みんなで解こうボンガルド
ニューラル翻訳で消えてしまった
モンティ・パイソン小ネタシリーズ
目次
「深層学習による自然言語処理」の
Chapter3「言語処理における深層学習基礎」
pp43~pp72
サブタイトルは以下の通りです
3.1.準備:記号の世界とベクトルの世界の橋渡し
3.2.言語モデル
3.3.分散表現
このスライドで重要なのは
現実世界の離散情報をどのようにすればニューラルネット
で記述で扱えるようになるのだろうか?
3.1.準備:記号の世界とベクトルの世界の橋渡し
■画像認識・音声認識と自然言語処理で利用する情報の違い
画像認識・音声認識 数値 連続値
自然言語処理 文字・単語・記号 離散値
ニューラルネットで「記号」を処理するためには
記号の世界から、「実数値連続領域の世界」に変換する必要がある
ぼく、連続値しか利用できないよ
3.1.準備:記号の世界とベクトルの世界の橋渡し
橋渡しの1つの方法→「One-Hotベクトル表記*」
*論文によっては、1-of-Kベクトルと呼ぶ場合もある。K次元ベクトルの中の1つの要素だけ、1(残りはすべて0)のベクトルという意
味になるため
One-Hotはベクトルの世界の橋渡しの入り口である。
実際の計算では埋め込み行列を使って分散表現化して利用する。
3.1.準備:記号の世界とベクトルの世界の橋渡し
ニューラルネットワークによって
処理された「何らかの記号」は、
そのままの状態では離散値の情報で
あり、使い勝手が悪い
→ベクトルから記号の世界へ
戻す必要がある。
■Softmax関数を利用することで可能になる
この数式はoのすべての要素の中で、最も大きい値を取る要素番号の値が1に
なり、それ以外が0になるベクトルを返すことになる。
→One-hotへの変換が可能
3.1.準備:記号の世界とベクトルの世界の橋渡し
記号の世界 One-Hot ベクトル 連続値の世界
分散表現化
ソフトマックス関数
One-Hotベクトル列を実際を
入出力として利用する
どっちが自然な「言語」だろうか?
どうすれば、自然言語ぽさを計測できるか?
→言語モデル(確率的言語モデル)をたてる
文や文章が生成される確率をモデル化したもの
言語モデルを利用することで
●文章の自然言語らしさを推定する
●確率分布から単語をサンプリングし、文章を生成する
3.2. 言語モデル(Language model;LM)
「天気良い今日はにゅ。に
ゃにゃにゃ」
「今日は良い天気ですね」
3.2. 言語モデル(Language model;LM)
■言語モデルの表し方の前に…
長さTの単語列をY=(y1,y2,y3,...,yT)とする*。
このとき単語列Yを生成する確率をP(Y)と表すことができる。
ただ、このままでは「文」として完成していることが明示的でない。
なので、文頭と文末を能わす仮想単語「BOS」と「EOS」を利用する。
BOSとEOSを導入すると、Yは新しい単語列Y'として表される。
また、このときの確率もP(Y’)として表される
*Yの中身であるytは厳密には、単語に対応するOne-hotベクトルである。
3.2. 言語モデル(Language model;LM)
P(BOS今日は良い天気ですねEOS)
P(BOS天気良い今日はにゅ。にゃにゃにゃEOS)
このP(・)を正しく推定してくれるモデルを構築したい。
この言語モデルをどのようにして構築するか・・・?
●Nグラム言語モデル
●ニューラル言語モデル(neural language model)
「天気良い今日はにゅ。に
ゃにゃにゃ」
「今日は良い天気ですね」
3.2. 言語モデル(Language model;LM)
■実際の言語モデル構築を考える
T個の単語からなる文に、
文頭と文末の仮想単語を含めた文を
Y=(y0,y1,y2,y3,...,yT,yT+1)
と定義する
言語モデルとして、この文Yの生成確率をP(Y)を
モデル化することを考える
→ただし直接P(Y)を直接モデル化することは困難*
である。
*「困難」…文の種類はそれこそ無限に考えられるため、無限の種類のデータ
に対して十分な量の訓練データを揃えることは困難。またデータを揃えたとし
ても、効率的にモデルを学習することはやっぱり困難…
P(Y)?
無理無理?
3.2. 言語モデル(Language model;LM)
■言語モデルは次の戦略を利用する
言語モデルは、直前に出現したいくつかの単語
を文脈*として次の単語の出現確率をモデル化す
る。
*言語モデルにおいて、ある単語の出現確率を計
算するときに用いる周辺の単語を文脈(context)
と呼ぶ
確率的言語モデルは以下の式で表される
(3.5)
(3.8)(t-a)単語だけ使うとこの式になる
今日 僕は 彼女と ご飯を 〇〇
このへんの
単語を利用して
この単語の出現
確率をモデル化
する
■この言語モデルが、NNモデルの基本的の形になる
3.2. 言語モデル(Language model;LM)
3.2.3.順伝播型ニューラルネットワーク基本モデル(FFNN言語モデル)
ニューラル言語モデルのサブカテゴリとして、順伝播型ニューラルネットを用い
た言語モデルを総称して順伝播型ニューラル言語と呼ぶ
(3.9)
3.2. 言語モデル(Language model;LM)
例えば3層のニューラルネットワークでt番目の単語の生成確率Pを求めたい
(3.11)
私の話、
自然言語の
確率
小さすぎ!?
3.2. 言語モデル(Language model;LM)
3.2.4.再帰ニューラル言語モデル(RNN言語モデル)
順伝播型ニューラルと異なり、文脈帳を固定することなく可変長入力に対応でき
る。系列データのモデル化に適している。
ニューラル言語モデルのサブカテゴリとして再帰ニューラルネットワークを用い
た言語モデルを再帰ニューラル言語モデル(RNN language model)よぶ。
(3.12)
3.2. 言語モデル(Language model;LM)
例えば,1層の再帰ニューラルネットワークではこの様に表現する
3.2. 言語モデル(Language model;LM)
3.2.5.言語モデル評価・・・パープレキシティ(PPL)が利用される
式を見ると後半の部分は負の対数尤度として見ることができる
PPLは単語を予測する確率分布に
どれだけばらつきがあるか評価し
ている。
→PPLが小さいほど、評価データ
の確率分布と言語モデルが似てい
ることになる。
3.2. 言語モデル(Language model;LM)
3.2.6.言語モデルからの文生成
言語モデルは単語の生成確率をモデル化したもの
→生成確率に基づいてサンプリングすると
「それっぽい」文が作れるのではないか?
(3.15)
文頭から順番に次の単語を予測する処理と解釈す
ることもできる
何らかの分布を持
っている
言語モデル文頭から順番に単語
を入れていく
次の単語をサンプリ
ングする
今日 僕は 彼女と ご飯を 〇〇
このへんの
単語を利用して
この単語の出現
確率をモデル化
する
この単語を予測
できないか?
3.2. 言語モデル(Language model;LM)
3.2.6.言語モデルからの文生成
言語モデルは、ある文章が自然言語かどうかを判断する評価機である。(基準と
なる文章が存在する)
それを「生成モデル」として利用するためには、単語を逐次サンプリングする必
要がある。(自分で自分の予測した結果を再利用する形になる)
→数式的には以下のような違いになっている
(3.16)
・(すなおな)言語モデルでは、文脈に対応するある単語の確率を出力する
・生成モデルでは、予測対象となる単語を出力している(事前には知らない)
3.2. 言語モデル(Language model;LM)
3.2.7. 文字単位の言語モデル
■単語より短い文字単位の言語モデルを考えることができる
→単語ベースだと訓練データに現れていない単語に対応することができない
→単語境界を事前に特定の問題
■課題もある
→単語や句などの人間が認識している大きな単位(長い依存関係)の学習が難し
い
→Tが必然的に長くなるわけだから、計算量や領域コストが掛かってしまう。
3.3. 分散表現
■記号を計算機上で賢く扱うための方法論→1つの研究領域として考えられる
記号の世界 One-Hot ベクトル 連続値の世界
ソフトマックス関数
分散表現化
3.3. 分散表現
離散
オブジェクト
One-Hot ベクトル 連続値の世界
分散表現化
僕たちが話す
言葉は
離散オブジェクト
3.3. 分散表現
離散オブジェクト ベクトル空間で表された分散表現
単語に着目した分散表現を」「単語分散表現(単語埋め込み)」と呼ぶ
類似度の定義が難しい
ベクトル空間上で
表現されているので
類似度や関係性を数値として
表現することができる
3.3.2.歴史的背景
3.3. 分散表現
自然言語処理の文脈で利用した分布仮説のアイデアが
ニューラルネット研究とうまく融合できた
ニューラルネット研究からの視点 自然言語処理研究からの視点
1980年代のHintonらの研究から、
脳のモデル化する方法として生ま
れた。
その後、ニューラルネットワーク
で単語分散表現に成功することが
できた(2000年)
単語の分布仮説
…周囲の文脈によって単語の意味
が決まる
これにより、単語間に何かしらの
類似度を与えることができる
3.3. 分散表現
3.3.3 分散表現の獲得方法
よい分散表現とはなにか?
意味の似ている離散オブジェクトは近く、反対の意味の離散オブジェクトは遠く
なれば、よい分散表現として考えることができる
3.3. 分散表現
3.3.3 分散表現の獲得方法
(1)ニューラル言語モデルを用いる
(3.11)の式の一番上のみ
↑より、一般的なニューラル言語モデルを学習することで、同時に分散表現も獲
得できたことになる
(図3.4.)
変換行列が分散表現として利用できる
入力の際の変換行列が似ていれば、出力も類似する→良い性質となる
Ex)「おはよう」と「こんにちは」の変換行列、出力が類似すれば・・・?
3.3. 分散表現
3.3.3 分散表現の獲得方法
(2)対数双線形モデルに基づく分散表現の獲得
→ニューラル言語モデルの派生
ニューラル言語モデルだと大規模データ用いると性能上がるけど、計算量的に困
難じゃん・・・?
→なら、最も簡単なニューラル言語モデルを作ればいいんじゃない?
実際にはSkip-gramモデルとCBoWモデルを総称・包括したツール
わしら、2つの内
積ベクトルで構成
されていてめっち
ゃ早いねん
3.3. 分散表現
3.3.3 分散表現の獲得方法
(2)対数双線形モデルに基づく分散表現の獲得
周りの単語からある単語を予測するモデル 1つの単語から周囲の単語を予測する
CBoWモデル Skip-gramモデル
3.3. 分散表現
3.3.3 分散表現の獲得方法
(2)対数双線形モデルに基づく分散表現の獲得
=■学習方法
訓練データをD ・・・ として
目的関数を符の対数尤度として取ると
(3.21)
となり、実際の計算式である(3.17) を代入すると
となる
ほら、2つの内積で構成されてい
るからこんな簡単なニューラルネ
ットになるんだよ
3.3. 分散表現
3.3.3 分散表現の獲得方法
(3)負例サンプリングによる高速化
詳細な説明は4.3.4節に譲ります・・・
←実際にWord2Vecで利用されている計算方法
訓練データを生成する
確率分布
ノイズデータ
(間違ったデータ)を
生成する確率分布
クラス分類のタスクとして判断する
3.3. 分散表現
3.3.3 分散表現の獲得方法
(3)負例サンプリングによる高速化
訓練データを生成する確率分布を表現する確率モデル
ノイズデータの確率モデルはこのPD’=(1−P)となる
この目的関数は次のようになる
データを考慮すると次になる
3.3. 分散表現
■よい分散表現は様々な自然言語処理の応用タスクで利用されている
■Word2Vecが今の所性能が良いとされているが、単語だけでなく、句・文・文
章を含んだ分散処理が期待されている
ご清聴ありがとうございました

Mais conteúdo relacionado

Mais procurados

読書感想文をかこう!
読書感想文をかこう!読書感想文をかこう!
読書感想文をかこう!Takahiro Yaota
 
論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソンT2C_
 
パターン認識にとっかかる
パターン認識にとっかかるパターン認識にとっかかる
パターン認識にとっかかるJun Saeki
 
Lab visit research
Lab visit researchLab visit research
Lab visit researchJunta Mizuno
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニングMunenori Sugimura
 
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」Hiro H.
 
人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できるYuji Shimada
 
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015 Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015 Tadahiro Taniguchi
 
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...Yuya Soneoka
 

Mais procurados (15)

自然言語処理
自然言語処理自然言語処理
自然言語処理
 
Gakusei lt
Gakusei ltGakusei lt
Gakusei lt
 
読書感想文をかこう!
読書感想文をかこう!読書感想文をかこう!
読書感想文をかこう!
 
論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン
 
パターン認識にとっかかる
パターン認識にとっかかるパターン認識にとっかかる
パターン認識にとっかかる
 
Lab visit research
Lab visit researchLab visit research
Lab visit research
 
Lab visit intro
Lab visit introLab visit intro
Lab visit intro
 
次元の呪い
次元の呪い次元の呪い
次元の呪い
 
おとなのテキストマイニング
おとなのテキストマイニングおとなのテキストマイニング
おとなのテキストマイニング
 
合宿の成果
合宿の成果合宿の成果
合宿の成果
 
日中Ocr
日中Ocr日中Ocr
日中Ocr
 
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
 
人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる
 
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015 Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
 
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
 

Semelhante a nlpaper.challenge2 nlp1

「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライドMasatake Hori
 
高大連携授業20140730
高大連携授業20140730高大連携授業20140730
高大連携授業20140730義広 河野
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001Shin Asakawa
 
教員免許状更新講習20170804
教員免許状更新講習20170804教員免許状更新講習20170804
教員免許状更新講習20170804義広 河野
 
アクティブラーニングの要素 
アクティブラーニングの要素 アクティブラーニングの要素 
アクティブラーニングの要素 Makoto Kageto
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得Yuya Unno
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理Koki Nakamura
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれからSeiichi Uchida
 
情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介y_kasugai
 
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)Youichiro Miyake
 
教員免許状更新講習20140807
教員免許状更新講習20140807教員免許状更新講習20140807
教員免許状更新講習20140807義広 河野
 
「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」munyon74
 

Semelhante a nlpaper.challenge2 nlp1 (17)

2016tf study5
2016tf study52016tf study5
2016tf study5
 
「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド
 
高大連携授業20140730
高大連携授業20140730高大連携授業20140730
高大連携授業20140730
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
 
Homo Deus 読書会話題提供
Homo Deus 読書会話題提供Homo Deus 読書会話題提供
Homo Deus 読書会話題提供
 
教員免許状更新講習20170804
教員免許状更新講習20170804教員免許状更新講習20170804
教員免許状更新講習20170804
 
Sakai 20111015
Sakai 20111015Sakai 20111015
Sakai 20111015
 
アクティブラーニングの要素 
アクティブラーニングの要素 アクティブラーニングの要素 
アクティブラーニングの要素 
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
 
情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介
 
Wikibana20100612
Wikibana20100612Wikibana20100612
Wikibana20100612
 
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
 
教員免許状更新講習20140807
教員免許状更新講習20140807教員免許状更新講習20140807
教員免許状更新講習20140807
 
研究の呪い
研究の呪い研究の呪い
研究の呪い
 
「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」
 

nlpaper.challenge2 nlp1