SlideShare a Scribd company logo
1 of 45
Download to read offline
子どもの言語獲得のモデルと	
  
NN	
  Language	
  Models
竹内 彰一
人工知能・ソフトウェア技術研究センター
千葉工業大学
人工知能・ソフトウェア技術研究センター
STAIR Lab. (Software Technology and Artificial Intelligence Research Laboratory)
  2015年4月1日創立
  所長:米澤明憲先生
  研究専門機関
n  学部・大学院とは独立の研究機関
n  人も重複なし
n  学生なし
  研究テーマ
n  人工知能
n  ソフトウェア技術
  研究員 募集中
http://stair.center	
  
https://www.facebook.com/stairlab	
  
	
  
自己紹介: 竹内彰一
STAIR Lab. 主席研究員
  経歴
n  1979年東京大学大学院工学系計数工学修士卒
•  甘利先生のもとで神経回路網の研究 
n  同年三菱電機中央研究所に入所
•  1982年から86年まで第五世代コンピュータプロジェクト(ICOT)に出向
n  1991年ソニーコンピュータサイエンス研究所シニアリサーチャ
n  1996年ソニー株式会社アーキテクチャ研究所所長
n  2005 年ソネット(株)シニアリサーチフェロー
n  2015年 千葉工大 ステアラボ 主席研究員
n  工学博士
人工知能、第五世代、ニューラルネットワーク、コンピュータヒューマンインタラクション、
ビッグデータ解析、Web マイニング、ネットワークサービスの研究開発等、いろいろ
  現在の研究テーマ
n  幼児の言語獲得、会話・経験を重ねるごとに賢くなる人工知能、ニューラルネットワーク全般、画
像・シーン認識
子どもの言語獲得・学習のモデル化とシミュレーションを目指して
研究概要
  ゴール
n  言語を喋り理解する人工知能を実現する
n  固定した語彙と構文を使いこなせるというのではなく、語彙も構文も経験とともに拡
大していくことが可能な言語能力	
  
n  言葉を通して知識を吸収する能力
  アプローチ
n  子供の言語獲得に学び、モデルを作ろう
  理由
n  獲得・発達過程を観察することで人間の言語処理の原理がわかる
n  「発達」のメカニズムを取り込みたい
  手段
n  Deep Neural Networks
なぜ DNN か
従来の会話する人工知能研究との違い
  子どももDNNもベースは Neural networks、ともに白紙の状態から言語を獲得する
  ゼロからブ−トストラップ(自力で)するモデルを研究する点で共通項は多い
n  まず記号の獲得から始まる
•  記号は外界に記号として存在しないし、生まれた時に脳の中に存在するわけでもない
•  記号は経験から学習しなくてはならない
•  獲得された記号は他の人間の記号と一致しなくてはならない
  従来AIでは「記号、その意味、記号間の関係、文構造と意味の対応」などを事前
にアドホックに設計する
n  自然言語処理アルゴリズム、辞書、知識表現、KB、等々
子どもの言語獲得	
今井むつみ先生やスティーブン・ピンカー氏の著書を参考に
  新生児は体内で母語の音韻の学習をしている	
  
n  生まれたばかりの新生児がしゃべったということは未だかつてない	
  
  18ヶ月ころに急激に進歩	
  
n  語彙爆発(1日に憶える語彙数が急激に増える)	
  
n  この時期、神経結合が大量に作られる(脳生理学的事実)	
  母語を学習できない子どもはいない(健康であれば)	
n  第2外国語の学習に失敗する子どもや大人はたくさんいるにもかかわらず	
  チンパンジーに人間の子どもと同じ環境を与えても言語(手話も)を獲得できない	
  
n  脳の構造が違うのか	
  
n  チンパンジーの脳とDeep	
  NNの何が違うのか	
  「言葉」らしい言葉	
  
n  単語や順番のない単語列は言葉と言えない(チンパンジー、ピジン語)	
  
n  二語文、三語文にして初めて言葉と言える(クレオール語)	
  
n  述語をマスターすると、表現力が格段に増す	
  子どもが獲得する順序に脳内の言語モデルがうかがえる	
n  名詞(形のあるもの→形のないもの) → 形容詞 → 動詞	
  
  言語は自己拡張能力があり、言語を獲得するとはそれも含めての話
Deep Neural Networks
Deep	
  Neural	
  Networks	
代表的な二種類のアーキテクチャ
  Convolu7on	
  Neural	
  Network	
  
n  空間認識に優れ、画像認識への応用が多い	
  
n  入力データから、1次特徴、2次特徴と順次特徴抽出を階層的に積み上げ、
それらの特徴を使って上位の層で多層パーセプトロン的に分類問題を解く	
  
  Recurrent	
  Neural	
  Network	
  
n  時間認識に優れ、言語モデルへの応用が多い	
  
n  時系列データを隠れ層に圧縮して蓄積	
  
n  問題(教師あり学習)に応じて蓄積内容が調整される	
  
元画像
Backpropagation	
Supervised Learning	
誤差関数 L(θ)	
L(θ)を最小にするθを探索	
CNN	
 RNN	
関数 プログラム
CNN	
様々な局所的な特徴の抽出	
 分類問題を解く	
分類問題で高い精度を出すためには
どんな特徴を抽出したらよいか
CNNは	
  
学習により	
  
抽出すべき特徴を	
  
決定する
CNNは学習により抽出すべき特徴を決定する
 	
様々な局所的な特徴の抽出	
 分類問題を解く	
分類問題を解くために	
  
最適化された特徴集合
画像の意味
RNN
  可変長の入出力	
  
  内部状態を保持
  Turing	
  complete	
  
n  任意のProcedureを実現で
きる(適当に結線すれば)	
  
時刻 t の入力
xt	
時刻 t の出力
yt	
時刻 t の隠れ層の状態
ht	
ht-1	
①
①
②
②
RNN	
  (Recurrent	
  Neural	
  Networks)	
x1	
 x2	
y1	
 y2	
h0
h1
h0 → h1
h1 → h2h1
h1 → h2
②
RNN	
  は任意長の時系列のサマリを	
  
固定長のベクトルに記憶する	
hN-1 → hN 	
長さN の入力列
x1 x2 ... xN-1xN	
時刻 N の出力
yN	
時刻 N の隠れ層の状態
hN	
②
N個の入力列の	
  
サマリ情報
短期のサマリ記憶	
  
文脈情報
LSTM
Long Short Term Memory
Neural Networks言語モデル
記号と意味
RNNによる文字からの文生成
Andrej Karpathy
トルストイ「戦争と平和」(英文)から文字のつながりを学習
文脈を考慮した文字と文字のつながりを学習する
  [100] tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne 'nhthnee e plia
tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lng
  [300] “Tmont thithey” fomesscerliund Keushey. Thom here sheulke, anmerenith ol sivh I
lalterthend Bleipile shuwy fil on aseterlome coaniogennc Phe lism thond hon at. MeiDimorotion in
ther thize.”
  [700] Aftair fall unsuch that the hall for Prince Velzonski's that me of her hearly, and behs to so
arwage fiving were to it beloge, pavu say falling misfort how, and Gogition is so overelical and ofter.
  [2000] “Why do what that day,” replied Natasha, and wishing to himself the fact the princess,
Princess Mary was easier, fed in had oftened him. Pierre aking his soul came to the packs and
drove up his father-in-law women.
Deep RNN
RNN Encoder – Decoder : Sequence to Sequence Mapping
  sequence (or one) to sequence (or one)の変換
図→文 文→分類 文→文図→分類 動画フレーム→分類
The	
  Unreasonable	
  Effectiveness	
  of	
  Recurrent	
  Neural	
  Networks	
  
Andrej	
  Karpathy	
  
RNN	
  Encoder	
  -­‐	
  Decoderによる翻訳
Sequence to Sequence Learning with Neural Networks
I. Sutskever, O. Vinyals, Q. V. Le @google
  Model
n  求めるもの=
•  x が原文、 y が翻訳文、 T≠T’
n  入力文をEncoder RNNに逆順にfeedし、最後の隠れ層の状態を c とする
n  入力文を全部 feedした後の意味ベクトルから出力文を Decoder RNN で順次生成
n  P(y1,…,yT’|x1,…,xT) = Π p(yt|c,y1,…,yt-1 )
  Architecture
n  Encoder, Decoderともに4層のRNN
n  各層に1000ユニット
n  単語ベクトル:1000次元
n  入力文のfeedは逆順
  Dataset
n  WMT’14 英仏翻訳データセットのサブセット 
•  12M個の文の対(ワード数 348M仏語、304M英語)
•  語彙数:英語 160K、仏語 80K (頻出後を選択、それ以外はUNK)
p(y1,…, y !T | x1,…, xT )
hidden
encoder
decoder
x1,…,xT y1,…,yT’
c
原文 NN 翻訳文
入力文が隠れ層でどのようなベクトルに変換されたか
PCA 主要2成分をマップ
  意味が同じ文どうしは距離が近い
  述語間の関係は、主語目的語にかかわらず保存
される
“M a J” – “J a M” + “J ilw M” = “M ilw J”
  受動態・能動態によっても意味が変わ
らないことを学習
RNN Encoder – Decoder による翻訳
  Dataset
n  語彙:英仏とも15,000語
n  文例:348M語
  モデル
n  単語ベクトル:500次元
n  隠れ層:1000次元
  学習期間
n  3日間
h
x
y
h
c
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
Kyunghyun Cho @ U.Montreal 他
Summary/Contextは固定長のベクトル	
意味空間を表している
  意味空間におけるPhrase間距離のマップ(PCA主要2成分の張る空間に射影)
意味の近いPhraseは互いに近いところにマップされている
h
x
y
h
c
RNN	
  Encoder	
  –	
  Decoder	
  Architectureの他の応用	
英文 仏文
画像 説明文
画像と質問 答文
物語と質問 答文
意味
(ベクトル表現)
見たものを言葉で説明する	
Show	
  and	
  Tell:	
  A	
  Neural	
  Image	
  Cap7on	
  Generator	
  
O.	
  Vinyals,	
  A.	
  Toshev,	
  S.	
  Bengio,	
  D.	
  Erhan	
  (Google)
	
  
  画像が与えられるとそのテキスト記述を自動生成する	
  
  Model	
  
n  p(正解の単語列|画像)を最大化するよう訓練	
  
  Architecture	
  
  Performance	
  
	
  
画像	
 キャプション	
CNN
RNN
画像の特徴から文を生成するルールを人間が作るより、画像と文の組み合わせからDLする方が良い結果を出せた
LSTM	
imagenetで訓
練済みのもの
state	
  of	
  the	
  art
CNNは学習により抽出すべき特徴を決定する
 	
様々な局所的な特徴の抽出	
 分類問題を解く	
分類問題を解くために	
  
最適化された特徴集合
画像の意味
最高スコアの文は80%の確率でtraining setにあった文
トップ15位までの生成文を調べると、50%の確率で
新規の文がみつかる。しかもその文は十分な品質を
持っていた
Word Embedding	
Word	
  embeddingはキャプショ
ンに出現する単語の共起関係に
影響を受ける	
  
	
  
word	
  embeddingが近い単語は
CNNの視覚的特徴でも似たオ
ブジェクトに対応付けられる
訓練例にない新しい
文を生成できた!
画像についての質問に答える
Are you talking to a Machine?#
Dataset and Methods for Multilingual Image Question Answering
Haoyuan Gao, Junhua Mao, Jie Zhou, Zhiheng Huang, Lei Wang, Wei Xu (Almost Baidu Research)
  画像とそれに写っている内容についての質問文を与えると、答え(文)を返す	
  
  Model	
  
n  p(正答の単語列|画像、質問文)を最大化するよう訓練	
  
  Architecture	
  
  Performance	
  
n  Dataset	
  FM-­‐IQA(Freestyle	
  Mul7lingual	
  Image	
  Ques7on	
  Answeringを作った	
  
•  120,000	
  images,	
  250,000	
  自由中国語QA文、その英語翻訳文	
  
n  チューリングテストで評価	
  
•  64.7%のケースで、人間の審判はmQAのアンサーと人間のそれを区別できなかった	
  
•  回答の正確さは	
  1.454	
  /	
  2.0	
  	
  (人間の回答の正確さは	
  1.918	
  /	
  2.0)	
LSTM1	
  
質問文を処理	
  
LSTM2	
  
回答文を処理 p(wn	
  |	
  w1,...,wn-­‐1)	
  
CNN	
  
Imagenetで事前に訓練して、固定	
  
回答生成	
  
p(wn	
  |	
  w1,...,wn-­‐1,	
  Image,	
  Q)	
  
対話
A Neural Conversational Model#
O. Vinyals, Q.V Le @google
  Model
n  SutskeverらのSeq2Seq Model
  Dataset
n  コールセンターの会話:30M 単語、ユーザとオペレーターの会話
n  映画のセリフ:62M 文(923M 単語)、前の文から次の文を予測させるように学習
  Train
n  次単語予測学習
会話例
Human:	
  my	
  name	
  is	
  david	
  .	
  what	
  is	
  my	
  name	
  ?	
  
	
  Machine:	
  david	
  .	
  
	
  Human:	
  my	
  name	
  is	
  john	
  .	
  what	
  is	
  my	
  name	
  ?	
  
	
  Machine:	
  john	
  .	
  
	
  Human:	
  are	
  you	
  a	
  leader	
  or	
  a	
  follower	
  ?	
  
	
  Machine:	
  i	
  ’m	
  a	
  leader	
  .	
  
	
  Human:	
  are	
  you	
  a	
  follower	
  or	
  a	
  leader	
  ?	
  
	
  Machine:	
  i	
  ’m	
  a	
  leader	
  
  短期記憶
  更新可能な記憶
  ある程度の持続
Conversation	
  	
  	
  2:	
  	
  	
  Simple	
  	
  	
  Q&A	
  	
  	
  (contexts	
  	
  	
  and	
  	
  	
  multiple	
  choice)	
  
会話例
Human:	
  who	
  is	
  skywalker	
  ?	
  
	
  Machine:	
  he	
  is	
  a	
  hero	
  .	
  
	
  Human:	
  who	
  is	
  bill	
  clinton	
  ?	
  
	
  Machine:	
  he	
  ’s	
  a	
  billionaire	
  .	
  
	
  Human:	
  is	
  sky	
  blue	
  or	
  black	
  ?	
  
	
  Machine:	
  blue	
  .	
  
	
  Human:	
  does	
  a	
  cat	
  have	
  a	
  tail	
  ?	
  
	
  Machine:	
  yes	
  .	
  
	
  Human:	
  does	
  a	
  cat	
  have	
  a	
  wing	
  ?	
  
	
  Machine:	
  no	
  
	
  Human:	
  can	
  a	
  cat	
  fly	
  ?	
  
	
  Machine:	
  no	
  .	
  
	
  Human:	
  how	
  many	
  legs	
  does	
  a	
  cat	
  have	
  ?	
  
	
  Machine:	
  four	
  ,	
  i	
  think	
  .	
  
	
  Human:	
  how	
  many	
  legs	
  does	
  a	
  spider	
  have	
  ?	
  
	
  Machine:	
  three	
  ,	
  i	
  think	
  .	
  
	
  Human:	
  how	
  many	
  legs	
  does	
  a	
  centipede	
  have	
  ?	
  
Machine:	
  eight	
  .	
  
	
  
	
  Human:	
  what	
  is	
  the	
  color	
  of	
  the	
  sky	
  ?	
  
	
  Machine:	
  blue	
  .	
  
	
  Human:	
  what	
  is	
  the	
  color	
  of	
  water	
  ?	
  
	
  Machine:	
  water	
  .	
  
	
  Human:	
  what	
  is	
  the	
  color	
  of	
  blood	
  ?	
  
	
  Machine:	
  it	
  is	
  the	
  same	
  as	
  a	
  black	
  eye	
  .	
  
	
  Human:	
  what	
  is	
  the	
  usual	
  color	
  of	
  a	
  leaf	
  ?	
  
	
  Machine:	
  it	
  is	
  a	
  green	
  one	
  .	
  
	
  Human:	
  what	
  is	
  the	
  color	
  of	
  a	
  yellow	
  car	
  ?	
  
	
  Machine:	
  yellow	
  .	
  
	
  Human:	
  how	
  much	
  is	
  two	
  plus	
  two	
  ?	
  
	
  Machine:	
  four	
  .	
  
	
  Human:	
  how	
  much	
  is	
  ten	
  minus	
  two	
  ?	
  
	
  Machine:	
  seventy	
  -­‐	
  two	
  .	
  
Conversation	
  3:	
  General	
  knowledge	
  Q&A	
  
  三人称単数の使い分け	
  
is_a関係の記憶	
  
has_a関係の記憶	
  
  色を表す単語と色を記述する構文の記憶	
  
会話例
Human:	
  what	
  do	
  you	
  think	
  about	
  tesla	
  ?	
  
	
  Machine:	
  he	
  ’s	
  a	
  good	
  conductor	
  .	
  
	
  Human:	
  what	
  do	
  you	
  think	
  about	
  bill	
  gates	
  ?	
  
	
  Machine:	
  he	
  ’s	
  a	
  good	
  man	
  .	
  
	
  Human:	
  What	
  do	
  you	
  think	
  about	
  messi	
  ?	
  
	
  Machine:	
  he	
  ’s	
  a	
  great	
  player	
  .	
  
	
  Human:	
  what	
  do	
  you	
  think	
  about	
  cleopatra	
  ?	
  
	
  Machine:	
  oh	
  ,	
  she	
  ’s	
  very	
  regal	
  .	
  
	
  Human:	
  	
  what	
  do	
  you	
  think	
  about	
  england	
  dur-­‐	
  
	
  ing	
  the	
  reign	
  of	
  elizabeth	
  ?	
  
	
  Machine:	
  it	
  was	
  a	
  great	
  place	
  .	
  
  主語に応じて、he / she /
it を使い分けている
Conversation	
  6:	
  Opinions	
  	
  
Neural Conversation
明示的なあるいは記号的な知識表現なしの会話
  結果
n  短期記憶で答えることのできる質問を回答できる
n  単純なファクトの記憶
n  常識レベルの推論
n  コンテクストの理解
n  自然な言葉を紡ぎだしている
•  次単語予測学習が大きく貢献
  課題
n  目的関数が会話の目的とは異なる
n  世界の知識(長期記憶)がない
n  一貫性がない
•  訓練用のデータセットが多数の人間の発言・文章を含むため
記号はどこにできたのか	
  NN内に「概念」に相当するものができた	
  
  どんな風に存在しているか	
  
n  個々の「概念」は意味空間の中の局所領域に対応する	
  
n  この意味空間には多数の概念が疎に散らばっている	
  
•  多数の銀河系が疎に散らばっている宇宙のように	
  
n  おそらく句も文も映像的な記憶も同じ	
  
  概念って	
  
n  哲学的な「概念」という概念を指しているわけではない	
  
n  統計的に大きな割合を占める刺激	
  
•  言語、画像、音、、、	
  
意味空間
状態空間が2次元だとすると、franceやiraq
はその空間の中のある点(局所領域)に相当
RNN Next Step
Neural Turing Machine, Clockwork RNN, Memory Networks, ...
  記憶
n  単一の固定長ベクトルの限界
•  複雑な構造のあるもの、時間軸上の動的な展開のあるものを固定長のベクトルに
マップするのは over simplified ではないか
•  単純に次元を増やしても、パラメータが増えOverfittingのリスクが高まるだけ
n  より洗練された記憶機構へ
•  よりDeepに
•  単一ベクトルではなく、複数のベクトルあるいは外部メモリ
-  (時系列の場合)生成された時間に応じてサマリベクトルを複数持つ
-  (空間の場合)部分空間ごとにサマリベクトルを複数持つ
-  あるいは外部記憶装置を補助として使う
•  参照機構
-  文脈に応じて「どこを」参照するかを学習する
-  Attention
NNNLM vs 子どもの言語獲得
NNNLM vs 子どもの言語獲得
NNNLM 子ども
学習データサイズ 語彙:1M+	
  
文:100K+	
  
語彙:10+
文:語彙数の割に多数	
  
子ども:脳のキャパ
不足?	
  
学習方式 教師あり	
  
入出力文の対
教師なし	
  
 ゆるい教師あり?	
  
学習アルゴリズム 目的関数の最急降下法
による最適化	
  
Back	
  propagation
目的関数?	
  
ヘッブ法則
学習時間 目的関数が飽和するま
での高々数週間
期限なしだが、言語能
力的には十代半ばで完
成	
  
子どもの知識・判断力
などは別	
  
学習成果 最初から文形式	
  
(次単語予測学習の影響)
1語文、2語文、3語
文へと次第に変化
意識 ない	
   自発的に文を生成
何か考えている	
  
意図がある
NNNLM vs 子どもの言語獲得
  NNNLM
n  教師付き学習+誤差関数の最急降下法による最適化は強力
n  誤差逆伝搬は極めて効率的
n  大規模コーパスが必須
•  大量のパラメータをoverfitting回避して調節するため
  人間の学習はそこまで効率的ではない
n  目的関数や誤差があいまい
•  従って強力な最適化が進行しているわけでもないので overfitting も起きない
•  大規模コーパスはかえって過負荷となって負の効果
n  しかし安定した最終性能
n  初期は脳に十分な処理能力がない
•  細胞数、結合数において初期は不十分なのではないか
•  時間とともに段階的に増えるのかもしれない
  評価関数はコミュニケーションの成否
n  教師信号?相手からのフィードバック?
子どもの言語獲得モデルに向けて
(超)楽観的な展望
  対象とする世界
n  家とその周辺
n  タイムスパン:1週間以内のイベント
n  語彙数:1000程度(2歳児相当)
  能力
n  モノやコトの認識ができる(1000個のカテゴリー)
n  モノやコトに関する質問応答ができる
n  10個の文以上(10インタクション以上)のコンテクストの保持とそれに基づく会話
n  自発的発話(発見(変化)、フォーカス(興味))
  モデル
n  RNN+
n  入力は文と画像、出力は文
n  文、画像のデータセットは100万例以上
n  supervised and unsupervised 学習
n  記憶機構の拡充:容量と参照
n  motivation : 強化学習(学習と報酬)
  +スケールアウト
n  システムの規模を拡大して機能を損なうことなく語彙数を拡大させる
子どもの言語獲得のモデル化とNN Language ModelsNN

More Related Content

What's hot

NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
Yuya Unno
 
Jubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニングJubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニング
Yuya Unno
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
Yuya Unno
 

What's hot (18)

NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
 
Jubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニングJubatusの紹介@第6回さくさくテキストマイニング
Jubatusの紹介@第6回さくさくテキストマイニング
 
Emnlp読み会資料
Emnlp読み会資料Emnlp読み会資料
Emnlp読み会資料
 
Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 
NLP2017 NMT Tutorial
NLP2017 NMT TutorialNLP2017 NMT Tutorial
NLP2017 NMT Tutorial
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
 
ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
 
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみたFacebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
 
ピーFIの研究開発現場
ピーFIの研究開発現場ピーFIの研究開発現場
ピーFIの研究開発現場
 
IPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へIPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
 

Similar to 子どもの言語獲得のモデル化とNN Language ModelsNN

20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa
Masashi Nakagawa
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno
 

Similar to 子どもの言語獲得のモデル化とNN Language ModelsNN (20)

DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...
Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...
Learning Cooperative Visual Dialog with Deep Reinforcement Learning(関東CV勉強会 I...
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
 
20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa20230516 @Mix Leap Hirohiko_Suwa
20230516 @Mix Leap Hirohiko_Suwa
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
拡がるディープラーニングの活用
拡がるディープラーニングの活用拡がるディープラーニングの活用
拡がるディープラーニングの活用
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
 
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
 
キーワード推定を内包したオーディオキャプション法
キーワード推定を内包したオーディオキャプション法キーワード推定を内包したオーディオキャプション法
キーワード推定を内包したオーディオキャプション法
 
Jacet2014ykondo_final
Jacet2014ykondo_finalJacet2014ykondo_final
Jacet2014ykondo_final
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
Extract and edit
Extract and editExtract and edit
Extract and edit
 
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...Leveraging Visual Question Answeringfor Image-Caption Ranking (関東CV勉強会 ECCV ...
Leveraging Visual Question Answering for Image-Caption Ranking (関東CV勉強会 ECCV ...
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
 
Unsupervised Object Discovery and Localization in the Wild: Part-Based Match...
Unsupervised Object Discovery and Localization in the Wild:Part-Based Match...Unsupervised Object Discovery and Localization in the Wild:Part-Based Match...
Unsupervised Object Discovery and Localization in the Wild: Part-Based Match...
 

子どもの言語獲得のモデル化とNN Language ModelsNN

  • 1. 子どもの言語獲得のモデルと   NN  Language  Models 竹内 彰一 人工知能・ソフトウェア技術研究センター 千葉工業大学
  • 2. 人工知能・ソフトウェア技術研究センター STAIR Lab. (Software Technology and Artificial Intelligence Research Laboratory)   2015年4月1日創立   所長:米澤明憲先生   研究専門機関 n  学部・大学院とは独立の研究機関 n  人も重複なし n  学生なし   研究テーマ n  人工知能 n  ソフトウェア技術   研究員 募集中 http://stair.center   https://www.facebook.com/stairlab    
  • 3. 自己紹介: 竹内彰一 STAIR Lab. 主席研究員   経歴 n  1979年東京大学大学院工学系計数工学修士卒 •  甘利先生のもとで神経回路網の研究  n  同年三菱電機中央研究所に入所 •  1982年から86年まで第五世代コンピュータプロジェクト(ICOT)に出向 n  1991年ソニーコンピュータサイエンス研究所シニアリサーチャ n  1996年ソニー株式会社アーキテクチャ研究所所長 n  2005 年ソネット(株)シニアリサーチフェロー n  2015年 千葉工大 ステアラボ 主席研究員 n  工学博士 人工知能、第五世代、ニューラルネットワーク、コンピュータヒューマンインタラクション、 ビッグデータ解析、Web マイニング、ネットワークサービスの研究開発等、いろいろ   現在の研究テーマ n  幼児の言語獲得、会話・経験を重ねるごとに賢くなる人工知能、ニューラルネットワーク全般、画 像・シーン認識
  • 4. 子どもの言語獲得・学習のモデル化とシミュレーションを目指して 研究概要   ゴール n  言語を喋り理解する人工知能を実現する n  固定した語彙と構文を使いこなせるというのではなく、語彙も構文も経験とともに拡 大していくことが可能な言語能力   n  言葉を通して知識を吸収する能力   アプローチ n  子供の言語獲得に学び、モデルを作ろう   理由 n  獲得・発達過程を観察することで人間の言語処理の原理がわかる n  「発達」のメカニズムを取り込みたい   手段 n  Deep Neural Networks
  • 5. なぜ DNN か 従来の会話する人工知能研究との違い   子どももDNNもベースは Neural networks、ともに白紙の状態から言語を獲得する   ゼロからブ−トストラップ(自力で)するモデルを研究する点で共通項は多い n  まず記号の獲得から始まる •  記号は外界に記号として存在しないし、生まれた時に脳の中に存在するわけでもない •  記号は経験から学習しなくてはならない •  獲得された記号は他の人間の記号と一致しなくてはならない   従来AIでは「記号、その意味、記号間の関係、文構造と意味の対応」などを事前 にアドホックに設計する n  自然言語処理アルゴリズム、辞書、知識表現、KB、等々
  • 6. 子どもの言語獲得 今井むつみ先生やスティーブン・ピンカー氏の著書を参考に   新生児は体内で母語の音韻の学習をしている   n  生まれたばかりの新生児がしゃべったということは未だかつてない     18ヶ月ころに急激に進歩   n  語彙爆発(1日に憶える語彙数が急激に増える)   n  この時期、神経結合が大量に作られる(脳生理学的事実)   母語を学習できない子どもはいない(健康であれば) n  第2外国語の学習に失敗する子どもや大人はたくさんいるにもかかわらず   チンパンジーに人間の子どもと同じ環境を与えても言語(手話も)を獲得できない   n  脳の構造が違うのか   n  チンパンジーの脳とDeep  NNの何が違うのか   「言葉」らしい言葉   n  単語や順番のない単語列は言葉と言えない(チンパンジー、ピジン語)   n  二語文、三語文にして初めて言葉と言える(クレオール語)   n  述語をマスターすると、表現力が格段に増す   子どもが獲得する順序に脳内の言語モデルがうかがえる n  名詞(形のあるもの→形のないもの) → 形容詞 → 動詞     言語は自己拡張能力があり、言語を獲得するとはそれも含めての話
  • 8. Deep  Neural  Networks 代表的な二種類のアーキテクチャ   Convolu7on  Neural  Network   n  空間認識に優れ、画像認識への応用が多い   n  入力データから、1次特徴、2次特徴と順次特徴抽出を階層的に積み上げ、 それらの特徴を使って上位の層で多層パーセプトロン的に分類問題を解く     Recurrent  Neural  Network   n  時間認識に優れ、言語モデルへの応用が多い   n  時系列データを隠れ層に圧縮して蓄積   n  問題(教師あり学習)に応じて蓄積内容が調整される  
  • 12. RNN   可変長の入出力     内部状態を保持   Turing  complete   n  任意のProcedureを実現で きる(適当に結線すれば)   時刻 t の入力 xt 時刻 t の出力 yt 時刻 t の隠れ層の状態 ht ht-1 ① ① ② ②
  • 13. RNN  (Recurrent  Neural  Networks) x1 x2 y1 y2 h0 h1 h0 → h1 h1 → h2h1 h1 → h2
  • 14. ② RNN  は任意長の時系列のサマリを   固定長のベクトルに記憶する hN-1 → hN 長さN の入力列 x1 x2 ... xN-1xN 時刻 N の出力 yN 時刻 N の隠れ層の状態 hN ② N個の入力列の   サマリ情報 短期のサマリ記憶   文脈情報
  • 18. トルストイ「戦争と平和」(英文)から文字のつながりを学習 文脈を考慮した文字と文字のつながりを学習する   [100] tyntd-iafhatawiaoihrdemot lytdws e ,tfti, astai f ogoh eoase rrranbyne 'nhthnee e plia tklrgd t o idoe ns,smtt h ne etie h,hregtrs nigtike,aoaenns lng   [300] “Tmont thithey” fomesscerliund Keushey. Thom here sheulke, anmerenith ol sivh I lalterthend Bleipile shuwy fil on aseterlome coaniogennc Phe lism thond hon at. MeiDimorotion in ther thize.”   [700] Aftair fall unsuch that the hall for Prince Velzonski's that me of her hearly, and behs to so arwage fiving were to it beloge, pavu say falling misfort how, and Gogition is so overelical and ofter.   [2000] “Why do what that day,” replied Natasha, and wishing to himself the fact the princess, Princess Mary was easier, fed in had oftened him. Pierre aking his soul came to the packs and drove up his father-in-law women.
  • 19. Deep RNN RNN Encoder – Decoder : Sequence to Sequence Mapping   sequence (or one) to sequence (or one)の変換 図→文 文→分類 文→文図→分類 動画フレーム→分類 The  Unreasonable  Effectiveness  of  Recurrent  Neural  Networks   Andrej  Karpathy  
  • 20. RNN  Encoder  -­‐  Decoderによる翻訳 Sequence to Sequence Learning with Neural Networks I. Sutskever, O. Vinyals, Q. V. Le @google   Model n  求めるもの= •  x が原文、 y が翻訳文、 T≠T’ n  入力文をEncoder RNNに逆順にfeedし、最後の隠れ層の状態を c とする n  入力文を全部 feedした後の意味ベクトルから出力文を Decoder RNN で順次生成 n  P(y1,…,yT’|x1,…,xT) = Π p(yt|c,y1,…,yt-1 )   Architecture n  Encoder, Decoderともに4層のRNN n  各層に1000ユニット n  単語ベクトル:1000次元 n  入力文のfeedは逆順   Dataset n  WMT’14 英仏翻訳データセットのサブセット  •  12M個の文の対(ワード数 348M仏語、304M英語) •  語彙数:英語 160K、仏語 80K (頻出後を選択、それ以外はUNK) p(y1,…, y !T | x1,…, xT ) hidden encoder decoder x1,…,xT y1,…,yT’ c 原文 NN 翻訳文
  • 21. 入力文が隠れ層でどのようなベクトルに変換されたか PCA 主要2成分をマップ   意味が同じ文どうしは距離が近い   述語間の関係は、主語目的語にかかわらず保存 される “M a J” – “J a M” + “J ilw M” = “M ilw J”   受動態・能動態によっても意味が変わ らないことを学習
  • 22. RNN Encoder – Decoder による翻訳   Dataset n  語彙:英仏とも15,000語 n  文例:348M語   モデル n  単語ベクトル:500次元 n  隠れ層:1000次元   学習期間 n  3日間 h x y h c Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation Kyunghyun Cho @ U.Montreal 他
  • 24.
  • 25.
  • 26.
  • 27. RNN  Encoder  –  Decoder  Architectureの他の応用 英文 仏文 画像 説明文 画像と質問 答文 物語と質問 答文 意味 (ベクトル表現)
  • 28. 見たものを言葉で説明する Show  and  Tell:  A  Neural  Image  Cap7on  Generator   O.  Vinyals,  A.  Toshev,  S.  Bengio,  D.  Erhan  (Google)     画像が与えられるとそのテキスト記述を自動生成する     Model   n  p(正解の単語列|画像)を最大化するよう訓練     Architecture     Performance     画像 キャプション CNN RNN 画像の特徴から文を生成するルールを人間が作るより、画像と文の組み合わせからDLする方が良い結果を出せた LSTM imagenetで訓 練済みのもの state  of  the  art
  • 30.
  • 31. 最高スコアの文は80%の確率でtraining setにあった文 トップ15位までの生成文を調べると、50%の確率で 新規の文がみつかる。しかもその文は十分な品質を 持っていた Word Embedding Word  embeddingはキャプショ ンに出現する単語の共起関係に 影響を受ける     word  embeddingが近い単語は CNNの視覚的特徴でも似たオ ブジェクトに対応付けられる 訓練例にない新しい 文を生成できた!
  • 32. 画像についての質問に答える Are you talking to a Machine?# Dataset and Methods for Multilingual Image Question Answering Haoyuan Gao, Junhua Mao, Jie Zhou, Zhiheng Huang, Lei Wang, Wei Xu (Almost Baidu Research)   画像とそれに写っている内容についての質問文を与えると、答え(文)を返す     Model   n  p(正答の単語列|画像、質問文)を最大化するよう訓練     Architecture     Performance   n  Dataset  FM-­‐IQA(Freestyle  Mul7lingual  Image  Ques7on  Answeringを作った   •  120,000  images,  250,000  自由中国語QA文、その英語翻訳文   n  チューリングテストで評価   •  64.7%のケースで、人間の審判はmQAのアンサーと人間のそれを区別できなかった   •  回答の正確さは  1.454  /  2.0    (人間の回答の正確さは  1.918  /  2.0) LSTM1   質問文を処理   LSTM2   回答文を処理 p(wn  |  w1,...,wn-­‐1)   CNN   Imagenetで事前に訓練して、固定   回答生成   p(wn  |  w1,...,wn-­‐1,  Image,  Q)  
  • 33.
  • 34. 対話 A Neural Conversational Model# O. Vinyals, Q.V Le @google   Model n  SutskeverらのSeq2Seq Model   Dataset n  コールセンターの会話:30M 単語、ユーザとオペレーターの会話 n  映画のセリフ:62M 文(923M 単語)、前の文から次の文を予測させるように学習   Train n  次単語予測学習
  • 35. 会話例 Human:  my  name  is  david  .  what  is  my  name  ?    Machine:  david  .    Human:  my  name  is  john  .  what  is  my  name  ?    Machine:  john  .    Human:  are  you  a  leader  or  a  follower  ?    Machine:  i  ’m  a  leader  .    Human:  are  you  a  follower  or  a  leader  ?    Machine:  i  ’m  a  leader     短期記憶   更新可能な記憶   ある程度の持続 Conversation      2:      Simple      Q&A      (contexts      and      multiple  choice)  
  • 36. 会話例 Human:  who  is  skywalker  ?    Machine:  he  is  a  hero  .    Human:  who  is  bill  clinton  ?    Machine:  he  ’s  a  billionaire  .    Human:  is  sky  blue  or  black  ?    Machine:  blue  .    Human:  does  a  cat  have  a  tail  ?    Machine:  yes  .    Human:  does  a  cat  have  a  wing  ?    Machine:  no    Human:  can  a  cat  fly  ?    Machine:  no  .    Human:  how  many  legs  does  a  cat  have  ?    Machine:  four  ,  i  think  .    Human:  how  many  legs  does  a  spider  have  ?    Machine:  three  ,  i  think  .    Human:  how  many  legs  does  a  centipede  have  ?   Machine:  eight  .      Human:  what  is  the  color  of  the  sky  ?    Machine:  blue  .    Human:  what  is  the  color  of  water  ?    Machine:  water  .    Human:  what  is  the  color  of  blood  ?    Machine:  it  is  the  same  as  a  black  eye  .    Human:  what  is  the  usual  color  of  a  leaf  ?    Machine:  it  is  a  green  one  .    Human:  what  is  the  color  of  a  yellow  car  ?    Machine:  yellow  .    Human:  how  much  is  two  plus  two  ?    Machine:  four  .    Human:  how  much  is  ten  minus  two  ?    Machine:  seventy  -­‐  two  .   Conversation  3:  General  knowledge  Q&A     三人称単数の使い分け   is_a関係の記憶   has_a関係の記憶     色を表す単語と色を記述する構文の記憶  
  • 37. 会話例 Human:  what  do  you  think  about  tesla  ?    Machine:  he  ’s  a  good  conductor  .    Human:  what  do  you  think  about  bill  gates  ?    Machine:  he  ’s  a  good  man  .    Human:  What  do  you  think  about  messi  ?    Machine:  he  ’s  a  great  player  .    Human:  what  do  you  think  about  cleopatra  ?    Machine:  oh  ,  she  ’s  very  regal  .    Human:    what  do  you  think  about  england  dur-­‐    ing  the  reign  of  elizabeth  ?    Machine:  it  was  a  great  place  .     主語に応じて、he / she / it を使い分けている Conversation  6:  Opinions    
  • 38. Neural Conversation 明示的なあるいは記号的な知識表現なしの会話   結果 n  短期記憶で答えることのできる質問を回答できる n  単純なファクトの記憶 n  常識レベルの推論 n  コンテクストの理解 n  自然な言葉を紡ぎだしている •  次単語予測学習が大きく貢献   課題 n  目的関数が会話の目的とは異なる n  世界の知識(長期記憶)がない n  一貫性がない •  訓練用のデータセットが多数の人間の発言・文章を含むため
  • 39. 記号はどこにできたのか   NN内に「概念」に相当するものができた     どんな風に存在しているか   n  個々の「概念」は意味空間の中の局所領域に対応する   n  この意味空間には多数の概念が疎に散らばっている   •  多数の銀河系が疎に散らばっている宇宙のように   n  おそらく句も文も映像的な記憶も同じ     概念って   n  哲学的な「概念」という概念を指しているわけではない   n  統計的に大きな割合を占める刺激   •  言語、画像、音、、、   意味空間 状態空間が2次元だとすると、franceやiraq はその空間の中のある点(局所領域)に相当
  • 40. RNN Next Step Neural Turing Machine, Clockwork RNN, Memory Networks, ...   記憶 n  単一の固定長ベクトルの限界 •  複雑な構造のあるもの、時間軸上の動的な展開のあるものを固定長のベクトルに マップするのは over simplified ではないか •  単純に次元を増やしても、パラメータが増えOverfittingのリスクが高まるだけ n  より洗練された記憶機構へ •  よりDeepに •  単一ベクトルではなく、複数のベクトルあるいは外部メモリ -  (時系列の場合)生成された時間に応じてサマリベクトルを複数持つ -  (空間の場合)部分空間ごとにサマリベクトルを複数持つ -  あるいは外部記憶装置を補助として使う •  参照機構 -  文脈に応じて「どこを」参照するかを学習する -  Attention
  • 42. NNNLM vs 子どもの言語獲得 NNNLM 子ども 学習データサイズ 語彙:1M+   文:100K+   語彙:10+ 文:語彙数の割に多数   子ども:脳のキャパ 不足?   学習方式 教師あり   入出力文の対 教師なし    ゆるい教師あり?   学習アルゴリズム 目的関数の最急降下法 による最適化   Back  propagation 目的関数?   ヘッブ法則 学習時間 目的関数が飽和するま での高々数週間 期限なしだが、言語能 力的には十代半ばで完 成   子どもの知識・判断力 などは別   学習成果 最初から文形式   (次単語予測学習の影響) 1語文、2語文、3語 文へと次第に変化 意識 ない   自発的に文を生成 何か考えている   意図がある
  • 43. NNNLM vs 子どもの言語獲得   NNNLM n  教師付き学習+誤差関数の最急降下法による最適化は強力 n  誤差逆伝搬は極めて効率的 n  大規模コーパスが必須 •  大量のパラメータをoverfitting回避して調節するため   人間の学習はそこまで効率的ではない n  目的関数や誤差があいまい •  従って強力な最適化が進行しているわけでもないので overfitting も起きない •  大規模コーパスはかえって過負荷となって負の効果 n  しかし安定した最終性能 n  初期は脳に十分な処理能力がない •  細胞数、結合数において初期は不十分なのではないか •  時間とともに段階的に増えるのかもしれない   評価関数はコミュニケーションの成否 n  教師信号?相手からのフィードバック?
  • 44. 子どもの言語獲得モデルに向けて (超)楽観的な展望   対象とする世界 n  家とその周辺 n  タイムスパン:1週間以内のイベント n  語彙数:1000程度(2歳児相当)   能力 n  モノやコトの認識ができる(1000個のカテゴリー) n  モノやコトに関する質問応答ができる n  10個の文以上(10インタクション以上)のコンテクストの保持とそれに基づく会話 n  自発的発話(発見(変化)、フォーカス(興味))   モデル n  RNN+ n  入力は文と画像、出力は文 n  文、画像のデータセットは100万例以上 n  supervised and unsupervised 学習 n  記憶機構の拡充:容量と参照 n  motivation : 強化学習(学習と報酬)   +スケールアウト n  システムの規模を拡大して機能を損なうことなく語彙数を拡大させる