SlideShare uma empresa Scribd logo
1 de 83
Baixar para ler offline
深層学習による自然言語処理
4.2-4.3
Kentaro Nakanishi
2019/03/09
自己紹介
Kentaro Nakanishi
sns: @cfiken
株式会社ミクシィ/エンジニア
2015/04:
 新卒入社 & サービス開発 (iOS)
2018/04:
 Deep で NLP な新規事業に異動
 もろもろ1から勉強中
趣味: youtube, kaggle
資料の注意点
● なるべく書籍に沿わずに英語表記で記載します
符号化: encoder
復号化: decoder
注意機構: attention mechanism
etc..
● 一部書籍とは例となるモデルなどが異なります
4章
言語処理特有の深層学習の発展
4章: 言語処理特有の深層学習の発展
4.1. Attention Mechanism
4.2. Memory Network
4.3. 出力層の高速化
本日の内容
4.1. Attention Mechanism
4.2. Memory Network
4.3. 出力層の高速化
前回内容の復習
Sequence to sequence (encoder decoder)
系列を入力し、系列に変換する
• encoder embedding layer
• encoder recurrent layer
• decoder embedding layer
• decoder recurrent layer
• decoder output layer
Attention mechanism
● RNN での Attention
最終的な隠れ状態を使うので
はなく、どの時点での隠れ状
態を重視するかも含めて学習
させる仕組み。
長い系列だとはじめの情報が
伝わりづらいという RNN の
課題が改善された。
Attention mechanism
● より一般的な Attention
key と value からなる
Dictionary に対して、 query
で情報を取ってくる機構
4.2
Memory Network
モチベーション
seq2seq や attention mechanism により sequence を入
れると何かしら sequence を生成するモデルが出来た
応用先 (5章)
● 機械翻訳
● 文書要約
● 対話
● 質問応答
モチベーション
● 機械翻訳
○ 与えられたセンテンスだけでなく、もっと長いコンテキス
トをもとに翻訳したい
● 対話
○ 与えられたセンテンスに対する返答ではなく、会話のコン
テキストや状況に沿って返答してほしい
● 質問応答
○ 過去の発言やデータをもとに回答してほしい
長いコンテキストを扱うアイディア
HRED [1]
[1] figure 3 を引用
Memory Networks
Memory Networks 概要
より直接的に記憶をモデル化するアイディア [2]
記憶 m (object list) と4つのモジュールを持つモデル
何か入力を入れると、記憶をもとに出力を返してほし
い、という問題を解く
Joe went to the kitchen. Fred went to the kitchen. Joe picked up
the milk. Joe travelled to the office. Joe left the milk. Joe went to
the bathroom.
Where is the milk now? A: office
Memory Networks 概要
4つのモジュール
● I: input feature map
● G: generalization
● O: output feature map
● R: response
Memory Networks 概要
● I: input feature map
入力を内部表現に変換
● 例
○ Bag-of-Words 表現
○ embedding vector
Memory Networks 概要
● G: generalization
入力をメモリに一般化
● 例
○
Memory Networks 概要
● O: output feature map
入力と記憶から出力表現 o を獲得
● 例
○ 関連の強いメモリを選んで
入力と concat して返す
Memory Networks 概要
● R: response
出力表現から応答 r を生成
● 例
○ 最も関連する単語を返す
Memory Network
● 実際のモデル例を見ていく
○ Basic Model [2]
■ Memory Network の論文で挙げられている例
○ End-to-end Memory Network [3]
○ Dynamic Memory Network [4]
Basic model
● 前提
○ 根拠情報 (supporting fact) が与えられる
○ モデルの最終的な出力は単語
● 例
Joe went to the kitchen. Fred went to the kitchen. Joe picked up
the milk. Joe travelled to the office. Joe left the milk. Joe went
to the bathroom.
Where is the milk now? A: office
Input & Generalization
● input feature map
○ そのまま (前処理のみ)
○
● generalization
○ メモリの空いているスロット番号 N として、
○
Output Feature Map
● output feature map
入力 x に対して、k 個の supporting memory を探索
(basic model では k = 2)
は入力とメモリのスコア関数 (後述)
● output feature map
Joe went to the kitchen. Fred went to the kitchen. Joe picked up the milk.
Joe travelled to the office. Joe left the milk. Joe went to the bathroom.
Where is the milk now?
Output Feature Map
● output feature map
Joe went to the kitchen. Fred went to the kitchen. Joe picked up the milk.
Joe travelled to the office. Joe left the milk. Joe went to the bathroom.
Where is the milk now?
Output Feature Map
● output feature map
Joe went to the kitchen. Fred went to the kitchen. Joe picked up the milk.
Joe travelled to the office. Joe left the milk. Joe went to the bathroom.
Where is the milk now?
Output Feature Map
Output Feature Map
● output feature map
入力 x に対して、k 個の supporting memory を探索
(basic model では k = 2)
は入力とメモリーのスコア関数 (後述)
Output Feature Map
● output feature map
最終的な出力は
Response
● response
ここで、 は出力情報と単語のスコア関数 (後述)
Score Function
● スコア関数
ここで、
例: BoW 表現など
: embedding matrix
で別のパラメータ行列 を用いる
Training
● トレーニング
次の margin ranking loss を最小化する
課題
● Memory Networks の課題
○ 途中で argmax が使われている
■ argmax が正しい(中間課題を解く)必要がある
○ 学習に supporting facts が必要
○ k を増やすとベクトルが大きくなる
End-to-end Memory Networks
Hard Attention と Soft Attention
0.70.10.1 0.1
Hard Attention Soft Attention
End-to-end Memory Networks
● Soft Attention を用いた Memory Networks
○ output feature map において、関連するメモリを
取り出すのではなく、メモリの重み付き和をとる
○ end-to-end に学習できる
= 中間課題を解く必要がない
● multi hop で複数回 attention を適用
Single Layer
[3] より引用
Single Layer
Single Layer
query (質問文)を
B で Embedding
Single Layer
memory (記憶)を
C で Embedding し、
output とする
Single Layer
memory (記憶)を
A で Embedding し、
input とする
Single Layer
input の各ベクトル と
u で内積を取り、
メモリと質問のマッチ
度を計算
その後、softmax
を取って確率とする
Single Layer
output c を先程計算し
た weight p で重み付
き和をとる
Single Layer
出力は単語 a
メモリからの情報 o と
質問からの情報 u を使う
Multi-hop
新たに出来た出力表現
を次の query として同じ処理を
繰り返す
Multi-hop
Joe went to the kitchen. Fred went to the kitchen.
Joe picked up the milk. Joe travelled to the office.
Joe left the milk. Joe went to the bathroom.
Where is the milk now? A: office
新たに出来た出力表現
を次の query として同じ処理を
繰り返す
Memory Network との違い
● Memory Network
質問文とメモリの内積をとって、高いものを
出力情報として使っていた
Memory Network との違い
(1) argmax ではなく
soft attention で 重み付
き和を取っている
(2) マッチ度計算に使っ
たメモリをそのまま
使うのではなく、別で
変換したものを使ってい
る
Key
Dictionary として見る Attention
Value
Query
Training
● 微分可能な関数のみで構成されているので、
入力情報 , 質問文 , 正しい返答
が与えられれば、クロスエントロピー損失を用いて
全体を一気通貫に学習させることが出来る
Memory Networks からの改善点
● 微分可能な関数だけで構成されている
● supporting facts が必要ない
● k の大きさに応じてベクトルのサイズが変わらない
Dynamic Memory Networks
Dynamic memory networks
[4] Figure 3 より引用
Dynamic memory networks
● 各モジュールで encode に GRU を使用
● episodic memory (value に相当) もゲート付き GRUを
使用
● key, query を使用したゲートの重みの計算には二層の
FFN を使用
● hopping 回数が動的に決まる (最大値は指定する)
その他の Memory Networks
● Neural Turing Machine (2014) [5]
○ 明示的に記憶領域を持ち、read と write ができる
○ copy, sort といったアルゴリズムタスク
● Neural GPU Learns Algorithms (2015) [6]
○ 上記に加えて、足し算などの演算ができるように
私見
● 辞書から情報を引き出す Attention の仕組みは今では一般
的なので、Memory Network という名前を聞くことは減っ
ている気がする
○ Attention の仕組みを encoder として使うなど
● Memory 用のモデルとしてではなく、汎用的なモデルで同様
のことが出来るようになってきた印象
○ Universal Transformer (2018) は bAbI で全問正解
4.3
出力層の高速化
出力層のおさらい
● 出力層
色んなモデルで何らかの表現 o を獲
得した後、最終的に V 次元 (V: 語彙
数)のベクトルに変換される
確率に変換するために softmax を取
ると、
出力層の課題
● クロスエントロピー損失で学習を行う
Y は全語彙集合になるため、分母の計算が重くなる
分配関数さらに、
とおくと、次のようにかける
勾配は、
出力層の課題
出力層の課題
となるので、
出力層の課題
第二項はすべての語彙について計算する必要がある
-> 重い
対策
様々な方法が提案されている
● Importance Sampling
● NCE (Noise Contrastive Estimation)
● Negative Sampling
● ブラックアウト
● 階層的ソフトマックス
対策の比較
● 階層的ソフトマックス
○ モデル自体の形を変えて計算を効率化する
● NCE / Negative sampling / ブラックアウト
○ 目的関数を変える(解く問題を工夫する)ことで計算
を効率化する
● Importance sampling
○ もとの目的関数の期待値計算を近似する
Importance Sampling
ある分布 p についての期待値を、標本平均で近似計算
したい
p からのサンプリングが難しい場合に、サンプリング
が容易な分布 q を用意して、そこからの標本を使って
計算する
Importance Sampling
まだ p の計算が必要
= Z(y) の計算が必要
Importance Sampling
一様分布 における の期待値
を使って、 とかける。
ここから先ほどと同様に importance sampling で、
※ 途中式省略していますが、書籍 P112 に載っています
Importance Sampling
勾配の式の中に p がなくなった!
= 語彙数に依存した項を取り除くことが出来た
NCE [9]
● Z を近似するのではなく、
とおいて、 を満たすような c を推定すること
を考える
● これができれば Z を計算する必要がなくなるが、最尤
推定で最適化できなくなる
(c -> ∞ とすると負の対数尤度は無限に最小化できるが、確
率の要件を満たさなくなる)
● 目的関数を工夫することで推定可能にする
NCE: 目的関数
● 目的関数を工夫することで推定可能にする
今まで: 語彙集合の中から単語を正しく分類する
NCE: 学習データとノイズデータを正しく分類する
NCE: 疑問点
● 具体的にどういう式になるの?
○ この後見ます
● 勝手に目的関数変えてちゃんと学習できるの?
○ 出来る!
○ 最尤推定で求めたものと一致することが示されてい
ます [9]
NCE: 具体的な形
● p の分布から得られたデータと、q の分布から得られた
データを正しく識別するような分類問題を考える
となるような確率変数 D を定義する。ノイズからのデータ
がk 倍出現しやすいとすると、
NCE: 具体的な形
● ノイズからのデータが k 倍出現しやすいとすると、
D と Y の同時確率は、
NCE: 具体的な形
● ある Y がそれぞれからサンプリングされた確率は、
NCE: 具体的な形
● これらを使って分類のための負の対数尤度をとると、
ここで、
NCE: self-normalized
● Z = 1 (c = 0) と仮定して置いてもうまくいくことが経
験的に発見されている
○ self-normalized (自己正規化) という
○ すなわち で計算すれば良い
Negative Sampling
● NCE をより単純化させた方法 [10]
● 識別にシグモイド関数を使う
● 実装が単純で動作も軽いため、よく使われる
○ 3.3.3 が具体例 (ただし書籍は間違っている)
質疑 / 議論
ありがとうございました
参考文献
[1] A. Sordoni et al., ‘A Hierarchical Recurrent Encoder-Decoder For Generative
Context-Aware Query Suggestion’., arXiv:1507.02221, 2015.
[2] J. Weston et al., ‘Memory Networks’, arXiv:1410.3916, 2014.
[3] S. Sukhbaatar et al., ‘End-To-End Memory Networks’, arXiv:1503.08895, 2015.
[4] A. Kumar et al., ‘Ask Me Anything: Dynamic Memory Networks for Natural
Language Processing’, arXiv:1506.07285, 2015.
[5] A. Graves et al., ‘Neural Turing Machine’, arXiv:1410.5401, 2015.
[6] Łukasz Kaiser and Ilya Sutskever, ‘Neural GPUs Learn Algorithms’,
arXiv:1511.08228, 2015.
[7] M. Dehghani et al., ‘Universal Transformers’, arXiv:1807.03819, 2018.
[8] Wizard of Wikipedia
[9] Noise Contrastive Estimation
[10] Distributed representation of words and phrases and thier compositionality
ブラックアウト
● NCE と Importance Sampling を組み合わせたような手
法
階層的ソフトマックス

Mais conteúdo relacionado

Mais procurados

LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用y-uti
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...Yuta Kikuchi
 
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題現在のDNNにおける未解決問題
現在のDNNにおける未解決問題Daisuke Okanohara
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツShuyo Nakatani
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門Etsuji Nakai
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
Tf勉強会(5)
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)tak9029
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)Toshihiko Yamakami
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
もう学習は機械に任せたい2 -ディープラーニングの逆襲-
もう学習は機械に任せたい2 -ディープラーニングの逆襲-もう学習は機械に任せたい2 -ディープラーニングの逆襲-
もう学習は機械に任せたい2 -ディープラーニングの逆襲-Kosuke Sugahara
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 
Python基礎その1
Python基礎その1Python基礎その1
Python基礎その1大貴 末廣
 
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-Takuya Akiba
 
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...y-uti
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習Kimikazu Kato
 

Mais procurados (20)

LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Mac...
 
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題現在のDNNにおける未解決問題
現在のDNNにおける未解決問題
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
Tf勉強会(5)
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
もう学習は機械に任せたい2 -ディープラーニングの逆襲-
もう学習は機械に任せたい2 -ディープラーニングの逆襲-もう学習は機械に任せたい2 -ディープラーニングの逆襲-
もう学習は機械に任せたい2 -ディープラーニングの逆襲-
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
Python基礎その1
Python基礎その1Python基礎その1
Python基礎その1
 
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
乱択データ構造の最新事情 -MinHash と HyperLogLog の最近の進歩-
 
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習
 

Semelhante a Deep nlp 4.2-4.3_0309

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化marsee101
 
20180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol120180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol1Keisuke Nakata
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Ohsawa Goodfellow
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告Hiroyuki TOKUNAGA
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」Naoya Chiba
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日Atsushi Hashimoto
 
『こなへん』ができるまで ☆リリース直前編☆
『こなへん』ができるまで ☆リリース直前編☆『こなへん』ができるまで ☆リリース直前編☆
『こなへん』ができるまで ☆リリース直前編☆5mingame2
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Masaya Kaneko
 
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~Insight Technology, Inc.
 
transformer解説~Chat-GPTの源流~
transformer解説~Chat-GPTの源流~transformer解説~Chat-GPTの源流~
transformer解説~Chat-GPTの源流~MasayoshiTsutsui
 
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...Jun Okumura
 

Semelhante a Deep nlp 4.2-4.3_0309 (20)

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 
20180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol120180830 implement dqn_platinum_data_meetup_vol1
20180830 implement dqn_platinum_data_meetup_vol1
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告NLP若手の回 ACL2012参加報告
NLP若手の回 ACL2012参加報告
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
 
CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日CVPR2018 参加報告(速報版)初日
CVPR2018 参加報告(速報版)初日
 
『こなへん』ができるまで ☆リリース直前編☆
『こなへん』ができるまで ☆リリース直前編☆『こなへん』ができるまで ☆リリース直前編☆
『こなへん』ができるまで ☆リリース直前編☆
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
 
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~
[db analytics showcase Sapporo 2018] A33 AI社内実装の試み~ソニーNNCを非技術者に使わせてみる~
 
transformer解説~Chat-GPTの源流~
transformer解説~Chat-GPTの源流~transformer解説~Chat-GPTの源流~
transformer解説~Chat-GPTの源流~
 
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...
ICLR2018読み会@PFN 論文紹介:Intrinsic Motivation and Automatic Curricula via Asymmet...
 
Extract and edit
Extract and editExtract and edit
Extract and edit
 
Eccv2018 report day3
Eccv2018 report day3Eccv2018 report day3
Eccv2018 report day3
 

Último

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 

Último (9)

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 

Deep nlp 4.2-4.3_0309