SlideShare uma empresa Scribd logo
1 de 27
http://deeplearning.jp/
Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings
言語モデル学習のマルチモーダル対照推定法で、モーダル間の対応例が不要な手法
山本 貴之(ヤフー株式会社)
DEEP LEARNING JP
[DL Papers]
1
書誌情報
Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings
言語モデル学習のマルチモーダル対照推定法で、モーダル間の対応例が不要な手法
NeurIPS 2022
https://arxiv.org/abs/2209.09433
タイトル:
著者:
言語意味理解モデルSimCSEに画像や音声のモーダルを追加した対照推定で精度向上
ポイントは、モーダル間の対応例が「不要」である点
概要:
2
選定理由: マルチモーダル学習で、対応例「不要」という事に対する興味
公式実装: https://github.com/yiren-jian/NonLing-CSE
※出典記載の無い図表は本論文からの引用
はじめに
3
現状 解決策
課題
▍ 言語意味埋込学習
現在の最高性能は
SimCSE
▍ SimCSEは
教師なしで学習可能だが
最高精度は教師ありモデル
▍ 教師ありは
ラベル付データの質が重要
▍ ラベル付きは
低資源言語では厳しい
▍ 教師なしで
精度と汎化性能を上げたい
▍画像や音声の
他モーダルデータも活用
し精度を向上
※「教師なし」=「自己教師あり」
研究の貢献
4
▊ 研究の貢献 ▊
▍ 学習済SimCSEをさらに改善する
▍ 画像などの他モーダルデータも活用し
ファインチューニング
▍ モーダル間で意味的な「対」が不要
▍ マルチタスク損失で汎化性能向上
VisualCSEの概要 【提案手法】
前提となる関連研究
5
関連研究 Supervised Contrastive Learning (2020)
6
https://arxiv.org/abs/2004.11362
関連研究 Supervised Contrastive Learning (2020)
7
提案手法Supervised Contrastive(=SupCon)損失関数を用いたAccuracy
SupCon損失
提案手法
SupCon損失は一貫してクロスエントロピーを上回る
https://arxiv.org/abs/2004.11362
関連研究 Supervised Contrastive Learning (2020)
8
【提案手法】
Supervised Contrastive(SupCon)
【既存手法】
自己教師あり対照推定
輪読論文で
使われるので重要
▍ 正例ペアは点線部の2枚
Anchor画像からAugmentationしたもの
https://arxiv.org/abs/2004.11362
▍ 正例クラスタは点線部の3枚(図の場合)
左記に加え、正解ラベルで同クラスタのもの
この犬の扱いが違う
この犬の扱いが違う
関連研究 Supervised Contrastive Learning (2020)
9
https://arxiv.org/abs/2004.11362
N個のデータセット
「バッチ」
マルチビューバッチを2回作成
iとjの2系列とする
2N個に拡張
「マルチビューバッチ」
dog
dog
cat
cat
elephant
dog
dog
cat
cat
elephant
dog
cat
cat
elephant
dog
dog
dog
cat
cat
elephant
dog
cat
cat
elephant
dog
dog
dog
cat
cat
elephant
dog
cat
cat
elephant
dog
学習用データセットの作り方
Augument
Augument
i系列 j系列
⋮
追加部
※ 自分対自分
除外全組合せ
関連研究 Supervised Contrastive Learning (2020)
10
【提案手法】
SupCon損失関数
https://arxiv.org/abs/2004.11362
【既存手法】
自己教師あり対照推定
▍ 正例ペアを1に近づけ、
負例群を0に近づける損失関数
▍ 温度付Softmaxとクロスエントロピー
の組合せ式。Softmaxなので正例を1に
近づけると自動的に負例は0に近づく。
▍ ミニバッチ内のi番目の
正例ペアSoftmaxを最大化する
温度τ
正例ペア
Labels部
クロスエントロピー式
温度付Softmax式
※ 自分除外
※
マルチビューバッチ内のi自身以外の正の組
カーディナリティー(=正の組の数)
▍ がlogの外か内で、outとinの2つの式がある
▍ 式の主な変更箇所は と記載した部分
▍ はi自身以外の正の組の数だけ、
温度付Softmax&クロスエントロピーを加算するという事
▍ 正の組が多いと値が大きくなるので で割り正規化
▍ はlog内に がある為勾配に影響なく正規化効果なし
追加部
追加部
関連研究 Pretrained Transformers As Universal Computation Engines (2021)
11
https://arxiv.org/abs/2103.05247
▊ 詳細 ▊
▍ セルフアテンション(=Multi-Head Attention) & FeedForward層の重みは固定(パラメータの大半はここ)
▍ Embedding層、出力層、LayerNormのScaleとBiasのみ学習対象としファインチューニング
学習対象
学習対象
学習対象
学習対象
Scale・Bias
学習対象
Scale・Bias
重み固定 重み固定
▊ サマリ ▊
▍ 学習済言語モデルのパラメータ固定(FPT)で、画像認識等、他モーダルタスクで活用する研究
▍ 当研究にインスピレーションを受け、輪読論文に繋がった
Frozen Pretrained Transformer (FPT)
※全結合層
関連研究 Pretrained Transformers As Universal Computation Engines (2021)
12
https://arxiv.org/abs/2103.05247
▊ 結果 ▊
▍ 青のFPT(提案手法)が、完全に学習したTransformer(オレンジ)やLSTM(グレー)に比較し高い性能
論文に「高い性能」と書かれているが、オレンジとは同等とも言える
関連研究 Pretrained Transformers As Universal Computation Engines (2021)
13
https://arxiv.org/abs/2103.05247
▊ 結果 ▊
▍ FPT(提案手法)が、ランダムに初期化したTransformerより、1~40倍学習が高速
提案手法Transformer
ランダム初期化Transformer
学習の収束にかかる勾配ステップ数
輪読論文に戻る
14
【再掲】はじめに
15
現状 解決策
課題
▍ 言語意味埋込学習
現在の最高性能は
SimCSE
▍ SimCSEは
教師なしで学習可能だが
最高精度は教師ありモデル
▍ 教師ありは
ラベル付データの質が重要
▍ ラベル付きは
低資源言語では厳しい
▍ 教師なしで
精度と汎化性能を上げたい
▍画像や音声の
他モーダルデータも活用
し精度を向上
※「教師なし」=「自己教師あり」
モデル構造
16
▊ 学習のポイント ▊
▍ BERT-base部(学習済SimCSE)に
テキスト×画像でファインチューニング
▍ テキスト×画像→VisualCSEと呼ぶ
▍ テキスト×音声→AudioCSEと呼ぶ
▍ モダリティー間は、対である必要はない
▍ テキストはSimCLR損失関数を使う
▍ 画像や音声はSupCon損失関数を使う
▍ テキストでパラメータ更新1回
→画像でパラメータ更新1回と繰り返す
VisualCSEの概要 【提案手法】
学習手順
17
▊ 具体的手順 ▊
▍ ミニバッチ内でテキストと画像を繰り返す
▍ 学習するモデルは一つの言語モデルLM
▍ テキストをミニバッチ分取得
▍ DropoutでAugし正例作成
▍ SimCLR損失で勾配計算
▍ 勾配に基づきLMのパラメータ更新
▍ 画像はクラスタラベルを使い
▍ VisionTransforerでエンベディング
▍ SupCon損失で同一クラスタを正例とし
▍ 勾配計算
▍ 勾配に基づきLMのパラメータ更新
損失関数
18
▍ 教師ありと教師なし、テキストと画像、それぞれについて損失関数を提案している
教師なし
SimCLR損失
テキスト
教師あり
SupCon損失
画像
当論文の実験では、水色背景部分の式を使用
※自己教師あり ※同一クラスタを正例とする
損失関数
19
▊ 関連研究のSupCon損失との比較 ▊
関連研究のSupCon損失
正例 正例
負例のみ
当論文のSupCon損失
正例ペアは全体に対して少ない前提だと
負例が大半で、ほぼ負例と考えられる
同一クラスタペア
正例
同一クラスタペアループ
ほぼ負例
ミニバッチ内ループ
ミニバッチ内ループ
同一クラスタペアループ
分子が正例で、分母が負例という基本構造は同じ
明示的に負例のみを加算
輪読者によるコメント
当論文のSubCon損失は、関連研究のSupCon損失の2つの内、Lsup,inがベース。
これは、関連研究では精度が悪い方である。理由はlogの内部にp(i)が入っているた
め、勾配に寄与できない為。当論文ではこの部分を改良したと思われる。分母を負
例のみに限定する事で、 p(i)で割る部分を削除可能にし、より高い精度を実現でき
たと推定される。ただし、この式の導出過程は詳しく記載されていない。
Supervised Contrastive Learning
https://arxiv.org/abs/2004.11362
この損失関数導出の詳細は
論文に記載が無い
同一クラスタペア
実験設定
20
項目 内容
▍ 言語モデル ▍ 学習済SimCSE(BERT-base-uncased・RoBERTa-base・RoBERTa-large)
▍ テキストデータセット ▍ 教師なし:Wikipedia英語 100K 文(※1)
▍ 画像データセット ▍ 教師あり:ImageNet 60クラス×500枚(※1)
※ 「教師なし」=「自己教師あり」
※1 データセットからダウンサンプリングしている
▍ 学習設定 ▍ 1Epochファインチューニング。バッチサイズと学習率はグリッドサーチ
▍ 評価指標 ▍ 7つの文章意味類似度(STS)タスクで評価
実験結果
21
VisualCSEの実験結果
スピアマン相関
提案手法
提案手法
提案手法
▊ 総合結果 ▊
▍ SimCSEの教師なしに対して、凌駕する性能
▍ テキスト以外のモダリティーを同時に学習し、テキストの性能が向上
▍ モダリティー間の対になる例を必要とせず、性能が向上
※「教師なし」=「自己教師あり」
実験結果
22
言語によるVisualCSEの効果の違い
▊ 言語による違い ▊
▍ いずれの言語も改善が見られた
▍ ロシア語のような低資源言語において改善が著しい
提案手法
提案手法
提案手法
提案手法
+4.98改善
実験結果
23
教師ありSimCSEをベースに、他モダリティー活用で改善できるかを実験した結果
スピアマン相関
提案手法
提案手法
▊ 結果 ▊
▍ 改善はしているものの、改善幅が小さい
▍ 他モダリティー活用で、教師ありSimCSEの改善には寄与できない(と結論づけている)
実験結果
24
▊ 下流タスク転移学習 ▊
▍ 下流タスクにも
うまく適用できている
▍ 改善はわずか
略記 タスク内容
MR 多点スケールのセンチメント分析。Good, Badではなく点数で処理
CR 口コミレビュー文章の要約。製品の特長と、肯定的か否定的かを抽出
SUBJ 口コミレビュー文章のセンチメント分析。主観部分のみを抽出
MPQA 言語中の意見、感情、推測、評価などの部分のコーパスアノテーション
SST 長いフレーズの文章の、感情分析
TREC 文法的か、非文法的かを判断する
MRPC 言い換え文の同定
提案手法
提案手法
提案手法
提案手法
提案手法
提案手法
分析
25
▍ 教師ありSimCSEの精度はNLIデータセットが高品質な事に大きく依存している
▍ VisualCSEの画像モーダルの効果と、教師ありSimCSE(81.6)のNLIデータセットへの依存を分析
NLIデータセットのサイズに対する感度分析
NLIデータサイズ30kでVisualCSEと同等性能
NLIデータセットのノイズに対する感度分析
[削除比率, 挿入, 入替]
ランダム削除40%程度でVisualCSEを下回る
分析
26
▍ 提案手法はクラスタリング性能が向上している(基本的にalignで測定する為)
▍ uniformの悪化は、表現空間でクループ化されている可能性(今後の研究課題)
埋込のalignとuniform評価
赤文字:提案手法
▍ align=正のペアの距離の近さ
▍ uniform=表現の散らばりの一様性
まとめ
27
▊ 結論 ▊
▍ テキストだけでなく、非言語領域からの対ではない例を加えて対照推定する事で、
テキスト表現学習を改善させるフレームワークを提案
▍ 非言語領域のモダリティにとらわれない
▍ 低資源言語に特に効果的
▊ 感想 ▊
▍ SupCon損失関数に至る詳細が説明されておらず、関連研究からの改良ロジックが想像の域を超えない
▍ 提案手法の本題の実験設定と、アブレーションなども含めた一連の実験設定が一緒に記載されており、
フレームワークとしての一連の事項は理解できるが、提案手法を正しく捉えているかは要詳細調査
▍ 対ではない例で学習し精度向上するが、モーダル間の関係性が対でモデル内に表現されているか興味あり
▍ 一部でも対の情報を加える事で、より精度向上やモーダル間の関係性表現向上に寄与しないか興味あり

Mais conteúdo relacionado

Mais procurados

Mais procurados (20)

SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けてSSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
 
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
Rethinking and Beyond ImageNet
Rethinking and Beyond ImageNetRethinking and Beyond ImageNet
Rethinking and Beyond ImageNet
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
【DL輪読会】HexPlaneとK-Planes
【DL輪読会】HexPlaneとK-Planes【DL輪読会】HexPlaneとK-Planes
【DL輪読会】HexPlaneとK-Planes
 
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 

Semelhante a 【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings

Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language ModelsDynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language Models
Shun Kiyono
 

Semelhante a 【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings (12)

論文読み会 Enriching Word Vectors with Subword Information
論文読み会 Enriching Word Vectors with Subword Information論文読み会 Enriching Word Vectors with Subword Information
論文読み会 Enriching Word Vectors with Subword Information
 
いまさら学ぶオブジェクト指向
いまさら学ぶオブジェクト指向いまさら学ぶオブジェクト指向
いまさら学ぶオブジェクト指向
 
Vision and Language(メタサーベイ )
Vision and Language(メタサーベイ )Vision and Language(メタサーベイ )
Vision and Language(メタサーベイ )
 
AML-dynamics ライスボールセミナー
AML-dynamics ライスボールセミナーAML-dynamics ライスボールセミナー
AML-dynamics ライスボールセミナー
 
Visualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLPVisualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLP
 
Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language ModelsDynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language Models
 
[論文紹介] Skip-Thought Vectors
[論文紹介] Skip-Thought Vectors[論文紹介] Skip-Thought Vectors
[論文紹介] Skip-Thought Vectors
 
Interop2017
Interop2017Interop2017
Interop2017
 
Code4lib2013.09.01 fujiwara
Code4lib2013.09.01 fujiwaraCode4lib2013.09.01 fujiwara
Code4lib2013.09.01 fujiwara
 
Neural Architecture for Named Entity Recognition
Neural Architecture for Named Entity RecognitionNeural Architecture for Named Entity Recognition
Neural Architecture for Named Entity Recognition
 
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
 

Mais de Deep Learning JP

Mais de Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Último

Último (11)

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings

  • 1. http://deeplearning.jp/ Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings 言語モデル学習のマルチモーダル対照推定法で、モーダル間の対応例が不要な手法 山本 貴之(ヤフー株式会社) DEEP LEARNING JP [DL Papers] 1
  • 2. 書誌情報 Non-Linguistic Supervision for Contrastive Learning of Sentence Embeddings 言語モデル学習のマルチモーダル対照推定法で、モーダル間の対応例が不要な手法 NeurIPS 2022 https://arxiv.org/abs/2209.09433 タイトル: 著者: 言語意味理解モデルSimCSEに画像や音声のモーダルを追加した対照推定で精度向上 ポイントは、モーダル間の対応例が「不要」である点 概要: 2 選定理由: マルチモーダル学習で、対応例「不要」という事に対する興味 公式実装: https://github.com/yiren-jian/NonLing-CSE ※出典記載の無い図表は本論文からの引用
  • 3. はじめに 3 現状 解決策 課題 ▍ 言語意味埋込学習 現在の最高性能は SimCSE ▍ SimCSEは 教師なしで学習可能だが 最高精度は教師ありモデル ▍ 教師ありは ラベル付データの質が重要 ▍ ラベル付きは 低資源言語では厳しい ▍ 教師なしで 精度と汎化性能を上げたい ▍画像や音声の 他モーダルデータも活用 し精度を向上 ※「教師なし」=「自己教師あり」
  • 4. 研究の貢献 4 ▊ 研究の貢献 ▊ ▍ 学習済SimCSEをさらに改善する ▍ 画像などの他モーダルデータも活用し ファインチューニング ▍ モーダル間で意味的な「対」が不要 ▍ マルチタスク損失で汎化性能向上 VisualCSEの概要 【提案手法】
  • 6. 関連研究 Supervised Contrastive Learning (2020) 6 https://arxiv.org/abs/2004.11362
  • 7. 関連研究 Supervised Contrastive Learning (2020) 7 提案手法Supervised Contrastive(=SupCon)損失関数を用いたAccuracy SupCon損失 提案手法 SupCon損失は一貫してクロスエントロピーを上回る https://arxiv.org/abs/2004.11362
  • 8. 関連研究 Supervised Contrastive Learning (2020) 8 【提案手法】 Supervised Contrastive(SupCon) 【既存手法】 自己教師あり対照推定 輪読論文で 使われるので重要 ▍ 正例ペアは点線部の2枚 Anchor画像からAugmentationしたもの https://arxiv.org/abs/2004.11362 ▍ 正例クラスタは点線部の3枚(図の場合) 左記に加え、正解ラベルで同クラスタのもの この犬の扱いが違う この犬の扱いが違う
  • 9. 関連研究 Supervised Contrastive Learning (2020) 9 https://arxiv.org/abs/2004.11362 N個のデータセット 「バッチ」 マルチビューバッチを2回作成 iとjの2系列とする 2N個に拡張 「マルチビューバッチ」 dog dog cat cat elephant dog dog cat cat elephant dog cat cat elephant dog dog dog cat cat elephant dog cat cat elephant dog dog dog cat cat elephant dog cat cat elephant dog 学習用データセットの作り方 Augument Augument i系列 j系列 ⋮
  • 10. 追加部 ※ 自分対自分 除外全組合せ 関連研究 Supervised Contrastive Learning (2020) 10 【提案手法】 SupCon損失関数 https://arxiv.org/abs/2004.11362 【既存手法】 自己教師あり対照推定 ▍ 正例ペアを1に近づけ、 負例群を0に近づける損失関数 ▍ 温度付Softmaxとクロスエントロピー の組合せ式。Softmaxなので正例を1に 近づけると自動的に負例は0に近づく。 ▍ ミニバッチ内のi番目の 正例ペアSoftmaxを最大化する 温度τ 正例ペア Labels部 クロスエントロピー式 温度付Softmax式 ※ 自分除外 ※ マルチビューバッチ内のi自身以外の正の組 カーディナリティー(=正の組の数) ▍ がlogの外か内で、outとinの2つの式がある ▍ 式の主な変更箇所は と記載した部分 ▍ はi自身以外の正の組の数だけ、 温度付Softmax&クロスエントロピーを加算するという事 ▍ 正の組が多いと値が大きくなるので で割り正規化 ▍ はlog内に がある為勾配に影響なく正規化効果なし 追加部 追加部
  • 11. 関連研究 Pretrained Transformers As Universal Computation Engines (2021) 11 https://arxiv.org/abs/2103.05247 ▊ 詳細 ▊ ▍ セルフアテンション(=Multi-Head Attention) & FeedForward層の重みは固定(パラメータの大半はここ) ▍ Embedding層、出力層、LayerNormのScaleとBiasのみ学習対象としファインチューニング 学習対象 学習対象 学習対象 学習対象 Scale・Bias 学習対象 Scale・Bias 重み固定 重み固定 ▊ サマリ ▊ ▍ 学習済言語モデルのパラメータ固定(FPT)で、画像認識等、他モーダルタスクで活用する研究 ▍ 当研究にインスピレーションを受け、輪読論文に繋がった Frozen Pretrained Transformer (FPT) ※全結合層
  • 12. 関連研究 Pretrained Transformers As Universal Computation Engines (2021) 12 https://arxiv.org/abs/2103.05247 ▊ 結果 ▊ ▍ 青のFPT(提案手法)が、完全に学習したTransformer(オレンジ)やLSTM(グレー)に比較し高い性能 論文に「高い性能」と書かれているが、オレンジとは同等とも言える
  • 13. 関連研究 Pretrained Transformers As Universal Computation Engines (2021) 13 https://arxiv.org/abs/2103.05247 ▊ 結果 ▊ ▍ FPT(提案手法)が、ランダムに初期化したTransformerより、1~40倍学習が高速 提案手法Transformer ランダム初期化Transformer 学習の収束にかかる勾配ステップ数
  • 15. 【再掲】はじめに 15 現状 解決策 課題 ▍ 言語意味埋込学習 現在の最高性能は SimCSE ▍ SimCSEは 教師なしで学習可能だが 最高精度は教師ありモデル ▍ 教師ありは ラベル付データの質が重要 ▍ ラベル付きは 低資源言語では厳しい ▍ 教師なしで 精度と汎化性能を上げたい ▍画像や音声の 他モーダルデータも活用 し精度を向上 ※「教師なし」=「自己教師あり」
  • 16. モデル構造 16 ▊ 学習のポイント ▊ ▍ BERT-base部(学習済SimCSE)に テキスト×画像でファインチューニング ▍ テキスト×画像→VisualCSEと呼ぶ ▍ テキスト×音声→AudioCSEと呼ぶ ▍ モダリティー間は、対である必要はない ▍ テキストはSimCLR損失関数を使う ▍ 画像や音声はSupCon損失関数を使う ▍ テキストでパラメータ更新1回 →画像でパラメータ更新1回と繰り返す VisualCSEの概要 【提案手法】
  • 17. 学習手順 17 ▊ 具体的手順 ▊ ▍ ミニバッチ内でテキストと画像を繰り返す ▍ 学習するモデルは一つの言語モデルLM ▍ テキストをミニバッチ分取得 ▍ DropoutでAugし正例作成 ▍ SimCLR損失で勾配計算 ▍ 勾配に基づきLMのパラメータ更新 ▍ 画像はクラスタラベルを使い ▍ VisionTransforerでエンベディング ▍ SupCon損失で同一クラスタを正例とし ▍ 勾配計算 ▍ 勾配に基づきLMのパラメータ更新
  • 19. 損失関数 19 ▊ 関連研究のSupCon損失との比較 ▊ 関連研究のSupCon損失 正例 正例 負例のみ 当論文のSupCon損失 正例ペアは全体に対して少ない前提だと 負例が大半で、ほぼ負例と考えられる 同一クラスタペア 正例 同一クラスタペアループ ほぼ負例 ミニバッチ内ループ ミニバッチ内ループ 同一クラスタペアループ 分子が正例で、分母が負例という基本構造は同じ 明示的に負例のみを加算 輪読者によるコメント 当論文のSubCon損失は、関連研究のSupCon損失の2つの内、Lsup,inがベース。 これは、関連研究では精度が悪い方である。理由はlogの内部にp(i)が入っているた め、勾配に寄与できない為。当論文ではこの部分を改良したと思われる。分母を負 例のみに限定する事で、 p(i)で割る部分を削除可能にし、より高い精度を実現でき たと推定される。ただし、この式の導出過程は詳しく記載されていない。 Supervised Contrastive Learning https://arxiv.org/abs/2004.11362 この損失関数導出の詳細は 論文に記載が無い 同一クラスタペア
  • 20. 実験設定 20 項目 内容 ▍ 言語モデル ▍ 学習済SimCSE(BERT-base-uncased・RoBERTa-base・RoBERTa-large) ▍ テキストデータセット ▍ 教師なし:Wikipedia英語 100K 文(※1) ▍ 画像データセット ▍ 教師あり:ImageNet 60クラス×500枚(※1) ※ 「教師なし」=「自己教師あり」 ※1 データセットからダウンサンプリングしている ▍ 学習設定 ▍ 1Epochファインチューニング。バッチサイズと学習率はグリッドサーチ ▍ 評価指標 ▍ 7つの文章意味類似度(STS)タスクで評価
  • 21. 実験結果 21 VisualCSEの実験結果 スピアマン相関 提案手法 提案手法 提案手法 ▊ 総合結果 ▊ ▍ SimCSEの教師なしに対して、凌駕する性能 ▍ テキスト以外のモダリティーを同時に学習し、テキストの性能が向上 ▍ モダリティー間の対になる例を必要とせず、性能が向上 ※「教師なし」=「自己教師あり」
  • 22. 実験結果 22 言語によるVisualCSEの効果の違い ▊ 言語による違い ▊ ▍ いずれの言語も改善が見られた ▍ ロシア語のような低資源言語において改善が著しい 提案手法 提案手法 提案手法 提案手法 +4.98改善
  • 23. 実験結果 23 教師ありSimCSEをベースに、他モダリティー活用で改善できるかを実験した結果 スピアマン相関 提案手法 提案手法 ▊ 結果 ▊ ▍ 改善はしているものの、改善幅が小さい ▍ 他モダリティー活用で、教師ありSimCSEの改善には寄与できない(と結論づけている)
  • 24. 実験結果 24 ▊ 下流タスク転移学習 ▊ ▍ 下流タスクにも うまく適用できている ▍ 改善はわずか 略記 タスク内容 MR 多点スケールのセンチメント分析。Good, Badではなく点数で処理 CR 口コミレビュー文章の要約。製品の特長と、肯定的か否定的かを抽出 SUBJ 口コミレビュー文章のセンチメント分析。主観部分のみを抽出 MPQA 言語中の意見、感情、推測、評価などの部分のコーパスアノテーション SST 長いフレーズの文章の、感情分析 TREC 文法的か、非文法的かを判断する MRPC 言い換え文の同定 提案手法 提案手法 提案手法 提案手法 提案手法 提案手法
  • 27. まとめ 27 ▊ 結論 ▊ ▍ テキストだけでなく、非言語領域からの対ではない例を加えて対照推定する事で、 テキスト表現学習を改善させるフレームワークを提案 ▍ 非言語領域のモダリティにとらわれない ▍ 低資源言語に特に効果的 ▊ 感想 ▊ ▍ SupCon損失関数に至る詳細が説明されておらず、関連研究からの改良ロジックが想像の域を超えない ▍ 提案手法の本題の実験設定と、アブレーションなども含めた一連の実験設定が一緒に記載されており、 フレームワークとしての一連の事項は理解できるが、提案手法を正しく捉えているかは要詳細調査 ▍ 対ではない例で学習し精度向上するが、モーダル間の関係性が対でモデル内に表現されているか興味あり ▍ 一部でも対の情報を加える事で、より精度向上やモーダル間の関係性表現向上に寄与しないか興味あり