【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx

ARISE analytics
ARISE analyticsARISE analytics
PiCO: Contrastive Label
Disambiguation for Partial Label
Learning
©2022 ARISE analytics Reserved.
ARISE analytics
近藤 真暉
発表文献
©2022 ARISE analytics Reserved. 1
【本発表の対象】
論文:https://arxiv.org/pdf/2201.08984v2.pdf
特に注釈のない画像は、上記からの引用です。
【補足資料】
PJページ:https://hbzju.github.io/pico/
スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf
発表動画:https://iclr.cc/virtual/2022/poster/6038
論文概要
©2022 ARISE analytics Reserved. 2
画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/
シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分
離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優
秀賞)
主な貢献
① Partial Label Learning への対照学習の導入
② Partial Label Learning における性能向上とより難しいタスクへの挑戦
③ PiCOの理論的な解析
Partial Label Learning(PLL:部分ラベル学習)
©2022 ARISE analytics Reserved. 3
複数のラベル候補(あいまいなラベル)を用いて行われる学習
GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的
アノテーションコストが低いため、応用が効きやすい
ラベル候補Yi:Hasky/Malamute/Samoyed
GT:Malamute
Supervised Learning
Partial Label Learning
ラベルの曖昧さ問題の例
©2022 ARISE analytics Reserved. 4
画像引用:Learning from Partial Labels(JMLR 2011)
別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正
はコスト大
→ PLL問題として解くことで、アノテーション流用を容易にしコストを下げる
ことができる
字幕・キャプションを用いて人物ラベル付与し
たい場合、
どちらのラベルを付与すればよいか?
PiCOの全体像
©2022 ARISE analytics Reserved. 5
MoCo(CVPR2020)をベースに、ふたつの工夫を導入
① Positive Sample Selection
② Prototype-based Label Disambiguation
←① Positive Sample Selection
←② Prototype-based
Label Disambiguation
MoCo(CVPR 2020)
©2022 ARISE analytics Reserved. 6
詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照
過去の入力
(Negative sample)
↑
同じ犬でもnegativeと扱う
(PiCOはここを解決)
momentum
encoder(t-1)
momentum
encoder(t-2)
momentum
encoder(t-3)
positive sample
Embedding pool
Keyの鮮度を保つため、
1iter終わったら、古いk
を捨てて新しいkを追加
positiveは近くなるように
negativeは遠くなるように
Lossを算出してEncoderを更新
重み更新
encoderに
近くなるように
若干重み更新
momentum encoder の重み更新式
↑encoder の重み
↑
momentum
encoder の重み
mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制
重み更新なし
① Positive Sample Selection
©2022 ARISE analytics Reserved. 7
Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行
い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える
ただし、このままではPLL問題が解けずラベルがあいまいなまま
→ ②Prototype-based Label Disambiguation で対処
P(x) : positive set
A(x) : Embedding pool(Momentum Embeddings)
1. Queryのラベル予測を行う
2. Embedding poolから同じラベルのmomentum
Embeddingを取り出す
3. 取り出したmomentum EmbeddingをPositive
Pairとして扱う
4. Contrastive Loss と Classifier Loss を算出
5. EncoderとMomentum Encoderの重みを更新
犬
猫
猫
犬だけ取り
出し
犬or猫分類
② Prototype-based Label Disambiguation
©2022 ARISE analytics Reserved. 8
一部、論文の図と発表スライドの図を組み合わせて加工
Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当
て
Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ
る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ
ベル(Disambiguated Labels)を一様分布で初期
化(※one-hotではなく連続値を用いる)
2. Queryの埋め込み特徴を取得
3. 最も近いPrototype Embeddig Vector u_jを探索
4. 移動平均法を用いてPrototype Embedding Vector
u_jを更新
5. Prototype Embedding Vector u_j に対応するクラ
スが大きくなるよう、それ以外は小さくなるよう
に疑似ラベルを更新
※Φは0~1の範囲で指定する疑似ラベルの更新量
を調整するためのモメンタム係数(超パラメ
タ)
2つの改良による効果
©2022 ARISE analytics Reserved. 9
一見関係なさそうな①②の改良
お互いにうまく協調して学習できる
①によるContrasitive Learningで埋め込み空間を学習
↓
埋め込み空間が適切に学習されることで、うまくクラスタリングできるように
なる
↓
クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい
に収束
↓
Prototype Embedding Vectorが適切に設定されると、①のPositive Sample
Selectionで正しいサンプルを選択できる
↓
これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束
PiCOは教師ありと教師なしクラスタリングのハイブリッド
学習初期は学習初期はラベル候補の信頼度が高い
学習が進むにつれてプロトタイプの信頼度が高くなる
移動平均方式で擬似ターゲットを更新することで、スムーズに
改善される
PiCOの具体的な処理フロー
©2022 ARISE analytics Reserved. 10
ミニバッチ取
得
ミニバッチからサンプル取得し、Augmentation
→MLPを通し埋め込み特徴を取得
取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと
める
ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと
は別)
クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新
まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う
Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現
queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布
Contrastive Lossを算出
Classfication Lossを算出
ふたつのLossをもとに、Encoderの重み
を更新
移動平均法に基づき、Momentum Encoderの重みを更新
Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨
てる
実験設定
©2022 ARISE analytics Reserved. 11
画像引用:CIFAR-10 and CIFAR-100 dataset
CIFAR-10/100で評価
正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL
問題にする)
正しいラベル GT = Airplane
↓
ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse]
ダミーのラベル数はPartial Rate qで決定
CIFAR-10 : q ∈ {0.1, 0.3, 0.5}
CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
実験結果 – 定量評価
©2022 ARISE analytics Reserved. 12
Supervised(教師あり)とほぼ同等の性能を確保
実験結果 – 定性評価
©2022 ARISE analytics Reserved. 13
t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを
用いたものであり、うまく分離できていない。先行研究で最も良かった
(b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO
featuresはきれいに分離されている。高品質な埋め込み表現を学習できている
ことを示す
実験結果 – 改良効果分析
©2022 ARISE analytics Reserved. 14
今回の改良のうち、どの改良が寄与したかを分析
②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample
Selection(対照学習 L_cont)の有無が性能向上に寄与
モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク
ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
実験結果 – より難しい問題設定では?
©2022 ARISE analytics Reserved. 15
画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset
CUB-200/CIFAR-100-Hでも実験
他手法と比べ最も良い性能が得られることを確認
CUB-200:200種類の鳥画像
CIFAR-100-H :CIFAR-100と同じだが、同じ
superclassだけで部分ラベルを構築
なぜPiCOはPPL問題をうまく解くことができるのか?
©2022 ARISE analytics Reserved. 16
画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere
(ICML 2020)
対照学習のクラスタリングへの影響から分析を実施
PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity
の性質を持つ
(a)alignment
似たサンプルからは似た特徴を
生成
(クラス内分散を最小化)
(b)uniformity
超球面上で一様性を持つ
(クラス間分散を最大化)
なぜPiCOはPPL問題をうまく解くことができるのか?
©2022 ARISE analytics Reserved. 17
(a)alignment に注目して解析した結果、
「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証
明省略)
式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト
ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得
できる
ノルム大きい
(密度薄い)
ノルム小さい
(密度高い)
まとめ
©2022 ARISE analytics Reserved. 18
画像引用:Learning from Partial Labels(JMLR 2011)
PiCOの主な貢献
① Partial Label Learning への対照学習の導入
② Partial Label Learning における性能向上とより難しいタスクへの挑戦
③ PiCOの理論的な解析
→ 教師あり学習と同等の性能を達成
他タスクのアノテーション流用によるモデルの高精度化が期待できるように
参考文献
©2022 ARISE analytics Reserved. 19
【本発表の対象】
論文:https://arxiv.org/pdf/2201.08984v2.pdf
【補足資料】
PJページ:https://hbzju.github.io/pico/
スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf
発表動画:https://iclr.cc/virtual/2022/poster/6038
【その他参考文献】
Learning from Partial Labels(JMLR 2011)
Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020)
Fine-grained Visual-textual Representation Learning(CVPR2020)
Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)
A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020)
Advancing Self-Supervised and Semi-Supervised Learning with SimCLR
[CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning
CIFAR-10 and CIFAR-100 dataset
Best Partner for innovation, Best Creator for the future.
1 de 21

Recomendados

バンディット問題の理論とアルゴリズムとその実装 por
バンディット問題の理論とアルゴリズムとその実装バンディット問題の理論とアルゴリズムとその実装
バンディット問題の理論とアルゴリズムとその実装EinosukeIida
264 visualizações31 slides
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning" por
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"Deep Learning JP
1K visualizações23 slides
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition por
論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition
論文紹介 wav2vec: Unsupervised Pre-training for Speech RecognitionYosukeKashiwagi1
2.6K visualizações33 slides
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 por
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
3.8K visualizações48 slides
全力解説!Transformer por
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
9.6K visualizações43 slides
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
3K visualizações21 slides

Mais conteúdo relacionado

Mais procurados

わかりやすいパターン認識_2章 por
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章weda654
25.4K visualizações31 slides
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
16K visualizações38 slides
ELBO型VAEのダメなところ por
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところKCS Keio Computer Society
2.7K visualizações12 slides
深層生成モデルと世界モデル por
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
16.6K visualizações57 slides
[DL輪読会]Unsupervised Learning by Predicting Noise por
[DL輪読会]Unsupervised Learning by Predicting Noise[DL輪読会]Unsupervised Learning by Predicting Noise
[DL輪読会]Unsupervised Learning by Predicting NoiseDeep Learning JP
1.1K visualizações31 slides
Data-Centric AIの紹介 por
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介Kazuyuki Miyazawa
3.8K visualizações39 slides

Mais procurados(20)

わかりやすいパターン認識_2章 por weda654
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda65425.4K visualizações
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida16K visualizações
深層生成モデルと世界モデル por Masahiro Suzuki
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki16.6K visualizações
[DL輪読会]Unsupervised Learning by Predicting Noise por Deep Learning JP
[DL輪読会]Unsupervised Learning by Predicting Noise[DL輪読会]Unsupervised Learning by Predicting Noise
[DL輪読会]Unsupervised Learning by Predicting Noise
Deep Learning JP1.1K visualizações
Data-Centric AIの紹介 por Kazuyuki Miyazawa
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa3.8K visualizações
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展 por Shiga University, RIKEN
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN13.6K visualizações
統計的因果推論への招待 -因果構造探索を中心に- por Shiga University, RIKEN
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN27.3K visualizações
先端技術とメディア表現1 #FTMA15 por Yoichi Ochiai
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai894K visualizações
[DL輪読会]相互情報量最大化による表現学習 por Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP7.6K visualizações
初めてのグラフカット por Tsubasa Hirakawa
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa8.7K visualizações
Triplet Loss 徹底解説 por tancoro
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro11.5K visualizações
【DL輪読会】時系列予測 Transfomers の精度向上手法 por Deep Learning JP
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP3.1K visualizações
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜 por SSII
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2.3K visualizações
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc... por Yamato OKAMOTO
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
Yamato OKAMOTO4.1K visualizações
Bayesian Neural Networks : Survey por tmtm otm
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm5K visualizações
数学で解き明かす深層学習の原理 por Taiji Suzuki
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki3.8K visualizações
DockerコンテナでGitを使う por Kazuhiro Suga
DockerコンテナでGitを使うDockerコンテナでGitを使う
DockerコンテナでGitを使う
Kazuhiro Suga18.8K visualizações
【DL輪読会】ViT + Self Supervised Learningまとめ por Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP4K visualizações

Mais de ARISE analytics

【論文レベルで理解しよう!】​ 欠測値処理編​ por
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​ARISE analytics
89 visualizações19 slides
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ por
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ARISE analytics
119 visualizações20 slides
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...ARISE analytics
184 visualizações32 slides
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... por
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...ARISE analytics
122 visualizações24 slides
教師なしGNNによるIoTデバイスの異常通信検知の検討 por
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討ARISE analytics
1K visualizações21 slides
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...ARISE analytics
578 visualizações18 slides

Mais de ARISE analytics(18)

【論文レベルで理解しよう!】​ 欠測値処理編​ por ARISE analytics
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​
ARISE analytics89 visualizações
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ por ARISE analytics
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
ARISE analytics119 visualizações
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics184 visualizações
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... por ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
ARISE analytics122 visualizações
教師なしGNNによるIoTデバイスの異常通信検知の検討 por ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics1K visualizações
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics578 visualizações
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... por ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics468 visualizações
【論文読み会】Autoregressive Diffusion Models.pptx por ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics5.3K visualizações
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx por ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics557 visualizações
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice por ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics700 visualizações
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) por ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics2.7K visualizações
【論文読み会】On the Expressivity of Markov Reward por ARISE analytics
【論文読み会】On the Expressivity of Markov Reward【論文読み会】On the Expressivity of Markov Reward
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics584 visualizações
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... por ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics700 visualizações
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds por ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics702 visualizações
Counterfaual Machine Learning(CFML)のサーベイ por ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイCounterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics29.9K visualizações
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features por ARISE analytics
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics7.8K visualizações
【論文読み会】Self-Attention Generative Adversarial Networks por ARISE analytics
【論文読み会】Self-Attention Generative  Adversarial Networks【論文読み会】Self-Attention Generative  Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics5.3K visualizações
【論文読み会】Universal Language Model Fine-tuning for Text Classification por ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification【論文読み会】Universal Language Model Fine-tuning for Text Classification
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics1.9K visualizações

Último

PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PC Cluster Consortium
28 visualizações36 slides
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Hitachi, Ltd. OSS Solution Center.
109 visualizações26 slides
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PC Cluster Consortium
66 visualizações12 slides
IPsec VPNとSSL-VPNの違い por
IPsec VPNとSSL-VPNの違いIPsec VPNとSSL-VPNの違い
IPsec VPNとSSL-VPNの違い富士通クラウドテクノロジーズ株式会社
606 visualizações8 slides
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可Hitachi, Ltd. OSS Solution Center.
10 visualizações22 slides
定例会スライド_キャチs 公開用.pdf por
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
146 visualizações64 slides

Último(7)

PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium28 visualizações
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium66 visualizações
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por Hitachi, Ltd. OSS Solution Center.
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
定例会スライド_キャチs 公開用.pdf por Keio Robotics Association
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association146 visualizações
光コラボは契約してはいけない por Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga28 visualizações

【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx

  • 1. PiCO: Contrastive Label Disambiguation for Partial Label Learning ©2022 ARISE analytics Reserved. ARISE analytics 近藤 真暉
  • 2. 発表文献 ©2022 ARISE analytics Reserved. 1 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 特に注釈のない画像は、上記からの引用です。 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038
  • 3. 論文概要 ©2022 ARISE analytics Reserved. 2 画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/ シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分 離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優 秀賞) 主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析
  • 4. Partial Label Learning(PLL:部分ラベル学習) ©2022 ARISE analytics Reserved. 3 複数のラベル候補(あいまいなラベル)を用いて行われる学習 GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的 アノテーションコストが低いため、応用が効きやすい ラベル候補Yi:Hasky/Malamute/Samoyed GT:Malamute Supervised Learning Partial Label Learning
  • 5. ラベルの曖昧さ問題の例 ©2022 ARISE analytics Reserved. 4 画像引用:Learning from Partial Labels(JMLR 2011) 別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正 はコスト大 → PLL問題として解くことで、アノテーション流用を容易にしコストを下げる ことができる 字幕・キャプションを用いて人物ラベル付与し たい場合、 どちらのラベルを付与すればよいか?
  • 6. PiCOの全体像 ©2022 ARISE analytics Reserved. 5 MoCo(CVPR2020)をベースに、ふたつの工夫を導入 ① Positive Sample Selection ② Prototype-based Label Disambiguation ←① Positive Sample Selection ←② Prototype-based Label Disambiguation
  • 7. MoCo(CVPR 2020) ©2022 ARISE analytics Reserved. 6 詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照 過去の入力 (Negative sample) ↑ 同じ犬でもnegativeと扱う (PiCOはここを解決) momentum encoder(t-1) momentum encoder(t-2) momentum encoder(t-3) positive sample Embedding pool Keyの鮮度を保つため、 1iter終わったら、古いk を捨てて新しいkを追加 positiveは近くなるように negativeは遠くなるように Lossを算出してEncoderを更新 重み更新 encoderに 近くなるように 若干重み更新 momentum encoder の重み更新式 ↑encoder の重み ↑ momentum encoder の重み mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制 重み更新なし
  • 8. ① Positive Sample Selection ©2022 ARISE analytics Reserved. 7 Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行 い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える ただし、このままではPLL問題が解けずラベルがあいまいなまま → ②Prototype-based Label Disambiguation で対処 P(x) : positive set A(x) : Embedding pool(Momentum Embeddings) 1. Queryのラベル予測を行う 2. Embedding poolから同じラベルのmomentum Embeddingを取り出す 3. 取り出したmomentum EmbeddingをPositive Pairとして扱う 4. Contrastive Loss と Classifier Loss を算出 5. EncoderとMomentum Encoderの重みを更新 犬 猫 猫 犬だけ取り 出し 犬or猫分類
  • 9. ② Prototype-based Label Disambiguation ©2022 ARISE analytics Reserved. 8 一部、論文の図と発表スライドの図を組み合わせて加工 Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当 て Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ ベル(Disambiguated Labels)を一様分布で初期 化(※one-hotではなく連続値を用いる) 2. Queryの埋め込み特徴を取得 3. 最も近いPrototype Embeddig Vector u_jを探索 4. 移動平均法を用いてPrototype Embedding Vector u_jを更新 5. Prototype Embedding Vector u_j に対応するクラ スが大きくなるよう、それ以外は小さくなるよう に疑似ラベルを更新 ※Φは0~1の範囲で指定する疑似ラベルの更新量 を調整するためのモメンタム係数(超パラメ タ)
  • 10. 2つの改良による効果 ©2022 ARISE analytics Reserved. 9 一見関係なさそうな①②の改良 お互いにうまく協調して学習できる ①によるContrasitive Learningで埋め込み空間を学習 ↓ 埋め込み空間が適切に学習されることで、うまくクラスタリングできるように なる ↓ クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい に収束 ↓ Prototype Embedding Vectorが適切に設定されると、①のPositive Sample Selectionで正しいサンプルを選択できる ↓ これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束 PiCOは教師ありと教師なしクラスタリングのハイブリッド 学習初期は学習初期はラベル候補の信頼度が高い 学習が進むにつれてプロトタイプの信頼度が高くなる 移動平均方式で擬似ターゲットを更新することで、スムーズに 改善される
  • 11. PiCOの具体的な処理フロー ©2022 ARISE analytics Reserved. 10 ミニバッチ取 得 ミニバッチからサンプル取得し、Augmentation →MLPを通し埋め込み特徴を取得 取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと める ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと は別) クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新 まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現 queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布 Contrastive Lossを算出 Classfication Lossを算出 ふたつのLossをもとに、Encoderの重み を更新 移動平均法に基づき、Momentum Encoderの重みを更新 Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨 てる
  • 12. 実験設定 ©2022 ARISE analytics Reserved. 11 画像引用:CIFAR-10 and CIFAR-100 dataset CIFAR-10/100で評価 正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL 問題にする) 正しいラベル GT = Airplane ↓ ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse] ダミーのラベル数はPartial Rate qで決定 CIFAR-10 : q ∈ {0.1, 0.3, 0.5} CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
  • 13. 実験結果 – 定量評価 ©2022 ARISE analytics Reserved. 12 Supervised(教師あり)とほぼ同等の性能を確保
  • 14. 実験結果 – 定性評価 ©2022 ARISE analytics Reserved. 13 t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを 用いたものであり、うまく分離できていない。先行研究で最も良かった (b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO featuresはきれいに分離されている。高品質な埋め込み表現を学習できている ことを示す
  • 15. 実験結果 – 改良効果分析 ©2022 ARISE analytics Reserved. 14 今回の改良のうち、どの改良が寄与したかを分析 ②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample Selection(対照学習 L_cont)の有無が性能向上に寄与 モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
  • 16. 実験結果 – より難しい問題設定では? ©2022 ARISE analytics Reserved. 15 画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset CUB-200/CIFAR-100-Hでも実験 他手法と比べ最も良い性能が得られることを確認 CUB-200:200種類の鳥画像 CIFAR-100-H :CIFAR-100と同じだが、同じ superclassだけで部分ラベルを構築
  • 17. なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics Reserved. 16 画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) 対照学習のクラスタリングへの影響から分析を実施 PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity の性質を持つ (a)alignment 似たサンプルからは似た特徴を 生成 (クラス内分散を最小化) (b)uniformity 超球面上で一様性を持つ (クラス間分散を最大化)
  • 18. なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics Reserved. 17 (a)alignment に注目して解析した結果、 「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証 明省略) 式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得 できる ノルム大きい (密度薄い) ノルム小さい (密度高い)
  • 19. まとめ ©2022 ARISE analytics Reserved. 18 画像引用:Learning from Partial Labels(JMLR 2011) PiCOの主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析 → 教師あり学習と同等の性能を達成 他タスクのアノテーション流用によるモデルの高精度化が期待できるように
  • 20. 参考文献 ©2022 ARISE analytics Reserved. 19 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038 【その他参考文献】 Learning from Partial Labels(JMLR 2011) Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) Fine-grained Visual-textual Representation Learning(CVPR2020) Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020) A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020) Advancing Self-Supervised and Semi-Supervised Learning with SimCLR [CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning CIFAR-10 and CIFAR-100 dataset
  • 21. Best Partner for innovation, Best Creator for the future.