SlideShare a Scribd company logo
Enviar pesquisa
Carregar
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
Denunciar
Compartilhar
ARISE analytics
ARISE analytics
Seguir
•
0 gostou
•
499 visualizações
1
de
21
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
•
0 gostou
•
499 visualizações
Denunciar
Compartilhar
Baixar agora
Baixar para ler offline
Tecnologia
社内で行った「International Conference on Learning Represantation (ICLR)2022読み会」でまとめた資料です。
Leia mais
ARISE analytics
ARISE analytics
Seguir
Recomendados
バンディット問題の理論とアルゴリズムとその実装 por
バンディット問題の理論とアルゴリズムとその実装
EinosukeIida
264 visualizações
•
31 slides
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning" por
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
1K visualizações
•
23 slides
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition por
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition
YosukeKashiwagi1
2.6K visualizações
•
33 slides
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 por
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
3.8K visualizações
•
48 slides
全力解説!Transformer por
全力解説!Transformer
Arithmer Inc.
9.6K visualizações
•
43 slides
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing por
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
3K visualizações
•
21 slides
Mais conteúdo relacionado
Mais procurados
わかりやすいパターン認識_2章 por
わかりやすいパターン認識_2章
weda654
25.4K visualizações
•
31 slides
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
16K visualizações
•
38 slides
ELBO型VAEのダメなところ por
ELBO型VAEのダメなところ
KCS Keio Computer Society
2.7K visualizações
•
12 slides
深層生成モデルと世界モデル por
深層生成モデルと世界モデル
Masahiro Suzuki
16.6K visualizações
•
57 slides
[DL輪読会]Unsupervised Learning by Predicting Noise por
[DL輪読会]Unsupervised Learning by Predicting Noise
Deep Learning JP
1.1K visualizações
•
31 slides
Data-Centric AIの紹介 por
Data-Centric AIの紹介
Kazuyuki Miyazawa
3.8K visualizações
•
39 slides
Mais procurados
(20)
わかりやすいパターン認識_2章 por weda654
わかりやすいパターン認識_2章
weda654
•
25.4K visualizações
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
•
16K visualizações
ELBO型VAEのダメなところ por KCS Keio Computer Society
ELBO型VAEのダメなところ
KCS Keio Computer Society
•
2.7K visualizações
深層生成モデルと世界モデル por Masahiro Suzuki
深層生成モデルと世界モデル
Masahiro Suzuki
•
16.6K visualizações
[DL輪読会]Unsupervised Learning by Predicting Noise por Deep Learning JP
[DL輪読会]Unsupervised Learning by Predicting Noise
Deep Learning JP
•
1.1K visualizações
Data-Centric AIの紹介 por Kazuyuki Miyazawa
Data-Centric AIの紹介
Kazuyuki Miyazawa
•
3.8K visualizações
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展 por Shiga University, RIKEN
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
•
13.6K visualizações
統計的因果推論への招待 -因果構造探索を中心に- por Shiga University, RIKEN
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
•
27.3K visualizações
先端技術とメディア表現1 #FTMA15 por Yoichi Ochiai
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
•
894K visualizações
[DL輪読会]相互情報量最大化による表現学習 por Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.6K visualizações
初めてのグラフカット por Tsubasa Hirakawa
初めてのグラフカット
Tsubasa Hirakawa
•
8.7K visualizações
Triplet Loss 徹底解説 por tancoro
Triplet Loss 徹底解説
tancoro
•
11.5K visualizações
【DL輪読会】時系列予測 Transfomers の精度向上手法 por Deep Learning JP
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
•
3.1K visualizações
BlackBox モデルの説明性・解釈性技術の実装 por Deep Learning Lab(ディープラーニング・ラボ)
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
•
22.5K visualizações
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜 por SSII
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
•
2.3K visualizações
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc... por Yamato OKAMOTO
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
Yamato OKAMOTO
•
4.1K visualizações
Bayesian Neural Networks : Survey por tmtm otm
Bayesian Neural Networks : Survey
tmtm otm
•
5K visualizações
数学で解き明かす深層学習の原理 por Taiji Suzuki
数学で解き明かす深層学習の原理
Taiji Suzuki
•
3.8K visualizações
DockerコンテナでGitを使う por Kazuhiro Suga
DockerコンテナでGitを使う
Kazuhiro Suga
•
18.8K visualizações
【DL輪読会】ViT + Self Supervised Learningまとめ por Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
•
4K visualizações
Mais de ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編 por
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
89 visualizações
•
19 slides
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 por
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
119 visualizações
•
20 slides
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
184 visualizações
•
32 slides
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... por
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
122 visualizações
•
24 slides
教師なしGNNによるIoTデバイスの異常通信検知の検討 por
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
1K visualizações
•
21 slides
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
578 visualizações
•
18 slides
Mais de ARISE analytics
(18)
【論文レベルで理解しよう!】 欠測値処理編 por ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
•
89 visualizações
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 por ARISE analytics
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
•
119 visualizações
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
•
184 visualizações
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... por ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
•
122 visualizações
教師なしGNNによるIoTデバイスの異常通信検知の検討 por ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
•
1K visualizações
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
•
578 visualizações
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... por ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
•
468 visualizações
【論文読み会】Autoregressive Diffusion Models.pptx por ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
•
5.3K visualizações
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx por ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
•
557 visualizações
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice por ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics
•
700 visualizações
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) por ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
•
2.7K visualizações
【論文読み会】On the Expressivity of Markov Reward por ARISE analytics
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics
•
584 visualizações
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... por ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics
•
700 visualizações
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds por ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
•
702 visualizações
Counterfaual Machine Learning(CFML)のサーベイ por ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
•
29.9K visualizações
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features por ARISE analytics
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
•
7.8K visualizações
【論文読み会】Self-Attention Generative Adversarial Networks por ARISE analytics
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
•
5.3K visualizações
【論文読み会】Universal Language Model Fine-tuning for Text Classification por ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics
•
1.9K visualizações
Último
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium
28 visualizações
•
36 slides
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Hitachi, Ltd. OSS Solution Center.
109 visualizações
•
26 slides
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium
66 visualizações
•
12 slides
IPsec VPNとSSL-VPNの違い por
IPsec VPNとSSL-VPNの違い
富士通クラウドテクノロジーズ株式会社
606 visualizações
•
8 slides
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
Hitachi, Ltd. OSS Solution Center.
10 visualizações
•
22 slides
定例会スライド_キャチs 公開用.pdf por
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association
146 visualizações
•
64 slides
Último
(7)
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium
•
28 visualizações
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Hitachi, Ltd. OSS Solution Center.
•
109 visualizações
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium
•
66 visualizações
IPsec VPNとSSL-VPNの違い por 富士通クラウドテクノロジーズ株式会社
IPsec VPNとSSL-VPNの違い
富士通クラウドテクノロジーズ株式会社
•
606 visualizações
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可 por Hitachi, Ltd. OSS Solution Center.
パスキーでリードする: NGINXとKeycloakによる効率的な認証・認可
Hitachi, Ltd. OSS Solution Center.
•
10 visualizações
定例会スライド_キャチs 公開用.pdf por Keio Robotics Association
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association
•
146 visualizações
光コラボは契約してはいけない por Takuya Matsunaga
光コラボは契約してはいけない
Takuya Matsunaga
•
28 visualizações
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
1.
PiCO: Contrastive Label Disambiguation
for Partial Label Learning ©2022 ARISE analytics Reserved. ARISE analytics 近藤 真暉
2.
発表文献 ©2022 ARISE analytics
Reserved. 1 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 特に注釈のない画像は、上記からの引用です。 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038
3.
論文概要 ©2022 ARISE analytics
Reserved. 2 画像引用:https://dognoie.com/blog/dog-picturebook/alaskaanmalamute-siberianhusky/ シベリアンハスキー(左)とアラスカンマラミュート(右)が曖昧でもうまく分 離できる手法を提案 → ICLR 2022 Outstanding Paper Honorable Mentions(優 秀賞) 主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析
4.
Partial Label Learning(PLL:部分ラベル学習) ©2022
ARISE analytics Reserved. 3 複数のラベル候補(あいまいなラベル)を用いて行われる学習 GT∈ラベル候補Yi であることを前提とし、真のラベルを特定することが目的 アノテーションコストが低いため、応用が効きやすい ラベル候補Yi:Hasky/Malamute/Samoyed GT:Malamute Supervised Learning Partial Label Learning
5.
ラベルの曖昧さ問題の例 ©2022 ARISE analytics
Reserved. 4 画像引用:Learning from Partial Labels(JMLR 2011) 別目的からのアノテーション流用においてもラベルの曖昧さ問題は発生。修正 はコスト大 → PLL問題として解くことで、アノテーション流用を容易にしコストを下げる ことができる 字幕・キャプションを用いて人物ラベル付与し たい場合、 どちらのラベルを付与すればよいか?
6.
PiCOの全体像 ©2022 ARISE analytics
Reserved. 5 MoCo(CVPR2020)をベースに、ふたつの工夫を導入 ① Positive Sample Selection ② Prototype-based Label Disambiguation ←① Positive Sample Selection ←② Prototype-based Label Disambiguation
7.
MoCo(CVPR 2020) ©2022 ARISE
analytics Reserved. 6 詳細は論文Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020)参照 過去の入力 (Negative sample) ↑ 同じ犬でもnegativeと扱う (PiCOはここを解決) momentum encoder(t-1) momentum encoder(t-2) momentum encoder(t-3) positive sample Embedding pool Keyの鮮度を保つため、 1iter終わったら、古いk を捨てて新しいkを追加 positiveは近くなるように negativeは遠くなるように Lossを算出してEncoderを更新 重み更新 encoderに 近くなるように 若干重み更新 momentum encoder の重み更新式 ↑encoder の重み ↑ momentum encoder の重み mは0.999など非常に大きな値が用いられ、急激な重み変化を抑制 重み更新なし
8.
① Positive Sample
Selection ©2022 ARISE analytics Reserved. 7 Positive Sampleを増やすため、Momentum Embeddingに対しラベル予測を行 い再利用。対照学習を用いた埋め込み表現の学習が効率よく行える ただし、このままではPLL問題が解けずラベルがあいまいなまま → ②Prototype-based Label Disambiguation で対処 P(x) : positive set A(x) : Embedding pool(Momentum Embeddings) 1. Queryのラベル予測を行う 2. Embedding poolから同じラベルのmomentum Embeddingを取り出す 3. 取り出したmomentum EmbeddingをPositive Pairとして扱う 4. Contrastive Loss と Classifier Loss を算出 5. EncoderとMomentum Encoderの重みを更新 犬 猫 猫 犬だけ取り 出し 犬or猫分類
9.
② Prototype-based Label
Disambiguation ©2022 ARISE analytics Reserved. 8 一部、論文の図と発表スライドの図を組み合わせて加工 Prototype Embedding Vector を導入し、クラスタリングによってラベル割り当 て Prototype Embedding Vectorは都度更新されるため、Contrasitive Learningによ る埋め込み表現が反映される 1. Queryのラベル予測モデルの学習に用いる疑似ラ ベル(Disambiguated Labels)を一様分布で初期 化(※one-hotではなく連続値を用いる) 2. Queryの埋め込み特徴を取得 3. 最も近いPrototype Embeddig Vector u_jを探索 4. 移動平均法を用いてPrototype Embedding Vector u_jを更新 5. Prototype Embedding Vector u_j に対応するクラ スが大きくなるよう、それ以外は小さくなるよう に疑似ラベルを更新 ※Φは0~1の範囲で指定する疑似ラベルの更新量 を調整するためのモメンタム係数(超パラメ タ)
10.
2つの改良による効果 ©2022 ARISE analytics
Reserved. 9 一見関係なさそうな①②の改良 お互いにうまく協調して学習できる ①によるContrasitive Learningで埋め込み空間を学習 ↓ 埋め込み空間が適切に学習されることで、うまくクラスタリングできるように なる ↓ クラスタリング効果が発揮されると、②Prototype Embedding Vectorがきれい に収束 ↓ Prototype Embedding Vectorが適切に設定されると、①のPositive Sample Selectionで正しいサンプルを選択できる ↓ これを繰り返すことで、相互的に補完しあい学習プロセス全体が収束 PiCOは教師ありと教師なしクラスタリングのハイブリッド 学習初期は学習初期はラベル候補の信頼度が高い 学習が進むにつれてプロトタイプの信頼度が高くなる 移動平均方式で擬似ターゲットを更新することで、スムーズに 改善される
11.
PiCOの具体的な処理フロー ©2022 ARISE analytics
Reserved. 10 ミニバッチ取 得 ミニバッチからサンプル取得し、Augmentation →MLPを通し埋め込み特徴を取得 取得した埋め込み特徴とキュー(Embedding Pool)の埋め込み特徴をまと める ミニバッチから取得したサンプルに対し、queryと同じAugumentationを実施してからクラス分類(Bqと は別) クラス分類の結果に応じて、Prototype Embedding Vectorを移動平均法で更新 まとめた埋め込み特徴から同じクラスのものを取り出し、Positive Sampleとして扱う Prototype Embedding Vector からクエリに最も近いものを選択し、One-hot-vectorで表現 queryに対応する疑似ラベルを更新 : s_iの初期値は1/(ラベル数)で初期化された一様分布 Contrastive Lossを算出 Classfication Lossを算出 ふたつのLossをもとに、Encoderの重み を更新 移動平均法に基づき、Momentum Encoderの重みを更新 Momentum Encoderで取得した埋め込み特徴と分類結果をキューに追加し、古い埋め込み特徴を捨 てる
12.
実験設定 ©2022 ARISE analytics
Reserved. 11 画像引用:CIFAR-10 and CIFAR-100 dataset CIFAR-10/100で評価 正しいラベル+ダミーのラベルをランダムに選択してラベル候補を構築(PLL 問題にする) 正しいラベル GT = Airplane ↓ ラベル候補Yi = [Airplane, Bird, Deer, Dog, Horse] ダミーのラベル数はPartial Rate qで決定 CIFAR-10 : q ∈ {0.1, 0.3, 0.5} CIFAR-100 : q ∈ {0.01, 0.05, 0.1}
13.
実験結果 – 定量評価 ©2022
ARISE analytics Reserved. 12 Supervised(教師あり)とほぼ同等の性能を確保
14.
実験結果 – 定性評価 ©2022
ARISE analytics Reserved. 13 t-SNEで可視化。(a)Uniform featuresは一様分布で初期化された疑似ラベルを 用いたものであり、うまく分離できていない。先行研究で最も良かった (b)PRODEN featuresではdog-cat-frogやairplane-shipが混ざっている。(c)PiCO featuresはきれいに分離されている。高品質な埋め込み表現を学習できている ことを示す
15.
実験結果 – 改良効果分析 ©2022
ARISE analytics Reserved. 14 今回の改良のうち、どの改良が寄与したかを分析 ②Prototype-based Label Disambiguation の工夫よりも、① Positive Sample Selection(対照学習 L_cont)の有無が性能向上に寄与 モメンタム係数Φ=0のときの②疑似ラベル更新については、Softmaxによるク ラス確率またはOne-hotで更新したほうが効果的・モメンタム係数は0.9が良い
16.
実験結果 – より難しい問題設定では? ©2022
ARISE analytics Reserved. 15 画像引用:Fine-grained Visual-textual Representation Learning(CVPR2020), CIFAR-10 and CIFAR-100 dataset CUB-200/CIFAR-100-Hでも実験 他手法と比べ最も良い性能が得られることを確認 CUB-200:200種類の鳥画像 CIFAR-100-H :CIFAR-100と同じだが、同じ superclassだけで部分ラベルを構築
17.
なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics
Reserved. 16 画像引用:Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) 対照学習のクラスタリングへの影響から分析を実施 PiCOで用いているContrasitive Lossの損失関数は (a)alignment、(b)uniformity の性質を持つ (a)alignment 似たサンプルからは似た特徴を 生成 (クラス内分散を最小化) (b)uniformity 超球面上で一様性を持つ (クラス間分散を最大化)
18.
なぜPiCOはPPL問題をうまく解くことができるのか? ©2022 ARISE analytics
Reserved. 17 (a)alignment に注目して解析した結果、 「(a)を最小化すると、式(10)の尤度の下限も最大化する」という定理を発見(証 明省略) 式(10)の尤度の下限が最大化されると、クラス内密度が高くなる(平均ベクト ルのノルムが小さくなる)効果がある → PiCOはコンパクトかつ良い表現を獲得 できる ノルム大きい (密度薄い) ノルム小さい (密度高い)
19.
まとめ ©2022 ARISE analytics
Reserved. 18 画像引用:Learning from Partial Labels(JMLR 2011) PiCOの主な貢献 ① Partial Label Learning への対照学習の導入 ② Partial Label Learning における性能向上とより難しいタスクへの挑戦 ③ PiCOの理論的な解析 → 教師あり学習と同等の性能を達成 他タスクのアノテーション流用によるモデルの高精度化が期待できるように
20.
参考文献 ©2022 ARISE analytics
Reserved. 19 【本発表の対象】 論文:https://arxiv.org/pdf/2201.08984v2.pdf 【補足資料】 PJページ:https://hbzju.github.io/pico/ スライド:https://iclr.cc/media/iclr-2022/Slides/6038.pdf 発表動画:https://iclr.cc/virtual/2022/poster/6038 【その他参考文献】 Learning from Partial Labels(JMLR 2011) Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere (ICML 2020) Fine-grained Visual-textual Representation Learning(CVPR2020) Momentum Contrast for Unsupervised Visual Representation Learning(CVPR 2020) A Simple Framework for Contrastive Learning of Visual Representations(ICML 2020) Advancing Self-Supervised and Semi-Supervised Learning with SimCLR [CVPR2020読み会@オンライン(前編)]Momentum Contrast for Unsupervised Visual Representation Learning CIFAR-10 and CIFAR-100 dataset
21.
Best Partner for
innovation, Best Creator for the future.