Início
Conheça mais
Enviar pesquisa
Carregar
Entrar
Cadastre-se
Anúncio
【DL輪読会】RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
Denunciar
Deep Learning JP
Seguir
Deep Learning JP
6 de Jan de 2023
•
0 gostou
0 gostaram
×
Seja o primeiro a gostar disto
mostrar mais
•
273 visualizações
visualizações
×
Vistos totais
0
No Slideshare
0
De incorporações
0
Número de incorporações
0
Check these out next
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
【DL輪読会】Segment Anything
Deep Learning JP
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)
Deep Learning JP
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
【DL輪読会】Bridge-Prompt: Toward Ordinal Action Understanding in Instructional Vi...
Deep Learning JP
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
1
de
15
Top clipped slide
【DL輪読会】RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
6 de Jan de 2023
•
0 gostou
0 gostaram
×
Seja o primeiro a gostar disto
mostrar mais
•
273 visualizações
visualizações
×
Vistos totais
0
No Slideshare
0
De incorporações
0
Número de incorporações
0
Baixar agora
Baixar para ler offline
Denunciar
Tecnologia
2023/1/6 Deep Learning JP http://deeplearning.jp/seminar-2/
Deep Learning JP
Seguir
Deep Learning JP
Anúncio
Anúncio
Anúncio
Recomendados
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
656 visualizações
•
16 slides
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
1K visualizações
•
16 slides
【DL輪読会】GPT-4Technical Report
Deep Learning JP
800 visualizações
•
29 slides
【DL輪読会】Emergent World Representations: Exploring a Sequence ModelTrained on a...
Deep Learning JP
184 visualizações
•
15 slides
【DL輪読会】Reward Design with Language Models
Deep Learning JP
542 visualizações
•
16 slides
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
Deep Learning JP
233 visualizações
•
37 slides
Mais conteúdo relacionado
Mais de Deep Learning JP
(20)
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
•
741 visualizações
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
1K visualizações
【DL輪読会】Segment Anything
Deep Learning JP
•
1.7K visualizações
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
•
232 visualizações
【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)
Deep Learning JP
•
401 visualizações
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
•
226 visualizações
【DL輪読会】Bridge-Prompt: Toward Ordinal Action Understanding in Instructional Vi...
Deep Learning JP
•
316 visualizações
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
•
330 visualizações
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
Deep Learning JP
•
445 visualizações
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
587 visualizações
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
•
1.1K visualizações
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
Deep Learning JP
•
698 visualizações
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
Deep Learning JP
•
286 visualizações
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
•
384 visualizações
【DL輪読会】HexPlaneとK-Planes
Deep Learning JP
•
928 visualizações
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
•
267 visualizações
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
•
1K visualizações
【DL輪読会】NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and Animation
Deep Learning JP
•
118 visualizações
【DL輪読会】NeRF in the Palm of Your Hand: Corrective Augmentation for Robotics vi...
Deep Learning JP
•
345 visualizações
【DL輪読会】WIRE: Wavelet Implicit Neural Representations
Deep Learning JP
•
385 visualizações
Último
(20)
SoftwareControl.pdf
ssusercd9928
•
15 visualizações
統計学の攻略_統計的仮説検定の9パターン.pdf
akipii Oga
•
27 visualizações
PCベース制御による集中制御.pdf
ssusercd9928
•
19 visualizações
GitHub Copilotとともに次の開発体験へ
Kazumi IWANAGA
•
15 visualizações
統計学の攻略_正規分布ファミリーの全体像.pdf
akipii Oga
•
28 visualizações
20230516 @Mix Leap Hirohiko_Suwa
Masashi Nakagawa
•
82 visualizações
①【戴尔豪斯大学毕业证文凭学位证书|工艺完美复刻】
love445ds
•
2 visualizações
ネットワークパケットブローカー市場.pdf
HinaMiyazu
•
3 visualizações
ヘッドレス化したbaserCMS5とその機能
Ryuji Egashira
•
10 visualizações
SoftwareControl.pdf
ssusercd9928
•
6 visualizações
突如登場したAzure Developer CLIでなにができるのか?検証してみる
Kazumi IWANAGA
•
27 visualizações
TestSIP (1).pdf
DeependraSingh712859
•
2 visualizações
①【威斯康星大学麦迪逊分校毕业证文凭学位证书|工艺完美复刻】
C25lokh12
•
3 visualizações
留信网认证可查【皇家霍洛威学院文凭证书毕业证购买】
32lkhng
•
2 visualizações
シン3次元表示装置 ーその1ー
Takashi Yamanoue
•
126 visualizações
☀️【杜兰大学毕业证成绩单留学生首选】
2125nuh
•
2 visualizações
Omnis
DaisukeFujita10
•
11 visualizações
留信网认证可查【拜欧拉大学文凭证书毕业证购买】
1lkjhg
•
3 visualizações
CDLEハッカソン2022参加報告.pdf
SHOIWA1
•
0 visão
Apache EventMesh を使ってみた
Yoshiyasu SAEKI
•
39 visualizações
Anúncio
【DL輪読会】RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
1 Atsuya Kitada, Matsuo
Lab, M1 RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
2 書誌情報 RSA: Reducing Semantic
Shift from Aggressive Augmentations for Self- supervised Learning • NeurIPS 2022 • 著者:Yingbin Bai, Erkun Yang, Zhaoqing Wang, Yuxuan Du, Bo Han, Cheng Deng, Dadong Wang, Tongliang Liu,
3 概要 背景 • 自己教師あり学習ではデータ拡張を強くかけすぎるとデータの意味合いが変化してしまう • DNNでは、学習序盤にcleanなサンプルを記憶し、終盤にnoisyなデータに対して過学習す る、”記憶効果”と呼ばれる現象が知られている。 提案手法 •
強弱によってデータ拡張を2段階に分割 • 強弱の異なるデータ拡張による特徴表現間のバランスを取るハイパラβを導入し、序盤は 強いデータ拡張、終盤は弱いデータ拡張の影響を強める。 有効性 • 多段階のデータ拡張、ハイパラβの両方が後続タスク(線形分類)の精度向上に寄与 • データセットのサイズに関わらず、RSAでの表現学習により後続タスク(線形分類)の精 度向上 • バックボーンの事前学習にRSAを導入し、物体検出やセグメンテーションタスクに転移さ せ、ファインチューニングさせると、性能が向上
4 前提知識 自己教師あり学習で鍵となるデータ拡張 自己教師あり学習 • 一般的な手法である教師あり学習では教師ラベルの作成に多大な労力がかかる一方、教師ラベルなしで普 遍的な表現を学習する手法として近年注目を浴びている。 • 特に対照学習(Contrastive
Learning)と呼ばれる、データ拡張方法の異なるペア画像を対比する手法に よって獲得された表現は後続タスクでの精度が高い。 データ拡張による表現の向上 • データ拡張によって対比する学習画像ペアを多様にすることが表現向上の鍵。 例) SimCLR
5 背景 課題: 強いデータ拡張は画像を大きく歪めるため、元画像と意味合いが変わってしまう 上段は元画像、下段は元画像に対して強いデータ拡張かけて生じたNoisyなサンプル • 強いデータ拡張によって生成されるサンプルの大多数は表現学習に有益である。 •
一方、強いデータ拡張によって意味的な変化を起こしてしまうサンプルが少数発生し、学習に有害である。
6 背景 記憶効果: DNNは学習序盤にcleanなサンプルを記憶、その後noisyなデータを過学習する 学習初期 学習終盤 •
意味的変化が生じるnoisyなデータに対して 過学習する。 • 意味合いを保ったcleanなデータをまず記憶 する。
7 提案手法 学習序盤は強いデータ拡張の利点を活かし、終盤は意味的変化の影響を抑える 学習初期 学習終盤 • 意味的変化が生じるnoisyなデータに対して 過学習する。 →
noisyデータの影響が大きいため、過学習に よる悪影響を抑える。 • 意味合いを保ったcleanなデータをまず記憶 する。 → noisyデータの影響が少ないため、強いデー タ拡張による利点をそのまま活かす。
8 提案手法 強弱に応じた多段階データ拡張を導入、強弱の異なるデータ拡張による特徴表現間のバランスを取る 工夫1 強弱に応じた 多段階データ拡張 工夫2 wとaのバランスを取るハイパラの導入 ※ Jean-Bastien Grill,
Florian Strub, Florent Altché, Corentin Tallec, Pierre H. Richemond, Elena Buchatskaya, Carl Doersch, Bernardo Ávila Pires, Zhaohan Guo, Mohammad Gheshlaghi Azar, Bilal Piot, Koray Kavukcuoglu, Rémi Munos, and Michal Valko. Bootstrap your own latent - A new approach to selfsupervised learning. In NeurIPS, pages 21271– 21284, 2020. ※ 基本的な構造はBYOLと同じ
提案手法 工夫1: 強弱によってデータ拡張の過程を2段階に分割 画像xに対して異なるデータ拡張t, t’をかけることで 得られる画像ペアの特徴表現を近づけるように学習 BYOL データ拡張t,
t’それぞれを、弱いデータ拡張tw, tw’、強いデータ拡張ta, ta’ という2つの過程に分割。 通常の対照学習 提案手法 RSA … 9
• 強いデータ拡張による表現と弱いデータ拡張による表現の2つから 計算される損失項の大きさを調整するパラメータβを導入 • 強いデータ拡張と弱いデータ拡張の重みのバランスを調整する •
βを学習エポックkに応じて減衰させ、終盤のnoisyデータの過学習 による悪影響を抑える。 10 提案手法 工夫2: データ拡張の強弱が違う2つの特徴表現間のバランスを取るハイパラβの導入 ※ BYOLと同様 ※
11 提案手法 全体のアルゴリズム
12 実験 実験1: 多段階のデータ拡張とハイパラβが共に線形分類精度の向上に寄与 • 設定 •
特徴表現の線形分類性能によって精度評価。 • データセットとしてImageNet-100を使用。 • ベースライン手法としてBYOLを採用。 • 提案手法については、①多段階データ拡張を使用しハイパラβを固定した場合、②ハイパラβ を学習エポックに応じて減衰させた場合の2種類を用意し、多段階データ拡張、ハイパラβそれ ぞれの影響を測定。 • 結果:多段階データ拡張とハイパラβの両方が精度向上に寄与。
13 実験結果 実験2: 小中規模データセットに対して提案手法が有効 • 設定 •
特徴表現の線形分類性能によって精度評価。 • 小中規模なデータセットとして、CIFAR10, CIFAR100, STL-10, Tiny ImageNetを使用。 • 比較対象手法としてSimCLR, MoCo, SimSiam, BYOLを採用。 • 学習エポック数を200と800の2パターン用意 • 結果:学習エポック数によらず、いずれの既存手法よりも線形分類精度が高い。
14 実験結果 実験3: 大規模データセットに対しても提案手法が有効 • 設定 •
特徴表現の線形分類性能によって精度評価。 • 大規模なデータセットとして、ImageNet-100, ImageNet-1Kを使用。 • 比較対象手法としてSimCLR, MoCo, SimSiam, BYOLを採用。 • 学習エポック数を200と800の2パターン用意 • 結果:いずれの既存手法よりも線形分類精度が高い。 ImageNet-100 ImageNet-1K
15 実験結果 実験3: 転移性能による評価 • 設定 •
提案手法RSAを用いてImageNet-1Kで200エポック事前学習したモデルを、MS COCO データセットの物体検出/セグメンテーションタスクでファインチューニング。 • 結果:物体検出、セグメンテーションどちらについても、既存手法より高精度。
Anúncio