SlideShare a Scribd company logo
Enviar pesquisa
Carregar
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
Denunciar
Compartilhar
ARISE analytics
ARISE analytics
Seguir
•
6 gostaram
•
7,791 visualizações
1
de
33
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
•
6 gostaram
•
7,791 visualizações
Denunciar
Compartilhar
Baixar agora
Baixar para ler offline
Dados e análise
論文「Deep Clustering for Unsupervised Learning of Visual Features」について輪読した際の資料です。
Leia mais
ARISE analytics
ARISE analytics
Seguir
Recomendados
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv... por
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
19.3K visualizações
•
29 slides
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat... por
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
1.9K visualizações
•
21 slides
[DL輪読会]ICLR2020の分布外検知速報 por
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
5.4K visualizações
•
12 slides
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021) por
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
3.7K visualizações
•
24 slides
畳み込みニューラルネットワークの高精度化と高速化 por
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
64.5K visualizações
•
133 slides
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models por
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
2.6K visualizações
•
15 slides
Mais conteúdo relacionado
Mais procurados
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
4.8K visualizações
•
34 slides
近年のHierarchical Vision Transformer por
近年のHierarchical Vision Transformer
Yusuke Uchida
13.9K visualizações
•
46 slides
ブースティング入門 por
ブースティング入門
Retrieva inc.
34K visualizações
•
33 slides
[DL輪読会]逆強化学習とGANs por
[DL輪読会]逆強化学習とGANs
Deep Learning JP
8.7K visualizações
•
50 slides
Transformerを雰囲気で理解する por
Transformerを雰囲気で理解する
AtsukiYamaguchi1
4.8K visualizações
•
37 slides
2014 3 13(テンソル分解の基礎) por
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
40.5K visualizações
•
44 slides
Mais procurados
(20)
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
•
4.8K visualizações
近年のHierarchical Vision Transformer por Yusuke Uchida
近年のHierarchical Vision Transformer
Yusuke Uchida
•
13.9K visualizações
ブースティング入門 por Retrieva inc.
ブースティング入門
Retrieva inc.
•
34K visualizações
[DL輪読会]逆強化学習とGANs por Deep Learning JP
[DL輪読会]逆強化学習とGANs
Deep Learning JP
•
8.7K visualizações
Transformerを雰囲気で理解する por AtsukiYamaguchi1
Transformerを雰囲気で理解する
AtsukiYamaguchi1
•
4.8K visualizações
2014 3 13(テンソル分解の基礎) por Tatsuya Yokota
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
•
40.5K visualizações
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision por Deep Learning JP
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
•
46.5K visualizações
【DL輪読会】ViT + Self Supervised Learningまとめ por Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
•
4K visualizações
Active Learning 入門 por Shuyo Nakatani
Active Learning 入門
Shuyo Nakatani
•
51.8K visualizações
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会) por Yoshitaka Ushiku
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Yoshitaka Ushiku
•
4.9K visualizações
自己教師学習(Self-Supervised Learning) por cvpaper. challenge
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
•
12.8K visualizações
[DL輪読会]Flow-based Deep Generative Models por Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
•
14.6K visualizações
[DL輪読会]相互情報量最大化による表現学習 por Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.6K visualizações
backbone としての timm 入門 por Takuji Tahara
backbone としての timm 入門
Takuji Tahara
•
7.4K visualizações
SSII2022 [OS3-02] Federated Learningの基礎と応用 por SSII
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
•
2.4K visualizações
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
•
16K visualizações
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック por 西岡 賢一郎
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
•
682 visualizações
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) por RyuichiKanoh
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
•
25.6K visualizações
画像キャプションの自動生成 por Yoshitaka Ushiku
画像キャプションの自動生成
Yoshitaka Ushiku
•
58K visualizações
[DL輪読会]Focal Loss for Dense Object Detection por Deep Learning JP
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
•
14.3K visualizações
Similar a 【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
Large Scale GAN Training for High Fidelity Natural Image Synthesis por
Large Scale GAN Training for High Fidelity Natural Image Synthesis
imenurok
438 visualizações
•
37 slides
Triplet Lossによる Person Re-identification por
Triplet Lossによる Person Re-identification
tancoro
5.1K visualizações
•
18 slides
Generative Adversarial Networks (GAN) @ NIPS2017 por
Generative Adversarial Networks (GAN) @ NIPS2017
Koichi Hamada
15.8K visualizações
•
67 slides
グラフデータ分析 入門編 por
グラフデータ分析 入門編
順也 山口
34.9K visualizações
•
65 slides
Ocha 20191204 por
Ocha 20191204
Atsushi Hashimoto
382 visualizações
•
56 slides
CNNの構造最適化手法(第3回3D勉強会) por
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
972 visualizações
•
28 slides
Similar a 【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
(20)
Large Scale GAN Training for High Fidelity Natural Image Synthesis por imenurok
Large Scale GAN Training for High Fidelity Natural Image Synthesis
imenurok
•
438 visualizações
Triplet Lossによる Person Re-identification por tancoro
Triplet Lossによる Person Re-identification
tancoro
•
5.1K visualizações
Generative Adversarial Networks (GAN) @ NIPS2017 por Koichi Hamada
Generative Adversarial Networks (GAN) @ NIPS2017
Koichi Hamada
•
15.8K visualizações
グラフデータ分析 入門編 por 順也 山口
グラフデータ分析 入門編
順也 山口
•
34.9K visualizações
Ocha 20191204 por Atsushi Hashimoto
Ocha 20191204
Atsushi Hashimoto
•
382 visualizações
CNNの構造最適化手法(第3回3D勉強会) por MasanoriSuganuma
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
•
972 visualizações
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin... por Deep Learning JP
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP
•
3.7K visualizações
Deep learningの概要とドメインモデルの変遷 por Taiga Nomi
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
•
26.5K visualizações
[DL輪読会]Graph R-CNN for Scene Graph Generation por Deep Learning JP
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
•
3.7K visualizações
ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN) por tomohiro kato
ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN)
tomohiro kato
•
8.6K visualizações
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換 por Koichi Hamada
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Koichi Hamada
•
28.2K visualizações
CVPR 2011 ImageNet Challenge 文献紹介 por Narihira Takuya
CVPR 2011 ImageNet Challenge 文献紹介
Narihira Takuya
•
1.5K visualizações
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ por Kensuke Otsuki
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
Kensuke Otsuki
•
6.7K visualizações
Icml2018読み会_overview&GANs por Kentaro Tachibana
Icml2018読み会_overview&GANs
Kentaro Tachibana
•
2.8K visualizações
20190804_icml_kyoto por Takayoshi Yamashita
20190804_icml_kyoto
Takayoshi Yamashita
•
5.7K visualizações
AIがAIを生み出す? por Daiki Tsuchiya
AIがAIを生み出す?
Daiki Tsuchiya
•
314 visualizações
[DL輪読会]Deep Face Recognition: A Survey por Deep Learning JP
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
•
23K visualizações
Seeing Unseens with Machine Learning -- 見えていないものを見出す機械学習 por Tatsuya Shirakawa
Seeing Unseens with Machine Learning -- 見えていないものを見出す機械学習
Tatsuya Shirakawa
•
1.7K visualizações
Nips20180127 por Takamitsu Oomasa
Nips20180127
Takamitsu Oomasa
•
5K visualizações
Bridging between Vision and Language por Shion Honda
Bridging between Vision and Language
Shion Honda
•
1.8K visualizações
Mais de ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編 por
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
87 visualizações
•
19 slides
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 por
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
118 visualizações
•
20 slides
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
184 visualizações
•
32 slides
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... por
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
122 visualizações
•
24 slides
教師なしGNNによるIoTデバイスの異常通信検知の検討 por
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
1K visualizações
•
21 slides
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
578 visualizações
•
18 slides
Mais de ARISE analytics
(18)
【論文レベルで理解しよう!】 欠測値処理編 por ARISE analytics
【論文レベルで理解しよう!】 欠測値処理編
ARISE analytics
•
87 visualizações
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編 por ARISE analytics
【論文レベルで理解しよう!】 大規模言語モデル(LLM)編
ARISE analytics
•
118 visualizações
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics
•
184 visualizações
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (... por ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision (...
ARISE analytics
•
122 visualizações
教師なしGNNによるIoTデバイスの異常通信検知の検討 por ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
•
1K visualizações
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics
•
578 visualizações
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... por ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics
•
468 visualizações
【論文読み会】Autoregressive Diffusion Models.pptx por ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
•
5.3K visualizações
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx por ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
•
555 visualizações
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx por ARISE analytics
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
ARISE analytics
•
497 visualizações
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice por ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics
•
699 visualizações
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) por ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics
•
2.7K visualizações
【論文読み会】On the Expressivity of Markov Reward por ARISE analytics
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics
•
583 visualizações
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... por ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics
•
699 visualizações
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds por ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
•
701 visualizações
Counterfaual Machine Learning(CFML)のサーベイ por ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
•
29.9K visualizações
【論文読み会】Self-Attention Generative Adversarial Networks por ARISE analytics
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
•
5.3K visualizações
【論文読み会】Universal Language Model Fine-tuning for Text Classification por ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics
•
1.9K visualizações
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
1.
©2018 ARISE analytics 2018/09/21 担当:
堀越 Deep Clustering for Unsupervised Learning of Visual Features
2.
©2018 ARISE analytics
2 概要 タイトル: Deep Clustering for Unsupervised Learning of Visual Features 著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze https://arxiv.org/abs/1807.05520 一言で言うと すごい点 感想 CNNで特徴抽出してK-meansを繰り返す 教師なしでもCNNで特徴抽出ができる DeepClusterを使って教師なしで pre-training → 少量の画像で fine-tuning というやり方は現実の問題でも使えそう モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
3.
©2018 ARISE analytics
3 Motivation 背景: CNNは画像認識において非常に重要な技術になっている。その中で、オープンな大規模データセットで あるImageNetは非常に大きな役割を果たした。 しかしながら、近年では様々な新手法が提案されているにも関わらず、そのパフォーマンスは上げどまっ ている。ImageNetでは、SOTAな手法のパフォーマンスを評価しきれていないのではないか? 目的: ImageNetより大きなデータセットを、コストをかけずに作りたい。
4.
©2018 ARISE analytics
4 ImageNetとは ImageNet - 画像1,400万枚、2万クラス以上 ILSVRC2012 ImageNetのサブセット - 1,000 クラス - 学習用データ: 120万枚 - 検証用データ: 5万枚 - 評価用データ: 10万枚
5.
©2018 ARISE analytics
5 ImageNetの限界 ConvNets and ImageNet Beyond Accuracy: Understanding Mistakes and Uncovering Biases (Stock et al. 2017) https://arxiv.org/abs/1711.11443 Top: Performance evolution of various CNN architectures on ImageNet. Bottom: Some images sampled from the Internet and misclassified by a ResNet-101. Some test samples misclassified by a ResNet-101 (first row) and a Densenet-161(second row). The predicted class is indicated in red, the ground truth in black and in parenthesis. All those examples gathered more than four (4 or 5) positive answers over 5 on AMT. Note that no adversarial noise has been added to the images.
6.
©2018 ARISE analytics
6 Deep Learningを用いたクラスタリング手法 (既存研究)
7.
©2018 ARISE analytics
7 Deep Learningを用いたクラスタリング手法 https://arxiv.org/abs/1801.07648 COIL20: Columbia University Image Library Clustering with Deep Learning: Taxonomy and New Methods (Aljalbout et al. 2018) Modified in red (Aljalbout et al. 2018) Splitting GAN (Grinblat et al. 2017) GAN Critic output Wasserstein loss k-Means loss Pretraining and fine tuning k-Means
8.
©2018 ARISE analytics
8 Encoder / Decoderを使う方法 https://arxiv.org/abs/1511.06335 Unsupervised Deep Embedding for Clustering Analysis (Xie et al. 2015) Encoder / Decoderで学習した表現について、クラスタのKL情報量を最小にするようクラスタリングす る Deep Embedded Clustering (DEC)
9.
©2018 ARISE analytics
9 クラスタリングのステップをDLへ組み込む方法 https://arxiv.org/abs/1604.03628 Joint Unsupervised Learning of Deep Representations and Image Clusters (Yang et al. 2016) 階層的クラスタリングの併合を周期的プロセスと見立てて、RCNNを学習する Joint Unsupervised Learning (JULE)
10.
©2018 ARISE analytics
10 CNNの表現を使う方法 https://arxiv.org/abs/1705.07091 CNN-Based Joint Clustering and Representation Learning with Feature Drift Compensation for Large-Scale Image Data (Hsu et al. 2016) ミニバッチ単位で、CNNの学習とk-meansを繰り返す
11.
©2018 ARISE analytics
11 GANを使う方法 https://arxiv.org/abs/1709.07359 Class-Splitting Generative Adversarial Networks (Grinblat et al. 2017) Critic (Discriminator)の最終層の表現をクラスタリングし、クラスタのラベルでGeneratorを学習さ せる
12.
©2018 ARISE analytics
12 Deep Clustering for Unsupervised Learning of Visual Features
13.
©2018 ARISE analytics
13 概要 学習データとなる画像をCNNで教師なし学習させ、その最終層の表現をクラスタリングする。学習の際 の正解データとして、前Epochでのクラスタのラベルを用いる (pseudo-labeling)
14.
©2018 ARISE analytics
14 定式化 • Given a training set X = {x1, x2, ..., xn} of N images. • each image xn is associated with a label yn in {0, 1}^k. • This label represents the image’s membership to one of k possible predefined classes. • Fθ is a convnet mapping, where θ is the set of corresponding parameters. • The features fθ(xn) produced by the convnet, and clusters them into k distinct groups based on a geometric criterion. • It jointly learns a d*k centroid matrix C and the cluster assignments yn of each image n by solving the following problem.
15.
©2018 ARISE analytics
15 実装 - Standard AlexNet architecture - Five convolutional layers with 96, 256, 384, 384 and 256 filters. - Three fully connected layers. - Remove the Local Response Normalization layers and use batch normalization. - For the clustering, features are PCA-reduced to 256 dimensions, whitened and l2-normalized. Image Transformation - Sobel Filtering Data Augmentation - Random horizontal flips - Crops of random sizes and aspect ratios Preprocessing CNN Clustering http://nocotan.github.io/chainer/2017/08/04/chainercnn-copy.html PCA 256 k-meansAlexNet
16.
©2018 ARISE analytics
16 実装上の工夫: 前処理 オブジェクトの分類には色よりもエッジの情報が重要だが、生の画像で学習させると最初のレイヤーが色 情報を抽出してしまう。 →画像にSobel Filterをかけ、エッジを抽出しておく Filters from the first layer of an AlexNet trained on unsupervised ImageNet on raw RGB input (left) or after a Sobel filtering (right).
17.
©2018 ARISE analytics
17 実装上の工夫: クラスタリング Empty clusters: • 空のクラスタができた場合、空でないクラスタをランダムに選び、そのセントロイドをわずかにずらして二 つのクラスタを作る Trivial parametrization: • クラスタの偏りを防ぐため、学習データを pseudo-labelのが一様分布からサンプリングする or • 損失関数をクラスタの大きさの逆数で重み付けする
18.
©2018 ARISE analytics
18 評価 a) クラスタと真のラベルとの相互情報量 b) あるEpochと直前のEpochのクラスタの相互情報量 c) クラスタ数 k の影響
19.
©2018 ARISE analytics
19 評価 a) クラスタと真のラベルとの相互情報量 真のラベルとクラスタのラベルがどの程度一致しているかを示す。真のラベルは学習時には使っていない が、学習が進むにつれクラスタのラベルは真のラベルに近づいている
20.
©2018 ARISE analytics
20 評価 b) あるEpochと直前のEpochのクラスタの相互情報量 Epoch ごとにCNNを学習→k-meansでクラスタリングしたラベルで再学習を繰り返すため、クラスタの 中身は順次入れ替わっていく。Epochが進んでいくと、クラスタの中身の入れ替わりが少なくなっていく = クラスタが安定していく。 とはいえ、0.8程度で上げどまるため、少なくない割合の画像はEpochのたびに別のクラスタに割り当て られることになる。もっとも、実用上はこれでもそれほど問題なく、単一のモデルに収束していく (ホン ト?)
21.
©2018 ARISE analytics
21 評価 c) クラスタ数 k の影響 クラスタ数 k を対数スケールで変更した時、ImageNetで300Epoch学習した後、別のデータセット* でのmAPを調べる。最良のパフォーマンスは k=10,000の時に得られた。 真のクラス数(1,000)よりもある程度 大きなクラスタ数を選ぶのが良さそう * Pascal VOC 2007のバリデーションセット, 20クラス
22.
©2018 ARISE analytics
22 Q&A • そもそも学習できるの? • 処理時間はどれくらい? • どの程度良い表現を学習している? • 別のデータセットでも使える? • 別のモデルでも使える? • 別のクラスタリングアルゴリズムは使える? • 他のタスクにも使える?
23.
©2018 ARISE analytics
23 そもそも学習できるの? A. できる Deep Learningでは、学習データのラベルをランダム化しても、訓練誤差が0にできることが知られてい る。同じように、ランダムなセントロイドによるクラスタを初期値として学習を始めても、中間層では徐々 に適切な表現を学習していく? Understanding Deep Learning Requires Rethinking Generalization (Zhang et al. 2016) Randomization tests. ...we train several standard architectures on a copy of the data where the true labels were replaced by random labels. Our central finding can be summarized as: Deep neural networks easily fit random labels. More precisely, when trained on a completely random labeling of the true data, neural networks achieve 0 training error.
24.
©2018 ARISE analytics
24 処理時間はどれくらい? A. 以下の環境で12日くらい - 500エポック - Pascal P100 - 市場価格100万円くらい? 全体の1/3くらいは k-means にかかる時間 →クラスタリングの際に全データをForwardする必要があるため、、通常の学習の1.5倍以上の時間が かかる?
25.
©2018 ARISE analytics
25 どの程度良い表現を学習している? A. CNNの各層で、他の教師なしと比べて良い表現を学習している 評価方法: 教師なしでpre-trainingしたCNNの各層について、それぞれの直後に線形分類器をおいてfine- tuningした場合のaccuracyを評価 (パフォーマンスがよければ、その層はより良い表現を学習できて いるはず) MIT Places database http://places.csail.mit.edu/
26.
©2018 ARISE analytics
26 どの程度良い表現を学習している? 深いレイヤーほどより大きな特徴を捉えている。が、畳み込みの最終層のフィルタのいくつかは、それまで の層で捉えた特徴を捉え直しているだけに見えるものもある (下段)
27.
©2018 ARISE analytics
27 どの程度良い表現を学習している? 最終層のフィルタを見ると、あるフィルタは何らかのクラス、もしくはパターンに対応していそう
28.
©2018 ARISE analytics
28 別のデータセットでも使える? A. 使える 評価方法: ImageNetは各クラスの画像数が均等になっており、DeepClusterに有利なデータである。 この影響を検証するため、YFCC100M*からランダムに選択した100万枚の画像について、その accuracyを検証した Yahoo Flickr Creative Commons 100 Millionデータセット。クラスに大きな偏りがある
29.
©2018 ARISE analytics
29 別のモデルでも使える? A. 使える 教師ありの場合と同じように、より深いモデルを使うとパフォーマンスは向上する 評価方法: ImageNetのデータを利用して教師なしでpre-trainingしたモデルを元に、PASCAL VOC 2007 のデータでfine-tuningした際のmAPを評価
30.
©2018 ARISE analytics
30 別のクラスタリングアルゴリズムは使える? A. 使える PIC (Power Iteration Clustering) を試したところ、大規模なデータセットについてパフォーマンス がよかった 評価方法: 行のデータを利用して教師なしでpre-trainingしたモデルを元に、列のデータでfine-tuningした際の accuracyを評価
31.
©2018 ARISE analytics
31 他のタスクにも使える? A. 使える 評価方法: ImageNetを利用して教師なしで学習したモデルを元に、列のデータで画像検索した際のmAPを評 価 http://www.robots.ox.ac.uk/~vgg/data/oxbuildings/ http://www.robots.ox.ac.uk/~vgg/data/parisbuildings/
32.
©2018 ARISE analytics
32 まとめ タイトル: Deep Clustering for Unsupervised Learning of Visual Features 著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze https://arxiv.org/abs/1807.05520 一言で言うと すごい点 感想 CNNで特徴抽出してK-meansを繰り返す 教師なしでもCNNで特徴抽出ができる DeepClusterを使って教師なしで pre-training → 少量の画像で fine-tuning というやり方は現実の問題でも使えそう モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
33.
©2018 ARISE analytics
33 GitHub実装 https://github.com/facebookresearch/deepcluster