【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features

ARISE analytics
ARISE analyticsARISE analytics
©2018 ARISE analytics
2018/09/21
担当: 堀越
Deep Clustering for Unsupervised Learning of
Visual Features
©2018 ARISE analytics 2
概要
タイトル: Deep Clustering for Unsupervised Learning of Visual Features
著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze
https://arxiv.org/abs/1807.05520
一言で言うと
すごい点
感想
CNNで特徴抽出してK-meansを繰り返す
教師なしでもCNNで特徴抽出ができる
DeepClusterを使って教師なしで pre-training → 少量の画像で
fine-tuning というやり方は現実の問題でも使えそう
モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
©2018 ARISE analytics 3
Motivation
背景:
CNNは画像認識において非常に重要な技術になっている。その中で、オープンな大規模データセットで
あるImageNetは非常に大きな役割を果たした。
しかしながら、近年では様々な新手法が提案されているにも関わらず、そのパフォーマンスは上げどまっ
ている。ImageNetでは、SOTAな手法のパフォーマンスを評価しきれていないのではないか?
目的:
ImageNetより大きなデータセットを、コストをかけずに作りたい。
©2018 ARISE analytics 4
ImageNetとは
ImageNet
- 画像1,400万枚、2万クラス以上
ILSVRC2012
ImageNetのサブセット
- 1,000 クラス
- 学習用データ: 120万枚
- 検証用データ: 5万枚
- 評価用データ: 10万枚
©2018 ARISE analytics 5
ImageNetの限界
ConvNets and ImageNet Beyond Accuracy: Understanding Mistakes and
Uncovering Biases (Stock et al. 2017)
https://arxiv.org/abs/1711.11443
Top: Performance evolution of various
CNN architectures on ImageNet.
Bottom: Some images sampled from
the Internet and misclassified by a
ResNet-101.
Some test samples misclassified by a ResNet-101 (first row)
and a Densenet-161(second row).
The predicted class is indicated in red, the ground truth in
black and in parenthesis. All those examples gathered more
than four (4 or 5) positive answers over 5 on AMT. Note that
no adversarial noise has been added to the images.
©2018 ARISE analytics 6
Deep Learningを用いたクラスタリング手法
(既存研究)
©2018 ARISE analytics 7
Deep Learningを用いたクラスタリング手法
https://arxiv.org/abs/1801.07648
COIL20: Columbia University Image Library
Clustering with Deep Learning: Taxonomy and New Methods (Aljalbout et al.
2018)
Modified in red
(Aljalbout et al. 2018)
Splitting GAN
(Grinblat et al. 2017)
GAN
Critic
output
Wasserstein
loss
k-Means
loss
Pretraining
and
fine tuning
k-Means
©2018 ARISE analytics 8
Encoder / Decoderを使う方法
https://arxiv.org/abs/1511.06335
Unsupervised Deep Embedding for Clustering Analysis (Xie et al. 2015)
Encoder / Decoderで学習した表現について、クラスタのKL情報量を最小にするようクラスタリングす
る
Deep Embedded Clustering (DEC)
©2018 ARISE analytics 9
クラスタリングのステップをDLへ組み込む方法
https://arxiv.org/abs/1604.03628
Joint Unsupervised Learning of Deep Representations and Image Clusters
(Yang et al. 2016)
階層的クラスタリングの併合を周期的プロセスと見立てて、RCNNを学習する
Joint Unsupervised Learning (JULE)
©2018 ARISE analytics 10
CNNの表現を使う方法
https://arxiv.org/abs/1705.07091
CNN-Based Joint Clustering and Representation Learning with Feature Drift
Compensation for Large-Scale Image Data (Hsu et al. 2016)
ミニバッチ単位で、CNNの学習とk-meansを繰り返す
©2018 ARISE analytics 11
GANを使う方法
https://arxiv.org/abs/1709.07359
Class-Splitting Generative Adversarial Networks (Grinblat et al. 2017)
Critic (Discriminator)の最終層の表現をクラスタリングし、クラスタのラベルでGeneratorを学習さ
せる
©2018 ARISE analytics 12
Deep Clustering for Unsupervised Learning of
Visual Features
©2018 ARISE analytics 13
概要
学習データとなる画像をCNNで教師なし学習させ、その最終層の表現をクラスタリングする。学習の際
の正解データとして、前Epochでのクラスタのラベルを用いる (pseudo-labeling)
©2018 ARISE analytics 14
定式化
• Given a training set X = {x1, x2, ..., xn} of N images.
• each image xn is associated with a label yn in {0, 1}^k.
• This label represents the image’s membership to one of k possible
predefined classes.
• Fθ is a convnet mapping, where θ is the set of corresponding parameters.
• The features fθ(xn) produced by the convnet, and clusters them into k
distinct groups based on a geometric criterion.
• It jointly learns a d*k centroid matrix C and the cluster assignments yn
of each image n by solving the following problem.
©2018 ARISE analytics 15
実装
- Standard AlexNet architecture
- Five convolutional layers with 96, 256, 384, 384 and 256 filters.
- Three fully connected layers.
- Remove the Local Response Normalization layers and use batch
normalization.
- For the clustering, features are PCA-reduced to 256 dimensions, whitened
and l2-normalized.
Image Transformation
- Sobel Filtering
Data Augmentation
- Random horizontal flips
- Crops of random sizes
and aspect ratios
Preprocessing CNN Clustering
http://nocotan.github.io/chainer/2017/08/04/chainercnn-copy.html
PCA
256
k-meansAlexNet
©2018 ARISE analytics 16
実装上の工夫: 前処理
オブジェクトの分類には色よりもエッジの情報が重要だが、生の画像で学習させると最初のレイヤーが色
情報を抽出してしまう。
→画像にSobel Filterをかけ、エッジを抽出しておく
Filters from the first layer of an
AlexNet trained on unsupervised
ImageNet on raw RGB input (left) or
after a Sobel filtering (right).
©2018 ARISE analytics 17
実装上の工夫: クラスタリング
Empty clusters:
• 空のクラスタができた場合、空でないクラスタをランダムに選び、そのセントロイドをわずかにずらして二
つのクラスタを作る
Trivial parametrization:
• クラスタの偏りを防ぐため、学習データを pseudo-labelのが一様分布からサンプリングする
or
• 損失関数をクラスタの大きさの逆数で重み付けする
©2018 ARISE analytics 18
評価
a) クラスタと真のラベルとの相互情報量
b) あるEpochと直前のEpochのクラスタの相互情報量
c) クラスタ数 k の影響
©2018 ARISE analytics 19
評価
a) クラスタと真のラベルとの相互情報量
真のラベルとクラスタのラベルがどの程度一致しているかを示す。真のラベルは学習時には使っていない
が、学習が進むにつれクラスタのラベルは真のラベルに近づいている
©2018 ARISE analytics 20
評価
b) あるEpochと直前のEpochのクラスタの相互情報量
Epoch ごとにCNNを学習→k-meansでクラスタリングしたラベルで再学習を繰り返すため、クラスタの
中身は順次入れ替わっていく。Epochが進んでいくと、クラスタの中身の入れ替わりが少なくなっていく
= クラスタが安定していく。
とはいえ、0.8程度で上げどまるため、少なくない割合の画像はEpochのたびに別のクラスタに割り当て
られることになる。もっとも、実用上はこれでもそれほど問題なく、単一のモデルに収束していく (ホン
ト?)
©2018 ARISE analytics 21
評価
c) クラスタ数 k の影響
クラスタ数 k を対数スケールで変更した時、ImageNetで300Epoch学習した後、別のデータセット*
でのmAPを調べる。最良のパフォーマンスは k=10,000の時に得られた。
真のクラス数(1,000)よりもある程度 大きなクラスタ数を選ぶのが良さそう
* Pascal VOC 2007のバリデーションセット, 20クラス
©2018 ARISE analytics 22
Q&A
• そもそも学習できるの?
• 処理時間はどれくらい?
• どの程度良い表現を学習している?
• 別のデータセットでも使える?
• 別のモデルでも使える?
• 別のクラスタリングアルゴリズムは使える?
• 他のタスクにも使える?
©2018 ARISE analytics 23
そもそも学習できるの?
A. できる
Deep Learningでは、学習データのラベルをランダム化しても、訓練誤差が0にできることが知られてい
る。同じように、ランダムなセントロイドによるクラスタを初期値として学習を始めても、中間層では徐々
に適切な表現を学習していく?
Understanding Deep Learning Requires Rethinking Generalization (Zhang et al.
2016)
Randomization tests.
...we train several standard architectures on a copy of the data where the
true labels were replaced by random labels. Our central finding can be
summarized as:
Deep neural networks easily fit random labels.
More precisely, when trained on a completely random labeling of the true
data, neural networks achieve 0 training error.
©2018 ARISE analytics 24
処理時間はどれくらい?
A. 以下の環境で12日くらい
- 500エポック
- Pascal P100
- 市場価格100万円くらい?
全体の1/3くらいは k-means にかかる時間
→クラスタリングの際に全データをForwardする必要があるため、、通常の学習の1.5倍以上の時間が
かかる?
©2018 ARISE analytics 25
どの程度良い表現を学習している?
A. CNNの各層で、他の教師なしと比べて良い表現を学習している
評価方法:
教師なしでpre-trainingしたCNNの各層について、それぞれの直後に線形分類器をおいてfine-
tuningした場合のaccuracyを評価 (パフォーマンスがよければ、その層はより良い表現を学習できて
いるはず)
MIT Places database
http://places.csail.mit.edu/
©2018 ARISE analytics 26
どの程度良い表現を学習している?
深いレイヤーほどより大きな特徴を捉えている。が、畳み込みの最終層のフィルタのいくつかは、それまで
の層で捉えた特徴を捉え直しているだけに見えるものもある (下段)
©2018 ARISE analytics 27
どの程度良い表現を学習している?
最終層のフィルタを見ると、あるフィルタは何らかのクラス、もしくはパターンに対応していそう
©2018 ARISE analytics 28
別のデータセットでも使える?
A. 使える
評価方法:
ImageNetは各クラスの画像数が均等になっており、DeepClusterに有利なデータである。
この影響を検証するため、YFCC100M*からランダムに選択した100万枚の画像について、その
accuracyを検証した
Yahoo Flickr Creative Commons 100 Millionデータセット。クラスに大きな偏りがある
©2018 ARISE analytics 29
別のモデルでも使える?
A. 使える
教師ありの場合と同じように、より深いモデルを使うとパフォーマンスは向上する
評価方法:
ImageNetのデータを利用して教師なしでpre-trainingしたモデルを元に、PASCAL VOC 2007
のデータでfine-tuningした際のmAPを評価
©2018 ARISE analytics 30
別のクラスタリングアルゴリズムは使える?
A. 使える
PIC (Power Iteration Clustering) を試したところ、大規模なデータセットについてパフォーマンス
がよかった
評価方法:
行のデータを利用して教師なしでpre-trainingしたモデルを元に、列のデータでfine-tuningした際の
accuracyを評価
©2018 ARISE analytics 31
他のタスクにも使える?
A. 使える
評価方法:
ImageNetを利用して教師なしで学習したモデルを元に、列のデータで画像検索した際のmAPを評
価
http://www.robots.ox.ac.uk/~vgg/data/oxbuildings/
http://www.robots.ox.ac.uk/~vgg/data/parisbuildings/
©2018 ARISE analytics 32
まとめ
タイトル: Deep Clustering for Unsupervised Learning of Visual Features
著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze
https://arxiv.org/abs/1807.05520
一言で言うと
すごい点
感想
CNNで特徴抽出してK-meansを繰り返す
教師なしでもCNNで特徴抽出ができる
DeepClusterを使って教師なしで pre-training → 少量の画像で
fine-tuning というやり方は現実の問題でも使えそう
モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
©2018 ARISE analytics 33
GitHub実装
https://github.com/facebookresearch/deepcluster
1 de 33

Recomendados

[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv... por
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
19.3K visualizações29 slides
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat... por
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎
1.9K visualizações21 slides
[DL輪読会]ICLR2020の分布外検知速報 por
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
5.4K visualizações12 slides
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021) por
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
3.7K visualizações24 slides
畳み込みニューラルネットワークの高精度化と高速化 por
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
64.5K visualizações133 slides
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models por
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
2.6K visualizações15 slides

Mais conteúdo relacionado

Mais procurados

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
4.8K visualizações34 slides
近年のHierarchical Vision Transformer por
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K visualizações46 slides
ブースティング入門 por
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
34K visualizações33 slides
[DL輪読会]逆強化学習とGANs por
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
8.7K visualizações50 slides
Transformerを雰囲気で理解する por
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
4.8K visualizações37 slides
2014 3 13(テンソル分解の基礎) por
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
40.5K visualizações44 slides

Mais procurados(20)

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces por Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP4.8K visualizações
近年のHierarchical Vision Transformer por Yusuke Uchida
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida13.9K visualizações
ブースティング入門 por Retrieva inc.
ブースティング入門ブースティング入門
ブースティング入門
Retrieva inc.34K visualizações
[DL輪読会]逆強化学習とGANs por Deep Learning JP
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
Deep Learning JP8.7K visualizações
Transformerを雰囲気で理解する por AtsukiYamaguchi1
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi14.8K visualizações
2014 3 13(テンソル分解の基礎) por Tatsuya Yokota
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota40.5K visualizações
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision por Deep Learning JP
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP46.5K visualizações
【DL輪読会】ViT + Self Supervised Learningまとめ por Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP4K visualizações
Active Learning 入門 por Shuyo Nakatani
Active Learning 入門Active Learning 入門
Active Learning 入門
Shuyo Nakatani51.8K visualizações
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会) por Yoshitaka Ushiku
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
Yoshitaka Ushiku4.9K visualizações
自己教師学習(Self-Supervised Learning) por cvpaper. challenge
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge12.8K visualizações
[DL輪読会]Flow-based Deep Generative Models por Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP14.6K visualizações
[DL輪読会]相互情報量最大化による表現学習 por Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP7.6K visualizações
backbone としての timm 入門 por Takuji Tahara
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara7.4K visualizações
SSII2022 [OS3-02] Federated Learningの基礎と応用 por SSII
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2.4K visualizações
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 por Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida16K visualizações
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック por 西岡 賢一郎
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎682 visualizações
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) por RyuichiKanoh
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh25.6K visualizações
画像キャプションの自動生成 por Yoshitaka Ushiku
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku58K visualizações
[DL輪読会]Focal Loss for Dense Object Detection por Deep Learning JP
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP14.3K visualizações

Similar a 【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features

Large Scale GAN Training for High Fidelity Natural Image Synthesis por
Large Scale GAN Training for High Fidelity Natural Image SynthesisLarge Scale GAN Training for High Fidelity Natural Image Synthesis
Large Scale GAN Training for High Fidelity Natural Image Synthesisimenurok
438 visualizações37 slides
Triplet Lossによる Person Re-identification por
Triplet Lossによる Person Re-identificationTriplet Lossによる Person Re-identification
Triplet Lossによる Person Re-identificationtancoro
5.1K visualizações18 slides
Generative Adversarial Networks (GAN) @ NIPS2017 por
Generative Adversarial Networks (GAN) @ NIPS2017Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017Koichi Hamada
15.8K visualizações67 slides
グラフデータ分析 入門編 por
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編順也 山口
34.9K visualizações65 slides
Ocha 20191204 por
Ocha 20191204Ocha 20191204
Ocha 20191204Atsushi Hashimoto
382 visualizações56 slides
CNNの構造最適化手法(第3回3D勉強会) por
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)MasanoriSuganuma
972 visualizações28 slides

Similar a 【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features(20)

Large Scale GAN Training for High Fidelity Natural Image Synthesis por imenurok
Large Scale GAN Training for High Fidelity Natural Image SynthesisLarge Scale GAN Training for High Fidelity Natural Image Synthesis
Large Scale GAN Training for High Fidelity Natural Image Synthesis
imenurok438 visualizações
Triplet Lossによる Person Re-identification por tancoro
Triplet Lossによる Person Re-identificationTriplet Lossによる Person Re-identification
Triplet Lossによる Person Re-identification
tancoro5.1K visualizações
Generative Adversarial Networks (GAN) @ NIPS2017 por Koichi Hamada
Generative Adversarial Networks (GAN) @ NIPS2017Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017
Koichi Hamada15.8K visualizações
グラフデータ分析 入門編 por 順也 山口
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口34.9K visualizações
Ocha 20191204 por Atsushi Hashimoto
Ocha 20191204Ocha 20191204
Ocha 20191204
Atsushi Hashimoto382 visualizações
CNNの構造最適化手法(第3回3D勉強会) por MasanoriSuganuma
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma972 visualizações
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin... por Deep Learning JP
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP3.7K visualizações
Deep learningの概要とドメインモデルの変遷 por Taiga Nomi
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi26.5K visualizações
[DL輪読会]Graph R-CNN for Scene Graph Generation por Deep Learning JP
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP3.7K visualizações
ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN) por tomohiro kato
ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN)ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN)
ICLR2018におけるモデル軽量化(ICLR2018読み会@ PFN)
tomohiro kato8.6K visualizações
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換 por Koichi Hamada
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Koichi Hamada28.2K visualizações
CVPR 2011 ImageNet Challenge 文献紹介 por Narihira Takuya
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
Narihira Takuya1.5K visualizações
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ por Kensuke Otsuki
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
Kensuke Otsuki6.7K visualizações
Icml2018読み会_overview&GANs por Kentaro Tachibana
Icml2018読み会_overview&GANsIcml2018読み会_overview&GANs
Icml2018読み会_overview&GANs
Kentaro Tachibana2.8K visualizações
20190804_icml_kyoto por Takayoshi Yamashita
20190804_icml_kyoto20190804_icml_kyoto
20190804_icml_kyoto
Takayoshi Yamashita5.7K visualizações
AIがAIを生み出す? por Daiki Tsuchiya
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?
Daiki Tsuchiya314 visualizações
[DL輪読会]Deep Face Recognition: A Survey por Deep Learning JP
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP23K visualizações
Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習 por Tatsuya Shirakawa
Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習
Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習
Tatsuya Shirakawa1.7K visualizações
Nips20180127 por Takamitsu Oomasa
Nips20180127Nips20180127
Nips20180127
Takamitsu Oomasa5K visualizações
Bridging between Vision and Language por Shion Honda
Bridging between Vision and LanguageBridging between Vision and Language
Bridging between Vision and Language
Shion Honda1.8K visualizações

Mais de ARISE analytics

【論文レベルで理解しよう!】​ 欠測値処理編​ por
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​ARISE analytics
87 visualizações19 slides
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ por
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ARISE analytics
118 visualizações20 slides
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...ARISE analytics
184 visualizações32 slides
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... por
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...ARISE analytics
122 visualizações24 slides
教師なしGNNによるIoTデバイスの異常通信検知の検討 por
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討ARISE analytics
1K visualizações21 slides
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...ARISE analytics
578 visualizações18 slides

Mais de ARISE analytics(18)

【論文レベルで理解しよう!】​ 欠測値処理編​ por ARISE analytics
【論文レベルで理解しよう!】​ 欠測値処理編​【論文レベルで理解しよう!】​ 欠測値処理編​
【論文レベルで理解しよう!】​ 欠測値処理編​
ARISE analytics87 visualizações
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​ por ARISE analytics
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
【論文レベルで理解しよう!】​ 大規模言語モデル(LLM)編​
ARISE analytics118 visualizações
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho... por ARISE analytics
【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...【論文読み会】Signing at Scale: Learning to Co-Articulate  Signs for Large-Scale Pho...
【論文読み会】Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Pho...
ARISE analytics184 visualizações
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (... por ARISE analytics
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
Hierarchical Metadata-Aware Document Categorization under Weak Supervision​ (...
ARISE analytics122 visualizações
教師なしGNNによるIoTデバイスの異常通信検知の検討 por ARISE analytics
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics1K visualizações
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri... por ARISE analytics
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
【論文読み会】Pyraformer_Low-Complexity Pyramidal Attention for Long-Range Time Seri...
ARISE analytics578 visualizações
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D... por ARISE analytics
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
【論文読み会】Analytic-DPM_an Analytic Estimate of the Optimal Reverse Variance in D...
ARISE analytics468 visualizações
【論文読み会】Autoregressive Diffusion Models.pptx por ARISE analytics
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics5.3K visualizações
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx por ARISE analytics
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics555 visualizações
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx por ARISE analytics
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
【論文読み会】PiCO_Contrastive Label Disambiguation for Partial Label Learning.pptx
ARISE analytics497 visualizações
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice por ARISE analytics
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
【論文読み会】Deep Reinforcement Learning at the Edge of the Statistical Precipice
ARISE analytics699 visualizações
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3) por ARISE analytics
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
【論文読み会】Alias-Free Generative Adversarial Networks(StyleGAN3)
ARISE analytics2.7K visualizações
【論文読み会】On the Expressivity of Markov Reward por ARISE analytics
【論文読み会】On the Expressivity of Markov Reward【論文読み会】On the Expressivity of Markov Reward
【論文読み会】On the Expressivity of Markov Reward
ARISE analytics583 visualizações
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive... por ARISE analytics
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
【論文読み会】MAUVE: Measuring the Gap Between Neural Text and Human Text using Dive...
ARISE analytics699 visualizações
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds por ARISE analytics
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics701 visualizações
Counterfaual Machine Learning(CFML)のサーベイ por ARISE analytics
Counterfaual Machine Learning(CFML)のサーベイCounterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics29.9K visualizações
【論文読み会】Self-Attention Generative Adversarial Networks por ARISE analytics
【論文読み会】Self-Attention Generative  Adversarial Networks【論文読み会】Self-Attention Generative  Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics5.3K visualizações
【論文読み会】Universal Language Model Fine-tuning for Text Classification por ARISE analytics
【論文読み会】Universal Language Model Fine-tuning for Text Classification【論文読み会】Universal Language Model Fine-tuning for Text Classification
【論文読み会】Universal Language Model Fine-tuning for Text Classification
ARISE analytics1.9K visualizações

【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features

  • 1. ©2018 ARISE analytics 2018/09/21 担当: 堀越 Deep Clustering for Unsupervised Learning of Visual Features
  • 2. ©2018 ARISE analytics 2 概要 タイトル: Deep Clustering for Unsupervised Learning of Visual Features 著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze https://arxiv.org/abs/1807.05520 一言で言うと すごい点 感想 CNNで特徴抽出してK-meansを繰り返す 教師なしでもCNNで特徴抽出ができる DeepClusterを使って教師なしで pre-training → 少量の画像で fine-tuning というやり方は現実の問題でも使えそう モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
  • 3. ©2018 ARISE analytics 3 Motivation 背景: CNNは画像認識において非常に重要な技術になっている。その中で、オープンな大規模データセットで あるImageNetは非常に大きな役割を果たした。 しかしながら、近年では様々な新手法が提案されているにも関わらず、そのパフォーマンスは上げどまっ ている。ImageNetでは、SOTAな手法のパフォーマンスを評価しきれていないのではないか? 目的: ImageNetより大きなデータセットを、コストをかけずに作りたい。
  • 4. ©2018 ARISE analytics 4 ImageNetとは ImageNet - 画像1,400万枚、2万クラス以上 ILSVRC2012 ImageNetのサブセット - 1,000 クラス - 学習用データ: 120万枚 - 検証用データ: 5万枚 - 評価用データ: 10万枚
  • 5. ©2018 ARISE analytics 5 ImageNetの限界 ConvNets and ImageNet Beyond Accuracy: Understanding Mistakes and Uncovering Biases (Stock et al. 2017) https://arxiv.org/abs/1711.11443 Top: Performance evolution of various CNN architectures on ImageNet. Bottom: Some images sampled from the Internet and misclassified by a ResNet-101. Some test samples misclassified by a ResNet-101 (first row) and a Densenet-161(second row). The predicted class is indicated in red, the ground truth in black and in parenthesis. All those examples gathered more than four (4 or 5) positive answers over 5 on AMT. Note that no adversarial noise has been added to the images.
  • 6. ©2018 ARISE analytics 6 Deep Learningを用いたクラスタリング手法 (既存研究)
  • 7. ©2018 ARISE analytics 7 Deep Learningを用いたクラスタリング手法 https://arxiv.org/abs/1801.07648 COIL20: Columbia University Image Library Clustering with Deep Learning: Taxonomy and New Methods (Aljalbout et al. 2018) Modified in red (Aljalbout et al. 2018) Splitting GAN (Grinblat et al. 2017) GAN Critic output Wasserstein loss k-Means loss Pretraining and fine tuning k-Means
  • 8. ©2018 ARISE analytics 8 Encoder / Decoderを使う方法 https://arxiv.org/abs/1511.06335 Unsupervised Deep Embedding for Clustering Analysis (Xie et al. 2015) Encoder / Decoderで学習した表現について、クラスタのKL情報量を最小にするようクラスタリングす る Deep Embedded Clustering (DEC)
  • 9. ©2018 ARISE analytics 9 クラスタリングのステップをDLへ組み込む方法 https://arxiv.org/abs/1604.03628 Joint Unsupervised Learning of Deep Representations and Image Clusters (Yang et al. 2016) 階層的クラスタリングの併合を周期的プロセスと見立てて、RCNNを学習する Joint Unsupervised Learning (JULE)
  • 10. ©2018 ARISE analytics 10 CNNの表現を使う方法 https://arxiv.org/abs/1705.07091 CNN-Based Joint Clustering and Representation Learning with Feature Drift Compensation for Large-Scale Image Data (Hsu et al. 2016) ミニバッチ単位で、CNNの学習とk-meansを繰り返す
  • 11. ©2018 ARISE analytics 11 GANを使う方法 https://arxiv.org/abs/1709.07359 Class-Splitting Generative Adversarial Networks (Grinblat et al. 2017) Critic (Discriminator)の最終層の表現をクラスタリングし、クラスタのラベルでGeneratorを学習さ せる
  • 12. ©2018 ARISE analytics 12 Deep Clustering for Unsupervised Learning of Visual Features
  • 13. ©2018 ARISE analytics 13 概要 学習データとなる画像をCNNで教師なし学習させ、その最終層の表現をクラスタリングする。学習の際 の正解データとして、前Epochでのクラスタのラベルを用いる (pseudo-labeling)
  • 14. ©2018 ARISE analytics 14 定式化 • Given a training set X = {x1, x2, ..., xn} of N images. • each image xn is associated with a label yn in {0, 1}^k. • This label represents the image’s membership to one of k possible predefined classes. • Fθ is a convnet mapping, where θ is the set of corresponding parameters. • The features fθ(xn) produced by the convnet, and clusters them into k distinct groups based on a geometric criterion. • It jointly learns a d*k centroid matrix C and the cluster assignments yn of each image n by solving the following problem.
  • 15. ©2018 ARISE analytics 15 実装 - Standard AlexNet architecture - Five convolutional layers with 96, 256, 384, 384 and 256 filters. - Three fully connected layers. - Remove the Local Response Normalization layers and use batch normalization. - For the clustering, features are PCA-reduced to 256 dimensions, whitened and l2-normalized. Image Transformation - Sobel Filtering Data Augmentation - Random horizontal flips - Crops of random sizes and aspect ratios Preprocessing CNN Clustering http://nocotan.github.io/chainer/2017/08/04/chainercnn-copy.html PCA 256 k-meansAlexNet
  • 16. ©2018 ARISE analytics 16 実装上の工夫: 前処理 オブジェクトの分類には色よりもエッジの情報が重要だが、生の画像で学習させると最初のレイヤーが色 情報を抽出してしまう。 →画像にSobel Filterをかけ、エッジを抽出しておく Filters from the first layer of an AlexNet trained on unsupervised ImageNet on raw RGB input (left) or after a Sobel filtering (right).
  • 17. ©2018 ARISE analytics 17 実装上の工夫: クラスタリング Empty clusters: • 空のクラスタができた場合、空でないクラスタをランダムに選び、そのセントロイドをわずかにずらして二 つのクラスタを作る Trivial parametrization: • クラスタの偏りを防ぐため、学習データを pseudo-labelのが一様分布からサンプリングする or • 損失関数をクラスタの大きさの逆数で重み付けする
  • 18. ©2018 ARISE analytics 18 評価 a) クラスタと真のラベルとの相互情報量 b) あるEpochと直前のEpochのクラスタの相互情報量 c) クラスタ数 k の影響
  • 19. ©2018 ARISE analytics 19 評価 a) クラスタと真のラベルとの相互情報量 真のラベルとクラスタのラベルがどの程度一致しているかを示す。真のラベルは学習時には使っていない が、学習が進むにつれクラスタのラベルは真のラベルに近づいている
  • 20. ©2018 ARISE analytics 20 評価 b) あるEpochと直前のEpochのクラスタの相互情報量 Epoch ごとにCNNを学習→k-meansでクラスタリングしたラベルで再学習を繰り返すため、クラスタの 中身は順次入れ替わっていく。Epochが進んでいくと、クラスタの中身の入れ替わりが少なくなっていく = クラスタが安定していく。 とはいえ、0.8程度で上げどまるため、少なくない割合の画像はEpochのたびに別のクラスタに割り当て られることになる。もっとも、実用上はこれでもそれほど問題なく、単一のモデルに収束していく (ホン ト?)
  • 21. ©2018 ARISE analytics 21 評価 c) クラスタ数 k の影響 クラスタ数 k を対数スケールで変更した時、ImageNetで300Epoch学習した後、別のデータセット* でのmAPを調べる。最良のパフォーマンスは k=10,000の時に得られた。 真のクラス数(1,000)よりもある程度 大きなクラスタ数を選ぶのが良さそう * Pascal VOC 2007のバリデーションセット, 20クラス
  • 22. ©2018 ARISE analytics 22 Q&A • そもそも学習できるの? • 処理時間はどれくらい? • どの程度良い表現を学習している? • 別のデータセットでも使える? • 別のモデルでも使える? • 別のクラスタリングアルゴリズムは使える? • 他のタスクにも使える?
  • 23. ©2018 ARISE analytics 23 そもそも学習できるの? A. できる Deep Learningでは、学習データのラベルをランダム化しても、訓練誤差が0にできることが知られてい る。同じように、ランダムなセントロイドによるクラスタを初期値として学習を始めても、中間層では徐々 に適切な表現を学習していく? Understanding Deep Learning Requires Rethinking Generalization (Zhang et al. 2016) Randomization tests. ...we train several standard architectures on a copy of the data where the true labels were replaced by random labels. Our central finding can be summarized as: Deep neural networks easily fit random labels. More precisely, when trained on a completely random labeling of the true data, neural networks achieve 0 training error.
  • 24. ©2018 ARISE analytics 24 処理時間はどれくらい? A. 以下の環境で12日くらい - 500エポック - Pascal P100 - 市場価格100万円くらい? 全体の1/3くらいは k-means にかかる時間 →クラスタリングの際に全データをForwardする必要があるため、、通常の学習の1.5倍以上の時間が かかる?
  • 25. ©2018 ARISE analytics 25 どの程度良い表現を学習している? A. CNNの各層で、他の教師なしと比べて良い表現を学習している 評価方法: 教師なしでpre-trainingしたCNNの各層について、それぞれの直後に線形分類器をおいてfine- tuningした場合のaccuracyを評価 (パフォーマンスがよければ、その層はより良い表現を学習できて いるはず) MIT Places database http://places.csail.mit.edu/
  • 26. ©2018 ARISE analytics 26 どの程度良い表現を学習している? 深いレイヤーほどより大きな特徴を捉えている。が、畳み込みの最終層のフィルタのいくつかは、それまで の層で捉えた特徴を捉え直しているだけに見えるものもある (下段)
  • 27. ©2018 ARISE analytics 27 どの程度良い表現を学習している? 最終層のフィルタを見ると、あるフィルタは何らかのクラス、もしくはパターンに対応していそう
  • 28. ©2018 ARISE analytics 28 別のデータセットでも使える? A. 使える 評価方法: ImageNetは各クラスの画像数が均等になっており、DeepClusterに有利なデータである。 この影響を検証するため、YFCC100M*からランダムに選択した100万枚の画像について、その accuracyを検証した Yahoo Flickr Creative Commons 100 Millionデータセット。クラスに大きな偏りがある
  • 29. ©2018 ARISE analytics 29 別のモデルでも使える? A. 使える 教師ありの場合と同じように、より深いモデルを使うとパフォーマンスは向上する 評価方法: ImageNetのデータを利用して教師なしでpre-trainingしたモデルを元に、PASCAL VOC 2007 のデータでfine-tuningした際のmAPを評価
  • 30. ©2018 ARISE analytics 30 別のクラスタリングアルゴリズムは使える? A. 使える PIC (Power Iteration Clustering) を試したところ、大規模なデータセットについてパフォーマンス がよかった 評価方法: 行のデータを利用して教師なしでpre-trainingしたモデルを元に、列のデータでfine-tuningした際の accuracyを評価
  • 31. ©2018 ARISE analytics 31 他のタスクにも使える? A. 使える 評価方法: ImageNetを利用して教師なしで学習したモデルを元に、列のデータで画像検索した際のmAPを評 価 http://www.robots.ox.ac.uk/~vgg/data/oxbuildings/ http://www.robots.ox.ac.uk/~vgg/data/parisbuildings/
  • 32. ©2018 ARISE analytics 32 まとめ タイトル: Deep Clustering for Unsupervised Learning of Visual Features 著者: Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze https://arxiv.org/abs/1807.05520 一言で言うと すごい点 感想 CNNで特徴抽出してK-meansを繰り返す 教師なしでもCNNで特徴抽出ができる DeepClusterを使って教師なしで pre-training → 少量の画像で fine-tuning というやり方は現実の問題でも使えそう モチベーション 学習データへのラベルづけが大変なので教師なしでやりたい
  • 33. ©2018 ARISE analytics 33 GitHub実装 https://github.com/facebookresearch/deepcluster