SlideShare uma empresa Scribd logo
1 de 44
연세대학교 전기전자공학부 이형민
Dimension Reduction
t-SNE
MVP Seminar
Index 01 / Dimension Reduction
02 / Good Visualization
03 / History of Dimension Reduction
04 / Stochastic Neighbor Embedding
05 / t-Distributed SNE
Dimension Reduction
for Visualization
01 Dimension Reduction
Feature Space
축의 개수 = Dimension = 데이터를 표현하는 숫자의 개수
01 Dimension Reduction
How about Image Data?
lena.jpg
512 × 512 = 262144
01 Dimension Reduction
Projection & Dimension Reduction
Dimension Reduction = 데이터들의 분포에 의해 생겨난, ‘의미론적인’축을 찾는 것
Good Visualization
Dimension Reduction has to be…
02 Good Visualization
Preserve Local Structure
가까운 점은 가깝게, 먼 점은 멀게!
Preserve Global Structure
전체적인 구조를 유지!
Preserve Manifold Structure
숨겨진 축을 찾는다!
02 Good Visualization
Preserve Local Structure
X
 가까운 점은 가깝게, 먼 점은 멀게!
02 Good Visualization
Preserve Local Structure
O
 가까운 점은 가깝게, 먼 점은 멀게!
02 Good Visualization
Preserve Global Structure
 전체적인 구조를 유지!
02 Good Visualization
Preserve Global Structure
X
 전체적인 구조를 유지!
02 Good Visualization
Preserve Global Structure
O
 전체적인 구조를 유지!
02 Good Visualization
Preserve Manifold Structure
 형태상으로 차원만 높이고 있을 뿐, 아무 특징도 갖지 못한 축을 적절히 선택
 단순한 Projection이 아닌, 형태적인 분석을 포함하여 ‘숨겨진 축’을 찾아냄
History of Dimension Reduction
From Horangi dambaepideon sijeol
03 History of Dimension Reduction
History
1936 Linear Discriminant Analysis (LDA)
1901 Principal Component Analysis (PCA) - Karl Pearson
- Ronald Fisher
2000 Isomap - Tenenbaum et al.
Locally Linear Embedding - Roweis et al.
2003 Stochastic Neighbor Embedding (SNE) - Geoffrey Hinton
2008 t-distributed SNE (t-SNE) - Laurens Matten
Linear Method
Nonlinear Method
1964 Multidimensional Scaling (MDS) - Kruskal
03 History of Dimension Reduction
PCA
Dimension Reduction = 데이터들의 분포에 의해 생겨난, ‘의미론적인’축을 찾는 것
Linear한 분포에 대해서는 기가 막히게 잘 찾는다…!
03 History of Dimension Reduction
PCA
Swiss Roll Data
03 History of Dimension Reduction
PCA
Swiss Roll Data
03 History of Dimension Reduction
PCA
Swiss Roll Data
03 History of Dimension Reduction
PCA
Swiss Roll Data
We need Nonlinear Methods!!!
03 History of Dimension Reduction
Nonlinear Method1: Multidimensional Scaling (MDS)
𝑥𝑖: 𝐻𝑖𝑔ℎ 𝐷𝑖𝑚𝑒𝑛𝑠𝑖𝑜𝑛𝑎𝑙 𝑃𝑜𝑖𝑛𝑡
𝑦𝑖: 𝐿𝑜𝑤 𝐷𝑖𝑚𝑒𝑛𝑠𝑖𝑜𝑛𝑎𝑙 𝑃𝑜𝑖𝑛𝑡
𝑦𝑖 = 𝑎𝑟𝑔𝑚𝑖𝑛
𝑦 𝑖
(
𝑗
(1 −
𝑦𝑖 − 𝑦𝑗
𝑥𝑖 − 𝑥𝑗
))
• High Dimensional 공간에서의 점들 간의 거리를 Low Dimensional 공간에서도 그대
로 유지하려는 방향의 Optimization
03 History of Dimension Reduction
Nonlinear Method2: Isomap
• Manifold Data를 해석하기 위해, 각 점들의 거리를 다르게 정의
• 실제 Euclidean 거리 대신 Graph 상의 거리를 채택(해당 점까지 가기 위해 거쳐야
하는 Node의 최소 개수)
03 History of Dimension Reduction
Nonlinear Method3: Locally Linear Embedding
• 중앙 점 𝑥𝑖가 주변의 neighborhood들의 Linear Combination으로 나타내어 질 수
있도록 하는 Weight들을 구한다.
• 이 Weight들이 Low Dimension Space에서도 유지될 수 있도록 Embedding한다.
• 좁은 범위에서 근사 된 Linear model을 매끄럽게 이어나가는 방식
03 History of Dimension Reduction
Nonlinear Method: Result
• MDS의 경우, 모든 점을 전부 탐색해야 하기 때문에 시간이 매우 오래 걸리며, 사실
Euclidean Distance를 최소화 시킨다는 점에서 PCA와의 기능적 차이를 내지 못한다.
• Isomap과 LLE는 다른 알고리즘들에 비해 Swiss Roll 데이터를 매우 잘 표현하지만,
각 점이 주변의 Neighbor들만 고려하기 때문에 전체적인 구조를 반영하는 데 한계
가 있으며, Swiss Roll처럼 인위적으로 만들어진 데이터 이외에는 좋은 성능을 보여
주지 못한다는 단점이 있다.
Stochastic Neighbor Embedding
Deudieo!!!
04 Stochastic Neighbor Embedding
High Dimensional Domain에서의 거리 함수
𝑝𝑗|𝑖 =
exp(−
𝑥𝑖 − 𝑥𝑗
2
2𝜎𝑖
2 )
𝑘≠𝑖 exp(−
𝑥𝑖 − 𝑥 𝑘
2
2𝜎𝑖
2 )
𝑝𝑗|𝑖  i번째 점을 기준으로 j번째 점이 가까운 정도. (j번째 점을 “나랑 가까운
점”이라고 판단할 확률)
• i번째 점을 중심으로 하는 Gaussian 분포의 조건부 확률을 채택
• 식에 등장하는 분산의 값은 뒤에서 따로 정의
04 Stochastic Neighbor Embedding
Low Dimensional Domain에서의 거리 함수
𝑞𝑗|𝑖 =
exp(− 𝑦𝑖 − 𝑦𝑗
2
)
𝑘≠𝑖 exp(− 𝑦𝑖 − 𝑦 𝑘
2)
𝑞 𝑗|𝑖  i번째 점을 기준으로 j번째 점이 가까운 정도. (j번째 점을 “나랑 가까운
점”이라고 판단할 확률)
• High Dimension과 유사한 구조
• 논문에 따르면 Variance가 사라진 이유는 High에서 Low Dimension으로 떨
어지면서 손실된 정보의 일부로 볼 수 있기 때문이라고 한다.
• 우리의 목적은 𝑝𝑗|𝑖와 𝑞 𝑗|𝑖가 같아지도록 만드는 것이다.
04 Stochastic Neighbor Embedding
Cost Function
𝐶 =
𝑖 𝑗
𝑝𝑗|𝑖 log
𝑝𝑗|𝑖
𝑞𝑗|𝑖
• Cost 함수로 KL divergence를 채택
• 함수의 구조가 비대칭이므로 다음과 같은 성질을 띤다.
High Dimension에서의 거리
𝑝𝑗|𝑖 𝑞 𝑗|𝑖
Low Dimension에서의 거리
멀다 작다 커야 한다 가까워야 한다.
가깝다 크다 더 커야 한다 더 가까워야 한다.
• 그렇기 때문에 이 Cost 함수로 Optimization을 하면 원하는 결과를 얻을 수
있게 된다.
04 Stochastic Neighbor Embedding
분산 값의 채택과 Perplexity
𝑝𝑒𝑟𝑝 = 2 𝐻(𝑃)
𝐻(𝑃) = −
𝑗
𝑝𝑗|𝑖 log2 𝑝𝑗|𝑖
• Perplexity는 P의 Shannon Entropy인 H 값에 대해 2의 H제곱 한 값으로 정
의되는데, 실용적으로는 i번째 점 주변에 ‘그 점의 Neighbor’라고 할 수 있을
만큼 가까운 점들의 개수라고 해석할 수 있다.
• 우리는 이 Perplexity를 먼저 5~50의 상수로 정하고, 모든 점에 대해
Perplexity가 일정하게 유지되도록 하는 분산 값을 각각 할당해주게 된다.
04 Stochastic Neighbor Embedding
Optimization
𝑌(𝑡) = 𝑌(𝑡−1) + 𝜂
𝜕𝐶
𝜕𝑌
+ 𝛼(𝑡)(𝑌 𝑡−1 − 𝑌(𝑡−2))
𝜕𝐶
𝜕𝑦𝑖
= 2
𝑗
(𝑝𝑗|𝑖 − 𝑞𝑗|𝑖 + 𝑝𝑖|𝑗 − 𝑞𝑖|𝑗)(𝑦𝑖 − 𝑦𝑗)
T-Distributed SNE
form the weakness of classical SNE
05 T-Distributed SNE
Symmetric SNE
• 앞에서 정의한 거리 함수는 Conditional Probability이기 때문에 Symmetric하
지 못하므로, Joint Probability를 사용
𝑞𝑖𝑗 =
exp(− 𝑦𝑖 − 𝑦𝑗
2
)
𝑘≠𝑙 exp(− 𝑦 𝑘 − 𝑦𝑙
2)
𝑝𝑖𝑗 =
exp(−
𝑥𝑖 − 𝑥𝑗
2
2𝜎2 )
𝑘≠𝑙 exp(−
𝑥 𝑘 − 𝑥𝑙
2
2𝜎2 )
05 T-Distributed SNE
Symmetric SNE
• 문제점이 발생. 만약 i번째 점이 다른 점들 로부터 멀리 떨어진 outlier인 경
우 이전에는 분산 값이 커져서 괜찮았지만, 분산 값이 하나로 통일된 지금같
은 상황에서 Outlier에 대해 p 값이 비정상적으로 작게 나오는 현상 발생
• P를 다시 정의해야 한다.
𝑝𝑖𝑗 =
𝑝𝑗|𝑖 + 𝑝𝑖|𝑗
2𝑛
𝑡ℎ𝑒𝑛,
𝑗
𝑝𝑖𝑗 >
1
2𝑛
05 T-Distributed SNE
Symmetric SNE
• 거리 함수를 Symmetric하게 바꾸면, Cost 함수의 미분이 간단해진다.
𝜕𝐶
𝜕𝑦𝑖
= 4
𝑗
(𝑝𝑖𝑗 − 𝑞𝑖𝑗)(𝑦𝑖 − 𝑦𝑗)
05 T-Distributed SNE
The Crowding Problem
• 고차원에서 저차원으로 점을 Projection 하면, 거리의 멀고 가까운 개념이 붕
괴되는 경우가 있다.
• 예를 들어 3차원에서는 서로 다른 4개의 점이 서로와 같은 거리에 위치하도
록 할 수 있는데 2차원에서는 불가능
• 고차원에서 멀리 떨어져 있던 점은 저차원에서 더 멀게, 고차원에서 가까웠
던 점은 저차원에서 더 가깝게 만들어줄 인위적인 장치가 필요
05 T-Distributed SNE
The student t-distribution
• Low Dimensional Domain에서만 Gaussian 대신에 수정된 형태의
Distribution을 쓴다.(Student t-Distribution)
𝑞𝑖𝑗 =
exp 1 + 𝑦𝑖 − 𝑦𝑗
2 −1
𝑘≠𝑙 exp 1 + 𝑦 𝑘 − 𝑦𝑙
2 −1
05 T-Distributed SNE
The student t-distribution
• 가까운 점의 q 값을 실제보다 저평가  더 가까워지려고 한다.
• 먼 점의 q 값을 실제보다 고평가  굳이 더 가까워지려고 하지 않는다.
(더 멀어진다.)
05 T-Distributed SNE
Eventually, the derivative will be…
𝜕𝐶
𝜕𝑦𝑖
= 4
𝑗
(𝑝𝑖𝑗 − 𝑞𝑖𝑗) 𝑦𝑖 − 𝑦𝑗 1 + 𝑦𝑖 − 𝑦𝑗
2 −1
Weakness
• Student t-Distribution 때문에 데이터들이 Cluster 위주로 너무 잘 뭉치게 되
어, Visualization에는 좋지만 다른 용도로 쓰이거나 dimension 3이상의 공간
으로 Projection 시키기에는 좋지 않다.
• Convex Function이 아니기 때문에 완벽한 수렴이 보장되지는 않는다.
05 T-Distributed SNE
Result(MNIST)
05 T-Distributed SNE
Result(MNIST)
05 T-Distributed SNE
Result(COIL-20)
05 T-Distributed SNE
Result(COIL-20)
감사합니다.
Q & A

Mais conteúdo relacionado

Mais procurados

Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)홍배 김
 
Murpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelMurpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelJungkyu Lee
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...홍배 김
 
Flow based generative models
Flow based generative modelsFlow based generative models
Flow based generative models수철 박
 
머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithmJungkyu Lee
 
8. Logistic Regression
8. Logistic Regression8. Logistic Regression
8. Logistic RegressionJungkyu Lee
 
3D 컴퓨터 그래픽스 기초
3D 컴퓨터 그래픽스 기초3D 컴퓨터 그래픽스 기초
3D 컴퓨터 그래픽스 기초Seung Joon Choi
 
120427 celluar texture
120427 celluar texture120427 celluar texture
120427 celluar textureCARROTCG
 
A neural image caption generator
A neural image caption generatorA neural image caption generator
A neural image caption generator홍배 김
 
논문-정규분포변환
논문-정규분포변환논문-정규분포변환
논문-정규분포변환jdo
 
노말 맵핑(Normal mapping)
노말 맵핑(Normal mapping)노말 맵핑(Normal mapping)
노말 맵핑(Normal mapping)QooJuice
 
아일렛 온라인에서 사용한 블럭 렌더링 소개
아일렛 온라인에서 사용한 블럭 렌더링 소개아일렛 온라인에서 사용한 블럭 렌더링 소개
아일렛 온라인에서 사용한 블럭 렌더링 소개정만 김
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNNSANG WON PARK
 
SLAM-베이즈필터와 칼만필터
SLAM-베이즈필터와 칼만필터SLAM-베이즈필터와 칼만필터
SLAM-베이즈필터와 칼만필터jdo
 
서포트 벡터머신
서포트 벡터머신서포트 벡터머신
서포트 벡터머신Sunggon Song
 
내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)SANG WON PARK
 

Mais procurados (20)

Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)
 
Murpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelMurpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical Model
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
Gmm to vgmm
Gmm to vgmmGmm to vgmm
Gmm to vgmm
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
 
Flow based generative models
Flow based generative modelsFlow based generative models
Flow based generative models
 
머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm
 
8. Logistic Regression
8. Logistic Regression8. Logistic Regression
8. Logistic Regression
 
3D 컴퓨터 그래픽스 기초
3D 컴퓨터 그래픽스 기초3D 컴퓨터 그래픽스 기초
3D 컴퓨터 그래픽스 기초
 
120427 celluar texture
120427 celluar texture120427 celluar texture
120427 celluar texture
 
A neural image caption generator
A neural image caption generatorA neural image caption generator
A neural image caption generator
 
Les net
Les netLes net
Les net
 
논문-정규분포변환
논문-정규분포변환논문-정규분포변환
논문-정규분포변환
 
Bump Mapping
Bump MappingBump Mapping
Bump Mapping
 
노말 맵핑(Normal mapping)
노말 맵핑(Normal mapping)노말 맵핑(Normal mapping)
노말 맵핑(Normal mapping)
 
아일렛 온라인에서 사용한 블럭 렌더링 소개
아일렛 온라인에서 사용한 블럭 렌더링 소개아일렛 온라인에서 사용한 블럭 렌더링 소개
아일렛 온라인에서 사용한 블럭 렌더링 소개
 
Code로 이해하는 RNN
Code로 이해하는 RNNCode로 이해하는 RNN
Code로 이해하는 RNN
 
SLAM-베이즈필터와 칼만필터
SLAM-베이즈필터와 칼만필터SLAM-베이즈필터와 칼만필터
SLAM-베이즈필터와 칼만필터
 
서포트 벡터머신
서포트 벡터머신서포트 벡터머신
서포트 벡터머신
 
내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)
 

Semelhante a Data Visualization and t-SNE

[한글] Tutorial: Sparse variational dropout
[한글] Tutorial: Sparse variational dropout[한글] Tutorial: Sparse variational dropout
[한글] Tutorial: Sparse variational dropoutWuhyun Rico Shin
 
실전프로젝트 정서경 양현찬
실전프로젝트 정서경 양현찬실전프로젝트 정서경 양현찬
실전프로젝트 정서경 양현찬현찬 양
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Kiho Hong
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagationJinSooKim80
 
Voxel based game_optimazation_relelase
Voxel based game_optimazation_relelaseVoxel based game_optimazation_relelase
Voxel based game_optimazation_relelaseYEONG-CHEON YOU
 
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법강 민우
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리SANG WON PARK
 
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)Sukwoo Lee
 
Anomaly Detection based on Diffusion
Anomaly Detection based on DiffusionAnomaly Detection based on Diffusion
Anomaly Detection based on Diffusionssuserbaebf8
 
Pose Graph based SLAM
Pose Graph based SLAMPose Graph based SLAM
Pose Graph based SLAMEdwardIm1
 
Depth buffershadow
Depth buffershadowDepth buffershadow
Depth buffershadowMoonLightMS
 
[1023 박민수] 깊이_버퍼_그림자_1
[1023 박민수] 깊이_버퍼_그림자_1[1023 박민수] 깊이_버퍼_그림자_1
[1023 박민수] 깊이_버퍼_그림자_1MoonLightMS
 
[1023 박민수] 깊이_버퍼_그림자
[1023 박민수] 깊이_버퍼_그림자[1023 박민수] 깊이_버퍼_그림자
[1023 박민수] 깊이_버퍼_그림자MoonLightMS
 
From maching learning to deep learning episode2
From maching learning to deep learning episode2 From maching learning to deep learning episode2
From maching learning to deep learning episode2 Yongdae Kim
 
SAGAN_2024seminar announce_seoultech.pptx
SAGAN_2024seminar announce_seoultech.pptxSAGAN_2024seminar announce_seoultech.pptx
SAGAN_2024seminar announce_seoultech.pptxssuser4b2fe7
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2jdo
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational InferenceKyeongUkJang
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 

Semelhante a Data Visualization and t-SNE (20)

[한글] Tutorial: Sparse variational dropout
[한글] Tutorial: Sparse variational dropout[한글] Tutorial: Sparse variational dropout
[한글] Tutorial: Sparse variational dropout
 
실전프로젝트 정서경 양현찬
실전프로젝트 정서경 양현찬실전프로젝트 정서경 양현찬
실전프로젝트 정서경 양현찬
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagation
 
Voxel based game_optimazation_relelase
Voxel based game_optimazation_relelaseVoxel based game_optimazation_relelase
Voxel based game_optimazation_relelase
 
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법
[IGC2018] 유영천 개발자 - Voxel기반 네트워크 게임 최적화기법
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리
 
07. PCA
07. PCA07. PCA
07. PCA
 
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)
2017 12 09_데브루키_리얼타임 렌더링_입문편(3차원 그래픽스[저자 : 한정현] 참조)
 
Anomaly Detection based on Diffusion
Anomaly Detection based on DiffusionAnomaly Detection based on Diffusion
Anomaly Detection based on Diffusion
 
Pose Graph based SLAM
Pose Graph based SLAMPose Graph based SLAM
Pose Graph based SLAM
 
Depth buffershadow
Depth buffershadowDepth buffershadow
Depth buffershadow
 
[1023 박민수] 깊이_버퍼_그림자_1
[1023 박민수] 깊이_버퍼_그림자_1[1023 박민수] 깊이_버퍼_그림자_1
[1023 박민수] 깊이_버퍼_그림자_1
 
[1023 박민수] 깊이_버퍼_그림자
[1023 박민수] 깊이_버퍼_그림자[1023 박민수] 깊이_버퍼_그림자
[1023 박민수] 깊이_버퍼_그림자
 
From maching learning to deep learning episode2
From maching learning to deep learning episode2 From maching learning to deep learning episode2
From maching learning to deep learning episode2
 
SAGAN_2024seminar announce_seoultech.pptx
SAGAN_2024seminar announce_seoultech.pptxSAGAN_2024seminar announce_seoultech.pptx
SAGAN_2024seminar announce_seoultech.pptx
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational Inference
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 

Mais de Hyeongmin Lee

PR-455: CoTracker: It is Better to Track Together
PR-455: CoTracker: It is Better to Track TogetherPR-455: CoTracker: It is Better to Track Together
PR-455: CoTracker: It is Better to Track TogetherHyeongmin Lee
 
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...Hyeongmin Lee
 
PR-420: Scalable Model Compression by Entropy Penalized Reparameterization
PR-420: Scalable Model Compression by Entropy Penalized ReparameterizationPR-420: Scalable Model Compression by Entropy Penalized Reparameterization
PR-420: Scalable Model Compression by Entropy Penalized ReparameterizationHyeongmin Lee
 
PR-409: Denoising Diffusion Probabilistic Models
PR-409: Denoising Diffusion Probabilistic ModelsPR-409: Denoising Diffusion Probabilistic Models
PR-409: Denoising Diffusion Probabilistic ModelsHyeongmin Lee
 
PR-395: Variational Image Compression with a Scale Hyperprior
PR-395: Variational Image Compression with a Scale HyperpriorPR-395: Variational Image Compression with a Scale Hyperprior
PR-395: Variational Image Compression with a Scale HyperpriorHyeongmin Lee
 
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...Hyeongmin Lee
 
PR-376: Softmax Splatting for Video Frame Interpolation
PR-376: Softmax Splatting for Video Frame InterpolationPR-376: Softmax Splatting for Video Frame Interpolation
PR-376: Softmax Splatting for Video Frame InterpolationHyeongmin Lee
 
PR-365: Fast object detection in compressed video
PR-365: Fast object detection in compressed videoPR-365: Fast object detection in compressed video
PR-365: Fast object detection in compressed videoHyeongmin Lee
 
PR-340: DVC: An End-to-end Deep Video Compression Framework
PR-340: DVC: An End-to-end Deep Video Compression FrameworkPR-340: DVC: An End-to-end Deep Video Compression Framework
PR-340: DVC: An End-to-end Deep Video Compression FrameworkHyeongmin Lee
 
PR-328: End-to-End Optimized Image Compression
PR-328: End-to-End OptimizedImage CompressionPR-328: End-to-End OptimizedImage Compression
PR-328: End-to-End Optimized Image CompressionHyeongmin Lee
 
PR-315: Taming Transformers for High-Resolution Image Synthesis
PR-315: Taming Transformers for High-Resolution Image SynthesisPR-315: Taming Transformers for High-Resolution Image Synthesis
PR-315: Taming Transformers for High-Resolution Image SynthesisHyeongmin Lee
 
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisPR-302: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisHyeongmin Lee
 
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical FlowPR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical FlowHyeongmin Lee
 
PR-252: Making Convolutional Networks Shift-Invariant Again
PR-252: Making Convolutional Networks Shift-Invariant AgainPR-252: Making Convolutional Networks Shift-Invariant Again
PR-252: Making Convolutional Networks Shift-Invariant AgainHyeongmin Lee
 
PR-240: Modulating Image Restoration with Continual Levels via Adaptive Featu...
PR-240: Modulating Image Restoration with Continual Levels viaAdaptive Featu...PR-240: Modulating Image Restoration with Continual Levels viaAdaptive Featu...
PR-240: Modulating Image Restoration with Continual Levels via Adaptive Featu...Hyeongmin Lee
 
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...Hyeongmin Lee
 
PR-214: FlowNet: Learning Optical Flow with Convolutional Networks
PR-214: FlowNet: Learning Optical Flow with Convolutional NetworksPR-214: FlowNet: Learning Optical Flow with Convolutional Networks
PR-214: FlowNet: Learning Optical Flow with Convolutional NetworksHyeongmin Lee
 
[PR12] Making Convolutional Networks Shift-Invariant Again
[PR12] Making Convolutional Networks Shift-Invariant Again[PR12] Making Convolutional Networks Shift-Invariant Again
[PR12] Making Convolutional Networks Shift-Invariant AgainHyeongmin Lee
 
Latest Frame interpolation Algorithms
Latest Frame interpolation AlgorithmsLatest Frame interpolation Algorithms
Latest Frame interpolation AlgorithmsHyeongmin Lee
 

Mais de Hyeongmin Lee (20)

PR-455: CoTracker: It is Better to Track Together
PR-455: CoTracker: It is Better to Track TogetherPR-455: CoTracker: It is Better to Track Together
PR-455: CoTracker: It is Better to Track Together
 
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...
PR-430: CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retri...
 
PR-420: Scalable Model Compression by Entropy Penalized Reparameterization
PR-420: Scalable Model Compression by Entropy Penalized ReparameterizationPR-420: Scalable Model Compression by Entropy Penalized Reparameterization
PR-420: Scalable Model Compression by Entropy Penalized Reparameterization
 
PR-409: Denoising Diffusion Probabilistic Models
PR-409: Denoising Diffusion Probabilistic ModelsPR-409: Denoising Diffusion Probabilistic Models
PR-409: Denoising Diffusion Probabilistic Models
 
PR-395: Variational Image Compression with a Scale Hyperprior
PR-395: Variational Image Compression with a Scale HyperpriorPR-395: Variational Image Compression with a Scale Hyperprior
PR-395: Variational Image Compression with a Scale Hyperprior
 
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...
PR-386: Light Field Networks: Neural Scene Representations with Single-Evalua...
 
PR-376: Softmax Splatting for Video Frame Interpolation
PR-376: Softmax Splatting for Video Frame InterpolationPR-376: Softmax Splatting for Video Frame Interpolation
PR-376: Softmax Splatting for Video Frame Interpolation
 
PR-365: Fast object detection in compressed video
PR-365: Fast object detection in compressed videoPR-365: Fast object detection in compressed video
PR-365: Fast object detection in compressed video
 
PR-340: DVC: An End-to-end Deep Video Compression Framework
PR-340: DVC: An End-to-end Deep Video Compression FrameworkPR-340: DVC: An End-to-end Deep Video Compression Framework
PR-340: DVC: An End-to-end Deep Video Compression Framework
 
PR-328: End-to-End Optimized Image Compression
PR-328: End-to-End OptimizedImage CompressionPR-328: End-to-End OptimizedImage Compression
PR-328: End-to-End Optimized Image Compression
 
PR-315: Taming Transformers for High-Resolution Image Synthesis
PR-315: Taming Transformers for High-Resolution Image SynthesisPR-315: Taming Transformers for High-Resolution Image Synthesis
PR-315: Taming Transformers for High-Resolution Image Synthesis
 
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisPR-302: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
PR-302: NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical FlowPR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
PR-278: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow
 
Pr266
Pr266Pr266
Pr266
 
PR-252: Making Convolutional Networks Shift-Invariant Again
PR-252: Making Convolutional Networks Shift-Invariant AgainPR-252: Making Convolutional Networks Shift-Invariant Again
PR-252: Making Convolutional Networks Shift-Invariant Again
 
PR-240: Modulating Image Restoration with Continual Levels via Adaptive Featu...
PR-240: Modulating Image Restoration with Continual Levels viaAdaptive Featu...PR-240: Modulating Image Restoration with Continual Levels viaAdaptive Featu...
PR-240: Modulating Image Restoration with Continual Levels via Adaptive Featu...
 
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...
PR-228: Geonet: Unsupervised learning of dense depth, optical flow and camera...
 
PR-214: FlowNet: Learning Optical Flow with Convolutional Networks
PR-214: FlowNet: Learning Optical Flow with Convolutional NetworksPR-214: FlowNet: Learning Optical Flow with Convolutional Networks
PR-214: FlowNet: Learning Optical Flow with Convolutional Networks
 
[PR12] Making Convolutional Networks Shift-Invariant Again
[PR12] Making Convolutional Networks Shift-Invariant Again[PR12] Making Convolutional Networks Shift-Invariant Again
[PR12] Making Convolutional Networks Shift-Invariant Again
 
Latest Frame interpolation Algorithms
Latest Frame interpolation AlgorithmsLatest Frame interpolation Algorithms
Latest Frame interpolation Algorithms
 

Último

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법JMP Korea
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP Korea
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP Korea
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?Jay Park
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화JMP Korea
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP Korea
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석JMP Korea
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP Korea
 

Último (8)

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례
 

Data Visualization and t-SNE

  • 2. Index 01 / Dimension Reduction 02 / Good Visualization 03 / History of Dimension Reduction 04 / Stochastic Neighbor Embedding 05 / t-Distributed SNE
  • 4. 01 Dimension Reduction Feature Space 축의 개수 = Dimension = 데이터를 표현하는 숫자의 개수
  • 5. 01 Dimension Reduction How about Image Data? lena.jpg 512 × 512 = 262144
  • 6. 01 Dimension Reduction Projection & Dimension Reduction Dimension Reduction = 데이터들의 분포에 의해 생겨난, ‘의미론적인’축을 찾는 것
  • 8. 02 Good Visualization Preserve Local Structure 가까운 점은 가깝게, 먼 점은 멀게! Preserve Global Structure 전체적인 구조를 유지! Preserve Manifold Structure 숨겨진 축을 찾는다!
  • 9. 02 Good Visualization Preserve Local Structure X  가까운 점은 가깝게, 먼 점은 멀게!
  • 10. 02 Good Visualization Preserve Local Structure O  가까운 점은 가깝게, 먼 점은 멀게!
  • 11. 02 Good Visualization Preserve Global Structure  전체적인 구조를 유지!
  • 12. 02 Good Visualization Preserve Global Structure X  전체적인 구조를 유지!
  • 13. 02 Good Visualization Preserve Global Structure O  전체적인 구조를 유지!
  • 14. 02 Good Visualization Preserve Manifold Structure  형태상으로 차원만 높이고 있을 뿐, 아무 특징도 갖지 못한 축을 적절히 선택  단순한 Projection이 아닌, 형태적인 분석을 포함하여 ‘숨겨진 축’을 찾아냄
  • 15. History of Dimension Reduction From Horangi dambaepideon sijeol
  • 16. 03 History of Dimension Reduction History 1936 Linear Discriminant Analysis (LDA) 1901 Principal Component Analysis (PCA) - Karl Pearson - Ronald Fisher 2000 Isomap - Tenenbaum et al. Locally Linear Embedding - Roweis et al. 2003 Stochastic Neighbor Embedding (SNE) - Geoffrey Hinton 2008 t-distributed SNE (t-SNE) - Laurens Matten Linear Method Nonlinear Method 1964 Multidimensional Scaling (MDS) - Kruskal
  • 17. 03 History of Dimension Reduction PCA Dimension Reduction = 데이터들의 분포에 의해 생겨난, ‘의미론적인’축을 찾는 것 Linear한 분포에 대해서는 기가 막히게 잘 찾는다…!
  • 18. 03 History of Dimension Reduction PCA Swiss Roll Data
  • 19. 03 History of Dimension Reduction PCA Swiss Roll Data
  • 20. 03 History of Dimension Reduction PCA Swiss Roll Data
  • 21. 03 History of Dimension Reduction PCA Swiss Roll Data We need Nonlinear Methods!!!
  • 22. 03 History of Dimension Reduction Nonlinear Method1: Multidimensional Scaling (MDS) 𝑥𝑖: 𝐻𝑖𝑔ℎ 𝐷𝑖𝑚𝑒𝑛𝑠𝑖𝑜𝑛𝑎𝑙 𝑃𝑜𝑖𝑛𝑡 𝑦𝑖: 𝐿𝑜𝑤 𝐷𝑖𝑚𝑒𝑛𝑠𝑖𝑜𝑛𝑎𝑙 𝑃𝑜𝑖𝑛𝑡 𝑦𝑖 = 𝑎𝑟𝑔𝑚𝑖𝑛 𝑦 𝑖 ( 𝑗 (1 − 𝑦𝑖 − 𝑦𝑗 𝑥𝑖 − 𝑥𝑗 )) • High Dimensional 공간에서의 점들 간의 거리를 Low Dimensional 공간에서도 그대 로 유지하려는 방향의 Optimization
  • 23. 03 History of Dimension Reduction Nonlinear Method2: Isomap • Manifold Data를 해석하기 위해, 각 점들의 거리를 다르게 정의 • 실제 Euclidean 거리 대신 Graph 상의 거리를 채택(해당 점까지 가기 위해 거쳐야 하는 Node의 최소 개수)
  • 24. 03 History of Dimension Reduction Nonlinear Method3: Locally Linear Embedding • 중앙 점 𝑥𝑖가 주변의 neighborhood들의 Linear Combination으로 나타내어 질 수 있도록 하는 Weight들을 구한다. • 이 Weight들이 Low Dimension Space에서도 유지될 수 있도록 Embedding한다. • 좁은 범위에서 근사 된 Linear model을 매끄럽게 이어나가는 방식
  • 25. 03 History of Dimension Reduction Nonlinear Method: Result • MDS의 경우, 모든 점을 전부 탐색해야 하기 때문에 시간이 매우 오래 걸리며, 사실 Euclidean Distance를 최소화 시킨다는 점에서 PCA와의 기능적 차이를 내지 못한다. • Isomap과 LLE는 다른 알고리즘들에 비해 Swiss Roll 데이터를 매우 잘 표현하지만, 각 점이 주변의 Neighbor들만 고려하기 때문에 전체적인 구조를 반영하는 데 한계 가 있으며, Swiss Roll처럼 인위적으로 만들어진 데이터 이외에는 좋은 성능을 보여 주지 못한다는 단점이 있다.
  • 27. 04 Stochastic Neighbor Embedding High Dimensional Domain에서의 거리 함수 𝑝𝑗|𝑖 = exp(− 𝑥𝑖 − 𝑥𝑗 2 2𝜎𝑖 2 ) 𝑘≠𝑖 exp(− 𝑥𝑖 − 𝑥 𝑘 2 2𝜎𝑖 2 ) 𝑝𝑗|𝑖  i번째 점을 기준으로 j번째 점이 가까운 정도. (j번째 점을 “나랑 가까운 점”이라고 판단할 확률) • i번째 점을 중심으로 하는 Gaussian 분포의 조건부 확률을 채택 • 식에 등장하는 분산의 값은 뒤에서 따로 정의
  • 28. 04 Stochastic Neighbor Embedding Low Dimensional Domain에서의 거리 함수 𝑞𝑗|𝑖 = exp(− 𝑦𝑖 − 𝑦𝑗 2 ) 𝑘≠𝑖 exp(− 𝑦𝑖 − 𝑦 𝑘 2) 𝑞 𝑗|𝑖  i번째 점을 기준으로 j번째 점이 가까운 정도. (j번째 점을 “나랑 가까운 점”이라고 판단할 확률) • High Dimension과 유사한 구조 • 논문에 따르면 Variance가 사라진 이유는 High에서 Low Dimension으로 떨 어지면서 손실된 정보의 일부로 볼 수 있기 때문이라고 한다. • 우리의 목적은 𝑝𝑗|𝑖와 𝑞 𝑗|𝑖가 같아지도록 만드는 것이다.
  • 29. 04 Stochastic Neighbor Embedding Cost Function 𝐶 = 𝑖 𝑗 𝑝𝑗|𝑖 log 𝑝𝑗|𝑖 𝑞𝑗|𝑖 • Cost 함수로 KL divergence를 채택 • 함수의 구조가 비대칭이므로 다음과 같은 성질을 띤다. High Dimension에서의 거리 𝑝𝑗|𝑖 𝑞 𝑗|𝑖 Low Dimension에서의 거리 멀다 작다 커야 한다 가까워야 한다. 가깝다 크다 더 커야 한다 더 가까워야 한다. • 그렇기 때문에 이 Cost 함수로 Optimization을 하면 원하는 결과를 얻을 수 있게 된다.
  • 30. 04 Stochastic Neighbor Embedding 분산 값의 채택과 Perplexity 𝑝𝑒𝑟𝑝 = 2 𝐻(𝑃) 𝐻(𝑃) = − 𝑗 𝑝𝑗|𝑖 log2 𝑝𝑗|𝑖 • Perplexity는 P의 Shannon Entropy인 H 값에 대해 2의 H제곱 한 값으로 정 의되는데, 실용적으로는 i번째 점 주변에 ‘그 점의 Neighbor’라고 할 수 있을 만큼 가까운 점들의 개수라고 해석할 수 있다. • 우리는 이 Perplexity를 먼저 5~50의 상수로 정하고, 모든 점에 대해 Perplexity가 일정하게 유지되도록 하는 분산 값을 각각 할당해주게 된다.
  • 31. 04 Stochastic Neighbor Embedding Optimization 𝑌(𝑡) = 𝑌(𝑡−1) + 𝜂 𝜕𝐶 𝜕𝑌 + 𝛼(𝑡)(𝑌 𝑡−1 − 𝑌(𝑡−2)) 𝜕𝐶 𝜕𝑦𝑖 = 2 𝑗 (𝑝𝑗|𝑖 − 𝑞𝑗|𝑖 + 𝑝𝑖|𝑗 − 𝑞𝑖|𝑗)(𝑦𝑖 − 𝑦𝑗)
  • 32. T-Distributed SNE form the weakness of classical SNE
  • 33. 05 T-Distributed SNE Symmetric SNE • 앞에서 정의한 거리 함수는 Conditional Probability이기 때문에 Symmetric하 지 못하므로, Joint Probability를 사용 𝑞𝑖𝑗 = exp(− 𝑦𝑖 − 𝑦𝑗 2 ) 𝑘≠𝑙 exp(− 𝑦 𝑘 − 𝑦𝑙 2) 𝑝𝑖𝑗 = exp(− 𝑥𝑖 − 𝑥𝑗 2 2𝜎2 ) 𝑘≠𝑙 exp(− 𝑥 𝑘 − 𝑥𝑙 2 2𝜎2 )
  • 34. 05 T-Distributed SNE Symmetric SNE • 문제점이 발생. 만약 i번째 점이 다른 점들 로부터 멀리 떨어진 outlier인 경 우 이전에는 분산 값이 커져서 괜찮았지만, 분산 값이 하나로 통일된 지금같 은 상황에서 Outlier에 대해 p 값이 비정상적으로 작게 나오는 현상 발생 • P를 다시 정의해야 한다. 𝑝𝑖𝑗 = 𝑝𝑗|𝑖 + 𝑝𝑖|𝑗 2𝑛 𝑡ℎ𝑒𝑛, 𝑗 𝑝𝑖𝑗 > 1 2𝑛
  • 35. 05 T-Distributed SNE Symmetric SNE • 거리 함수를 Symmetric하게 바꾸면, Cost 함수의 미분이 간단해진다. 𝜕𝐶 𝜕𝑦𝑖 = 4 𝑗 (𝑝𝑖𝑗 − 𝑞𝑖𝑗)(𝑦𝑖 − 𝑦𝑗)
  • 36. 05 T-Distributed SNE The Crowding Problem • 고차원에서 저차원으로 점을 Projection 하면, 거리의 멀고 가까운 개념이 붕 괴되는 경우가 있다. • 예를 들어 3차원에서는 서로 다른 4개의 점이 서로와 같은 거리에 위치하도 록 할 수 있는데 2차원에서는 불가능 • 고차원에서 멀리 떨어져 있던 점은 저차원에서 더 멀게, 고차원에서 가까웠 던 점은 저차원에서 더 가깝게 만들어줄 인위적인 장치가 필요
  • 37. 05 T-Distributed SNE The student t-distribution • Low Dimensional Domain에서만 Gaussian 대신에 수정된 형태의 Distribution을 쓴다.(Student t-Distribution) 𝑞𝑖𝑗 = exp 1 + 𝑦𝑖 − 𝑦𝑗 2 −1 𝑘≠𝑙 exp 1 + 𝑦 𝑘 − 𝑦𝑙 2 −1
  • 38. 05 T-Distributed SNE The student t-distribution • 가까운 점의 q 값을 실제보다 저평가  더 가까워지려고 한다. • 먼 점의 q 값을 실제보다 고평가  굳이 더 가까워지려고 하지 않는다. (더 멀어진다.)
  • 39. 05 T-Distributed SNE Eventually, the derivative will be… 𝜕𝐶 𝜕𝑦𝑖 = 4 𝑗 (𝑝𝑖𝑗 − 𝑞𝑖𝑗) 𝑦𝑖 − 𝑦𝑗 1 + 𝑦𝑖 − 𝑦𝑗 2 −1 Weakness • Student t-Distribution 때문에 데이터들이 Cluster 위주로 너무 잘 뭉치게 되 어, Visualization에는 좋지만 다른 용도로 쓰이거나 dimension 3이상의 공간 으로 Projection 시키기에는 좋지 않다. • Convex Function이 아니기 때문에 완벽한 수렴이 보장되지는 않는다.

Notas do Editor

  1. 먼저 서론 입니다.
  2. Nonlinear 방법은 데이터의 분포를 중앙 집권적으로, 전체적으로 본 것이 아니라 각 점들 개개인이 주변의 점들과의 관계를 통해 서로의 거리를 재조정하는 방식을 채택