SlideShare uma empresa Scribd logo
1 de 19
2018 FASTCAMPUS Extension SCHOOL
FAST CAMPUS SCHOOL 2018
Copyright FAST CAMPUS Corp. All Rights Reserved
기초 선형대수
(Spectral Property – 함수/변환)
윤 정 훈
2018 FASTCAMPUS Extension SCHOOL
일차독립
 방정식 𝑐1 𝕧1 + 𝑐2 𝕧2 + ⋯ + 𝑐 𝑠 𝕧 𝑠 = 𝕆 을 만족시키는 유일한 스칼라들 𝑐1, 𝑐2, … , 𝑐 𝑠 가
 𝑐1 = 0, 𝑐2 = 0, … , 𝑐 𝑠 = 0 이면 𝑅 𝑛
의 벡터들의 공집합이 아닌 집합 𝑆 = 𝕧1, 𝕧2, … , 𝕧 𝑠 는 일차독립(linearly
independent) 이라고 한다.
 𝑐1, 𝑐2, … , 𝑐 𝑠 중 1개 이상이 0인 경우, 집합 𝑆 는 일차종속(linearly dependent) 이라고 한다.
 일차종속의 경우, 𝑅 𝑛
에서 두 개 이상의 벡터들의 집합 𝑆 = 𝕧1, 𝕧2, … , 𝕧 𝑠 에 대하여, 𝑆 의 벡터 중
적어도 하나는 다른 벡터들의 일차결합으로 표현할 수 있다.
𝕧1
𝕧2
𝕧1
𝕧2
𝕧1
𝕧2
일차독립일차종속
2018 FASTCAMPUS Extension SCHOOL
함수
 함수(function) 𝑓는 주어진 가능한 입력 집합 𝐷에 대해, 𝐷의 각각의 입력과 유일한 출력을 연관시키
는 규칙이다.
 집합 𝐷는 𝑓의 정의역(domain)이라고 한다.
 출력은 𝑥에서 𝑓의 값(value) 또는 𝑓에 의한 𝑥의 상(image)이라 한다.
 정의역 전체에 걸쳐서 산출한 모든 출력 𝑦의 집합은 𝑓의 치역(range)이라고 한다.
 𝑓가 𝑥를 𝑓(𝑥)로 보낸다 또는 사상한다(map)라고 말한다.
입력 𝑥 출력 𝑦
𝑓
Program
2018 FASTCAMPUS Extension SCHOOL
변환
 입력과 출력이 모두 벡터인 함수는 변환(transformation)이라 하고 일반적으로 변환은 대문자로 표
시한다.
 𝑇가 벡터 𝕩로부터 벡터 𝕨로 보내는 변환이면,
 𝕨 = 𝑇(𝕩)
 𝕩 ⟶ 𝕨
𝑇
2018 FASTCAMPUS Extension SCHOOL
변환 예제
 𝑇는 𝑅2 상의 벡터 𝕩 = (𝑥1, 𝑥2)를 𝑅2 상의 벡터 2𝕩 = (2𝑥1, 2𝑥2)로 사상하는 변환
 𝑇 𝕩 = 2𝕩 ⇒ 𝑇 𝑥1, 𝑥2 = (2𝑥1, 2𝑥2)
 𝕩 ⟶ 2𝕩 ⇒ (𝑥1, 𝑥2) ⟶ (2𝑥1, 2𝑥2)
 𝕩 = (−1,3) 이면, 𝑇 𝕩 = 2𝕩 = (−2,6)
 𝑇는 𝑅3
상의 벡터 𝕩 = (𝑥1, 𝑥2, 𝑥3)를 각 성분들의 제곱인 𝑅3
상의 벡터로 보내는 변환
 𝑇 𝑥1, 𝑥2, 𝑥3 = (𝑥1
2
, 𝑥2
2
, 𝑥3
2
)
 𝕩 = 1,3, −4 이면, 𝑇 𝕩 = (1,9,16)
𝑇 𝑇
2018 FASTCAMPUS Extension SCHOOL
행렬변환
𝑅 𝑛 𝑅 𝑚
𝕩
𝑇𝐴(𝕩)
정의역
공변역
치역
2018 FASTCAMPUS Extension SCHOOL
행렬변환
 𝐴가 𝑚 × 𝑛 행렬이고 𝕩가 𝑅 𝑛 안의 열벡터이면 곱 𝐴𝕩는 𝑅 𝑚 안의 벡터이며, 𝕩에 𝐴를 곱해
서 만드는 변환은 𝑅 𝑛안의 벡터를 𝑅 𝑚안의 벡터로 보낸다. 정의역이 𝑅 𝑛이고 치역이 𝑅 𝑚 에
서 정의된 이러한 변환 𝑇를 𝐴의 곱셈변환(multiplication by A) 또는 행렬변환(matrix
transformation)이라 한다. 행렬 𝐴를 강조하기 위해 이 변환을 𝑇𝐴로 표시한다.
 𝑇𝐴: 𝑅 𝑛
⟶ 𝑅 𝑚
 𝑇𝐴 𝕩 = 𝐴𝕩
 𝕩 ⟶ 𝐴𝕩
𝑇𝐴
2018 FASTCAMPUS Extension SCHOOL
변환 예제 1
 𝐴 =
1 −1
2 5
3 4
, 𝑇𝐴 는 𝑅2 상의 2 × 1 열벡터 𝕩를 𝑅3 상의 3 × 1 열벡터 𝐴𝕩로 보내는 변환
 𝑇𝐴 𝕩 = 𝐴𝕩 또는 𝕩 ⟶ 𝐴𝕩 로 표시할 수 있다.
 𝐴𝕩 =
1 −1
2 5
3 4
𝑥1
𝑥2
=
𝑥1 − 𝑥2
2𝑥1 + 5𝑥2
3𝑥1 + 4𝑥2
이므로, 𝑇𝐴
𝑥1
𝑥2
=
𝑥1 − 𝑥2
2𝑥1 + 5𝑥2
3𝑥1 + 4𝑥2
로 나타낼 수 있다.
 𝑇𝐴 𝑥1, 𝑥2 = (𝑥1 − 𝑥2, 2𝑥1 + 5𝑥2, 3𝑥1 + 4𝑥2)
 𝑇𝐴
−1
3
=
−4
13
9
또는 𝑇𝐴 −1,3 = (−4,13,9)
𝑇
2018 FASTCAMPUS Extension SCHOOL
변환 예제 2
 행렬 𝐴 =
1 −1
2 5
3 4
에 대하여 행렬변환 𝑇𝐴: 𝑅2
⟶ 𝑅3
을 생각해보자.
 만일 𝑇𝐴에 의한 상이 벡터 𝕓 = 7 0 7 𝑇
가 되는 벡터 𝕩가 𝑅2
안에 존재한다면 이 벡터를 찾아라.
 만일 𝑇𝐴에 의한 상이 벡터 𝕓 = 9 −3 −1 𝑇
가 되는 벡터 𝕩가 𝑅2
안에 존재한다면 이 벡터를 찾아라.
2018 FASTCAMPUS Extension SCHOOL
선형변환
 𝑅 𝑛
안의 모든 벡터 𝕦와 𝕧, 그리고 모든 스칼라 𝑐에 대해 아래 두가지 특성이 성립하면 함수 𝑇: 𝑅 𝑛
⟶
𝑅 𝑚을 𝑅 𝑛 부터 𝑅 𝑚 까지의 선형변환(linear transformation)이라고 한다.
 동차성 : 𝑇 𝑐𝕦 = 𝑐𝑇(𝕦)
 가산성 : 𝑇 𝕦 + 𝕧 = 𝑇 𝕦 + 𝑇(𝕧)
 𝑚 = 𝑛인 특별한 경우 선형변환 𝑇를 𝑅 𝑛
상의 선형연산자(linear operator) 라고 한다.
2018 FASTCAMPUS Extension SCHOOL
선형변환 예제1
 행렬변환은 선형변환인가?
 행렬 𝐴는 𝑚 × 𝑛이고, 열벡터 𝕦, 𝕧 ∈ 𝑅 𝑛
이고, 𝑐가 스칼라일때, 행렬 연산의 성질에 의하여 다음을 만족한다.
 𝐴 𝑐𝕦 = 𝑐(𝐴𝕦)
 𝐴 𝕦 + 𝕧 = 𝐴𝕦 + 𝐴𝕧
 따라서 선형변환의 동차성 및 가산성 모두 만족한다.
 𝑇𝐴 𝑐𝕦 = 𝐴 𝑐𝕦 = 𝑐 𝐴𝕦 = 𝑐𝑇𝐴(𝕦)
 𝑇𝐴 𝕦 + 𝕧 = 𝐴 𝕦 + 𝕧 = 𝐴𝕦 + 𝐴𝕧 = 𝑇𝐴 𝕦 + 𝑇𝐴(𝕧)
2018 FASTCAMPUS Extension SCHOOL
선형변환 예제2
 𝑇 𝑥1, 𝑥2, 𝑥3 = (𝑥1
2
, 𝑥2
2
, 𝑥3
2
)
 동차성 위반 : 𝑇 𝑐𝕦 = 𝑇 𝑐𝑢1, 𝑐𝑢2, 𝑐𝑢3 = 𝑐2
𝑢1
2
, 𝑐2
𝑢2
2
, 𝑐2
𝑢3
2
= 𝑐2
𝑢1
2
, 𝑢2
2
, 𝑢3
2
= 𝑐2
𝑇(𝕦)
 가산성 위반
 𝑇 𝕦 + 𝕧 = 𝑇 𝑢1 + 𝑣1, 𝑢2 + 𝑣2, 𝑢3 + 𝑣3 = ( 𝑢1 + 𝑣1
2
, 𝑢2 + 𝑣2
2
, 𝑢3 + 𝑣3
2
)
 𝑇 𝕦 + 𝑇 𝕧 = 𝑢1
2
, 𝑢2
2
, 𝑢3
2
+ 𝑣1
2
, 𝑣2
2
, 𝑣2
2
= (𝑢1
2
+ 𝑣1
2
, 𝑢2
2
+ 𝑣2
2
, 𝑢3
2
+ 𝑣3
2
)
2018 FASTCAMPUS Extension SCHOOL
기저
 𝑅 𝑛
의 부분공간 𝑉의 벡터들의 집합이 일차독립이고 𝑉를 생성한다면 이 집합을 𝑉에 대한 기저(basis)
라 한다.
 𝑉 ∈ 𝑅 𝑛
가 원점을 지나는 직선이라면, 직선 위의 영이 아닌 벡터는 𝑉의 기저를 행성한다.
 𝑉 ∈ 𝑅 𝑛
가 원점을 지나는 평면이라면, 서로 스칼라배수가 아니고 영이 아닌 평면 위의 두 개의 벡터는 𝑉의
기저를 형성한다.
 표준단위벡터 𝕖1, 𝕖2, … , 𝕖 𝑛는 𝑅 𝑛
의 표준기저(standard basis)이다.
 일차독립이다.
 𝑅 𝑛
을 생성한다.
 ∀𝕩 ∈ 𝑅 𝑛
에 대하여, 𝕩 = 𝑥1, 𝑥2, … , 𝑥 𝑛 = 𝑥1 𝕖1 + 𝑥2 𝕖2 + ⋯ + 𝑥 𝑛 𝕖 𝑛
2018 FASTCAMPUS Extension SCHOOL
차원
 0이 아닌 부분공간, 𝑉 ∈ 𝑅 𝑛
에 대하여, 𝑉의 차원(dimension)은 𝑉의 기저에 대한 벡터의 수로 정의하
며, dim(𝑉)라고 쓴다.
 𝑅 𝑛
의 원점을 통과하는 직선의 차원은 1이다.
 𝑅 𝑛
의 원점을 지나는 평면의 차원은 2이다.
 𝑅 𝑛
의 차원은 𝑛이다. (표준단위벡터 𝕖1, … , 𝕖 𝑛)
평면의 차원은 2라는 것은
평면의 basis의 벡터수가 2라는 것이다.
2018 FASTCAMPUS Extension SCHOOL
기저와 차원의 성질
 𝑆 = {𝕧1, … , 𝕧 𝑘}가 𝑅 𝑛
의 부분공간 𝑉의 기저라면, ∀𝕧 ∈ 𝑉는 정확히 한 가지 방법으로 𝑆의 벡터들에
의해 일차결합으로 표현된다.
 𝑅 𝑛의 영이 아닌 𝑘차원 부분공간에서 𝑘개의 일차독립벡터들의 집합은 그 부분공간의 기저이다.
 𝑅 𝑛의 영이 아닌 𝑘차원 부분공간을 생성하는 𝑘개의 벡터들의 집합은 그 부분공간의 기저이다.
 𝑅 𝑛의 영이 아닌 𝑘차원 부분공간에서 𝑘개보다 적은 일차독립벡터들의 집합은 그 부분공간을 생성
할 수 없다.
 𝑅 𝑛
의 영이 아닌 𝑘차원 부분공간에서 𝑘개보다 많은 벡터들의 집합은 일차 종속이다.
2018 FASTCAMPUS Extension SCHOOL
행렬의 기본공간
 𝐴가 𝑚 × 𝑛행렬일 때,
 𝐴의 행공간(row space) : 𝐴의 행벡터들에 의해 생성되는 𝑅 𝑛
의 부분공간, row(𝐴)
 𝐴의 열공간(column space) : 𝐴의 열벡터들에 의해 생성되는 𝑅 𝑚
의 부분공간, col(𝐴)
 𝐴의 영공간(null space) : 𝐴𝕩 = 𝕆의 해공간인 𝑅 𝑛
의 부분공간, null(𝐴)
1 2 3
4 5 6
7 8 9
1 2 3
4 5 6
7 8 9
행렬의 행벡터들 행렬의 열벡터들
2018 FASTCAMPUS Extension SCHOOL
계수
 행렬 𝐴의 행공간의 차원(dimension)은 𝐴의 계수(rank)라 하고 rank(𝐴)로 표시
 행렬의 행공간 basis의 벡터의 갯수
 행렬 𝐴의 영공간(null space)의 차원은 영공간의 차원(nullity)이라 하고 nullity(A) 로 표시
2018 FASTCAMPUS Extension SCHOOL
행공간 및 계수의 예제
 다음 벡터들에 의해 성성된 𝑅5의 부분공간 𝑊에 대한 기저를 구하라.
𝕧1 = 1,0,0,0,2
𝕧2 = −2,1, −3, −2, −4
𝕧3 = (0,5, −14, −9,0)
𝕧4 = (2,10, −28, −18,4)
 주어진 벡터들에 의해 생성된 부분공간은 그 행렬 𝐴의 행공간이다.
𝐴 =
1 0 0
−2 1 −3
0 2
−2 −4
0 5 −14
2 10 −28
−9 0
−18 4
2018 FASTCAMPUS Extension SCHOOL
행공간 및 계수의 예제
 이 행렬을 행사다리꼴로 변형시킴으로써 다음 행렬을 얻는다.
𝑈 =
1 0 0 0 2
0 1 −3 −2 0
0 0 1 1 0
0 0 0 0 0
 0이 아닌 행을 추출하면 기저벡터들을 생성한다.
𝕨1 = (1,0,0,2)
𝕨2 = 0,1, −3, −2,0
𝕨3 = (0,0,1,1,0)
 따라서, 주어진 벡터들에 의해 생성되는 공간의 기저는 3이고, 주어진 벡터에 의해 생성되는
부분공간은 그 행렬 𝐴의 행공간이므로, 행공간의 차원 즉, rank는 3이다.
 주어진 벡터 4개로 생성되는 부분공간 𝑊를 생성하기 위해서는 결국 주어진 벡터 4개까지 필
요없고, 3개의 벡터(기저)만 있으면 된다. 즉 벡터의 갯수로 보면 1개가 필요없는 것이 된다. 𝑊
를 나타내가 위해서는 계수만큼의 벡터만 있으면 된다.

Mais conteúdo relacionado

Mais procurados

0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrixJeonghun Yoon
 
0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distributionJeonghun Yoon
 
03. linear regression
03. linear regression03. linear regression
03. linear regressionJeonghun Yoon
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theoryJeonghun Yoon
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clusteringJeonghun Yoon
 
02. naive bayes classifier revision
02. naive bayes classifier   revision02. naive bayes classifier   revision
02. naive bayes classifier revisionJeonghun Yoon
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
0307 2 hypothesis_testing
0307 2 hypothesis_testing0307 2 hypothesis_testing
0307 2 hypothesis_testingJeonghun Yoon
 
Association rule mining
Association rule miningAssociation rule mining
Association rule miningJeonghun Yoon
 
05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)Jeonghun Yoon
 
패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1jdo
 
패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1jdo
 

Mais procurados (20)

0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix
 
0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distribution
 
06. graph mining
06. graph mining06. graph mining
06. graph mining
 
Decision tree
Decision treeDecision tree
Decision tree
 
03. linear regression
03. linear regression03. linear regression
03. linear regression
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theory
 
Topic models
Topic modelsTopic models
Topic models
 
SVM
SVMSVM
SVM
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clustering
 
02. naive bayes classifier revision
02. naive bayes classifier   revision02. naive bayes classifier   revision
02. naive bayes classifier revision
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
07. PCA
07. PCA07. PCA
07. PCA
 
0307 2 hypothesis_testing
0307 2 hypothesis_testing0307 2 hypothesis_testing
0307 2 hypothesis_testing
 
Association rule mining
Association rule miningAssociation rule mining
Association rule mining
 
05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)
 
01. introduction
01. introduction01. introduction
01. introduction
 
패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1
 
패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1
 
행렬
행렬행렬
행렬
 
행렬
행렬행렬
행렬
 

Semelhante a 0131 1 spectral_theorem_transformation

Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pcaJinhwan Suk
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptxGeonWooYoo1
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영AHRA CHO
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt OrthogonalizationAHRA CHO
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합AHRA CHO
 
Lecture 2: Supervised Learning
Lecture 2: Supervised LearningLecture 2: Supervised Learning
Lecture 2: Supervised LearningSang Jun Lee
 
Variational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelVariational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelSEMINARGROOT
 
파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기Yong Joon Moon
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
120428 게임 프로그래머를 위한 기초수학과 물리 제 5장 행렬연산
120428 게임 프로그래머를 위한 기초수학과 물리   제 5장 행렬연산 120428 게임 프로그래머를 위한 기초수학과 물리   제 5장 행렬연산
120428 게임 프로그래머를 위한 기초수학과 물리 제 5장 행렬연산 tedypicker
 
Linear regression
Linear regressionLinear regression
Linear regression전 희천
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기Yong Joon Moon
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagationJinSooKim80
 
[Probability for machine learning]
[Probability for machine learning][Probability for machine learning]
[Probability for machine learning]강민국 강민국
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미AHRA CHO
 

Semelhante a 0131 1 spectral_theorem_transformation (20)

Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptx
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
Vae
VaeVae
Vae
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
Lecture 2: Supervised Learning
Lecture 2: Supervised LearningLecture 2: Supervised Learning
Lecture 2: Supervised Learning
 
Variational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelVariational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial Model
 
파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
120428 게임 프로그래머를 위한 기초수학과 물리 제 5장 행렬연산
120428 게임 프로그래머를 위한 기초수학과 물리   제 5장 행렬연산 120428 게임 프로그래머를 위한 기초수학과 물리   제 5장 행렬연산
120428 게임 프로그래머를 위한 기초수학과 물리 제 5장 행렬연산
 
Linear regression
Linear regressionLinear regression
Linear regression
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagation
 
[Probability for machine learning]
[Probability for machine learning][Probability for machine learning]
[Probability for machine learning]
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
선형 대수학
선형 대수학선형 대수학
선형 대수학
 
벡터
벡터벡터
벡터
 

0131 1 spectral_theorem_transformation

  • 1. 2018 FASTCAMPUS Extension SCHOOL FAST CAMPUS SCHOOL 2018 Copyright FAST CAMPUS Corp. All Rights Reserved 기초 선형대수 (Spectral Property – 함수/변환) 윤 정 훈
  • 2. 2018 FASTCAMPUS Extension SCHOOL 일차독립  방정식 𝑐1 𝕧1 + 𝑐2 𝕧2 + ⋯ + 𝑐 𝑠 𝕧 𝑠 = 𝕆 을 만족시키는 유일한 스칼라들 𝑐1, 𝑐2, … , 𝑐 𝑠 가  𝑐1 = 0, 𝑐2 = 0, … , 𝑐 𝑠 = 0 이면 𝑅 𝑛 의 벡터들의 공집합이 아닌 집합 𝑆 = 𝕧1, 𝕧2, … , 𝕧 𝑠 는 일차독립(linearly independent) 이라고 한다.  𝑐1, 𝑐2, … , 𝑐 𝑠 중 1개 이상이 0인 경우, 집합 𝑆 는 일차종속(linearly dependent) 이라고 한다.  일차종속의 경우, 𝑅 𝑛 에서 두 개 이상의 벡터들의 집합 𝑆 = 𝕧1, 𝕧2, … , 𝕧 𝑠 에 대하여, 𝑆 의 벡터 중 적어도 하나는 다른 벡터들의 일차결합으로 표현할 수 있다. 𝕧1 𝕧2 𝕧1 𝕧2 𝕧1 𝕧2 일차독립일차종속
  • 3. 2018 FASTCAMPUS Extension SCHOOL 함수  함수(function) 𝑓는 주어진 가능한 입력 집합 𝐷에 대해, 𝐷의 각각의 입력과 유일한 출력을 연관시키 는 규칙이다.  집합 𝐷는 𝑓의 정의역(domain)이라고 한다.  출력은 𝑥에서 𝑓의 값(value) 또는 𝑓에 의한 𝑥의 상(image)이라 한다.  정의역 전체에 걸쳐서 산출한 모든 출력 𝑦의 집합은 𝑓의 치역(range)이라고 한다.  𝑓가 𝑥를 𝑓(𝑥)로 보낸다 또는 사상한다(map)라고 말한다. 입력 𝑥 출력 𝑦 𝑓 Program
  • 4. 2018 FASTCAMPUS Extension SCHOOL 변환  입력과 출력이 모두 벡터인 함수는 변환(transformation)이라 하고 일반적으로 변환은 대문자로 표 시한다.  𝑇가 벡터 𝕩로부터 벡터 𝕨로 보내는 변환이면,  𝕨 = 𝑇(𝕩)  𝕩 ⟶ 𝕨 𝑇
  • 5. 2018 FASTCAMPUS Extension SCHOOL 변환 예제  𝑇는 𝑅2 상의 벡터 𝕩 = (𝑥1, 𝑥2)를 𝑅2 상의 벡터 2𝕩 = (2𝑥1, 2𝑥2)로 사상하는 변환  𝑇 𝕩 = 2𝕩 ⇒ 𝑇 𝑥1, 𝑥2 = (2𝑥1, 2𝑥2)  𝕩 ⟶ 2𝕩 ⇒ (𝑥1, 𝑥2) ⟶ (2𝑥1, 2𝑥2)  𝕩 = (−1,3) 이면, 𝑇 𝕩 = 2𝕩 = (−2,6)  𝑇는 𝑅3 상의 벡터 𝕩 = (𝑥1, 𝑥2, 𝑥3)를 각 성분들의 제곱인 𝑅3 상의 벡터로 보내는 변환  𝑇 𝑥1, 𝑥2, 𝑥3 = (𝑥1 2 , 𝑥2 2 , 𝑥3 2 )  𝕩 = 1,3, −4 이면, 𝑇 𝕩 = (1,9,16) 𝑇 𝑇
  • 6. 2018 FASTCAMPUS Extension SCHOOL 행렬변환 𝑅 𝑛 𝑅 𝑚 𝕩 𝑇𝐴(𝕩) 정의역 공변역 치역
  • 7. 2018 FASTCAMPUS Extension SCHOOL 행렬변환  𝐴가 𝑚 × 𝑛 행렬이고 𝕩가 𝑅 𝑛 안의 열벡터이면 곱 𝐴𝕩는 𝑅 𝑚 안의 벡터이며, 𝕩에 𝐴를 곱해 서 만드는 변환은 𝑅 𝑛안의 벡터를 𝑅 𝑚안의 벡터로 보낸다. 정의역이 𝑅 𝑛이고 치역이 𝑅 𝑚 에 서 정의된 이러한 변환 𝑇를 𝐴의 곱셈변환(multiplication by A) 또는 행렬변환(matrix transformation)이라 한다. 행렬 𝐴를 강조하기 위해 이 변환을 𝑇𝐴로 표시한다.  𝑇𝐴: 𝑅 𝑛 ⟶ 𝑅 𝑚  𝑇𝐴 𝕩 = 𝐴𝕩  𝕩 ⟶ 𝐴𝕩 𝑇𝐴
  • 8. 2018 FASTCAMPUS Extension SCHOOL 변환 예제 1  𝐴 = 1 −1 2 5 3 4 , 𝑇𝐴 는 𝑅2 상의 2 × 1 열벡터 𝕩를 𝑅3 상의 3 × 1 열벡터 𝐴𝕩로 보내는 변환  𝑇𝐴 𝕩 = 𝐴𝕩 또는 𝕩 ⟶ 𝐴𝕩 로 표시할 수 있다.  𝐴𝕩 = 1 −1 2 5 3 4 𝑥1 𝑥2 = 𝑥1 − 𝑥2 2𝑥1 + 5𝑥2 3𝑥1 + 4𝑥2 이므로, 𝑇𝐴 𝑥1 𝑥2 = 𝑥1 − 𝑥2 2𝑥1 + 5𝑥2 3𝑥1 + 4𝑥2 로 나타낼 수 있다.  𝑇𝐴 𝑥1, 𝑥2 = (𝑥1 − 𝑥2, 2𝑥1 + 5𝑥2, 3𝑥1 + 4𝑥2)  𝑇𝐴 −1 3 = −4 13 9 또는 𝑇𝐴 −1,3 = (−4,13,9) 𝑇
  • 9. 2018 FASTCAMPUS Extension SCHOOL 변환 예제 2  행렬 𝐴 = 1 −1 2 5 3 4 에 대하여 행렬변환 𝑇𝐴: 𝑅2 ⟶ 𝑅3 을 생각해보자.  만일 𝑇𝐴에 의한 상이 벡터 𝕓 = 7 0 7 𝑇 가 되는 벡터 𝕩가 𝑅2 안에 존재한다면 이 벡터를 찾아라.  만일 𝑇𝐴에 의한 상이 벡터 𝕓 = 9 −3 −1 𝑇 가 되는 벡터 𝕩가 𝑅2 안에 존재한다면 이 벡터를 찾아라.
  • 10. 2018 FASTCAMPUS Extension SCHOOL 선형변환  𝑅 𝑛 안의 모든 벡터 𝕦와 𝕧, 그리고 모든 스칼라 𝑐에 대해 아래 두가지 특성이 성립하면 함수 𝑇: 𝑅 𝑛 ⟶ 𝑅 𝑚을 𝑅 𝑛 부터 𝑅 𝑚 까지의 선형변환(linear transformation)이라고 한다.  동차성 : 𝑇 𝑐𝕦 = 𝑐𝑇(𝕦)  가산성 : 𝑇 𝕦 + 𝕧 = 𝑇 𝕦 + 𝑇(𝕧)  𝑚 = 𝑛인 특별한 경우 선형변환 𝑇를 𝑅 𝑛 상의 선형연산자(linear operator) 라고 한다.
  • 11. 2018 FASTCAMPUS Extension SCHOOL 선형변환 예제1  행렬변환은 선형변환인가?  행렬 𝐴는 𝑚 × 𝑛이고, 열벡터 𝕦, 𝕧 ∈ 𝑅 𝑛 이고, 𝑐가 스칼라일때, 행렬 연산의 성질에 의하여 다음을 만족한다.  𝐴 𝑐𝕦 = 𝑐(𝐴𝕦)  𝐴 𝕦 + 𝕧 = 𝐴𝕦 + 𝐴𝕧  따라서 선형변환의 동차성 및 가산성 모두 만족한다.  𝑇𝐴 𝑐𝕦 = 𝐴 𝑐𝕦 = 𝑐 𝐴𝕦 = 𝑐𝑇𝐴(𝕦)  𝑇𝐴 𝕦 + 𝕧 = 𝐴 𝕦 + 𝕧 = 𝐴𝕦 + 𝐴𝕧 = 𝑇𝐴 𝕦 + 𝑇𝐴(𝕧)
  • 12. 2018 FASTCAMPUS Extension SCHOOL 선형변환 예제2  𝑇 𝑥1, 𝑥2, 𝑥3 = (𝑥1 2 , 𝑥2 2 , 𝑥3 2 )  동차성 위반 : 𝑇 𝑐𝕦 = 𝑇 𝑐𝑢1, 𝑐𝑢2, 𝑐𝑢3 = 𝑐2 𝑢1 2 , 𝑐2 𝑢2 2 , 𝑐2 𝑢3 2 = 𝑐2 𝑢1 2 , 𝑢2 2 , 𝑢3 2 = 𝑐2 𝑇(𝕦)  가산성 위반  𝑇 𝕦 + 𝕧 = 𝑇 𝑢1 + 𝑣1, 𝑢2 + 𝑣2, 𝑢3 + 𝑣3 = ( 𝑢1 + 𝑣1 2 , 𝑢2 + 𝑣2 2 , 𝑢3 + 𝑣3 2 )  𝑇 𝕦 + 𝑇 𝕧 = 𝑢1 2 , 𝑢2 2 , 𝑢3 2 + 𝑣1 2 , 𝑣2 2 , 𝑣2 2 = (𝑢1 2 + 𝑣1 2 , 𝑢2 2 + 𝑣2 2 , 𝑢3 2 + 𝑣3 2 )
  • 13. 2018 FASTCAMPUS Extension SCHOOL 기저  𝑅 𝑛 의 부분공간 𝑉의 벡터들의 집합이 일차독립이고 𝑉를 생성한다면 이 집합을 𝑉에 대한 기저(basis) 라 한다.  𝑉 ∈ 𝑅 𝑛 가 원점을 지나는 직선이라면, 직선 위의 영이 아닌 벡터는 𝑉의 기저를 행성한다.  𝑉 ∈ 𝑅 𝑛 가 원점을 지나는 평면이라면, 서로 스칼라배수가 아니고 영이 아닌 평면 위의 두 개의 벡터는 𝑉의 기저를 형성한다.  표준단위벡터 𝕖1, 𝕖2, … , 𝕖 𝑛는 𝑅 𝑛 의 표준기저(standard basis)이다.  일차독립이다.  𝑅 𝑛 을 생성한다.  ∀𝕩 ∈ 𝑅 𝑛 에 대하여, 𝕩 = 𝑥1, 𝑥2, … , 𝑥 𝑛 = 𝑥1 𝕖1 + 𝑥2 𝕖2 + ⋯ + 𝑥 𝑛 𝕖 𝑛
  • 14. 2018 FASTCAMPUS Extension SCHOOL 차원  0이 아닌 부분공간, 𝑉 ∈ 𝑅 𝑛 에 대하여, 𝑉의 차원(dimension)은 𝑉의 기저에 대한 벡터의 수로 정의하 며, dim(𝑉)라고 쓴다.  𝑅 𝑛 의 원점을 통과하는 직선의 차원은 1이다.  𝑅 𝑛 의 원점을 지나는 평면의 차원은 2이다.  𝑅 𝑛 의 차원은 𝑛이다. (표준단위벡터 𝕖1, … , 𝕖 𝑛) 평면의 차원은 2라는 것은 평면의 basis의 벡터수가 2라는 것이다.
  • 15. 2018 FASTCAMPUS Extension SCHOOL 기저와 차원의 성질  𝑆 = {𝕧1, … , 𝕧 𝑘}가 𝑅 𝑛 의 부분공간 𝑉의 기저라면, ∀𝕧 ∈ 𝑉는 정확히 한 가지 방법으로 𝑆의 벡터들에 의해 일차결합으로 표현된다.  𝑅 𝑛의 영이 아닌 𝑘차원 부분공간에서 𝑘개의 일차독립벡터들의 집합은 그 부분공간의 기저이다.  𝑅 𝑛의 영이 아닌 𝑘차원 부분공간을 생성하는 𝑘개의 벡터들의 집합은 그 부분공간의 기저이다.  𝑅 𝑛의 영이 아닌 𝑘차원 부분공간에서 𝑘개보다 적은 일차독립벡터들의 집합은 그 부분공간을 생성 할 수 없다.  𝑅 𝑛 의 영이 아닌 𝑘차원 부분공간에서 𝑘개보다 많은 벡터들의 집합은 일차 종속이다.
  • 16. 2018 FASTCAMPUS Extension SCHOOL 행렬의 기본공간  𝐴가 𝑚 × 𝑛행렬일 때,  𝐴의 행공간(row space) : 𝐴의 행벡터들에 의해 생성되는 𝑅 𝑛 의 부분공간, row(𝐴)  𝐴의 열공간(column space) : 𝐴의 열벡터들에 의해 생성되는 𝑅 𝑚 의 부분공간, col(𝐴)  𝐴의 영공간(null space) : 𝐴𝕩 = 𝕆의 해공간인 𝑅 𝑛 의 부분공간, null(𝐴) 1 2 3 4 5 6 7 8 9 1 2 3 4 5 6 7 8 9 행렬의 행벡터들 행렬의 열벡터들
  • 17. 2018 FASTCAMPUS Extension SCHOOL 계수  행렬 𝐴의 행공간의 차원(dimension)은 𝐴의 계수(rank)라 하고 rank(𝐴)로 표시  행렬의 행공간 basis의 벡터의 갯수  행렬 𝐴의 영공간(null space)의 차원은 영공간의 차원(nullity)이라 하고 nullity(A) 로 표시
  • 18. 2018 FASTCAMPUS Extension SCHOOL 행공간 및 계수의 예제  다음 벡터들에 의해 성성된 𝑅5의 부분공간 𝑊에 대한 기저를 구하라. 𝕧1 = 1,0,0,0,2 𝕧2 = −2,1, −3, −2, −4 𝕧3 = (0,5, −14, −9,0) 𝕧4 = (2,10, −28, −18,4)  주어진 벡터들에 의해 생성된 부분공간은 그 행렬 𝐴의 행공간이다. 𝐴 = 1 0 0 −2 1 −3 0 2 −2 −4 0 5 −14 2 10 −28 −9 0 −18 4
  • 19. 2018 FASTCAMPUS Extension SCHOOL 행공간 및 계수의 예제  이 행렬을 행사다리꼴로 변형시킴으로써 다음 행렬을 얻는다. 𝑈 = 1 0 0 0 2 0 1 −3 −2 0 0 0 1 1 0 0 0 0 0 0  0이 아닌 행을 추출하면 기저벡터들을 생성한다. 𝕨1 = (1,0,0,2) 𝕨2 = 0,1, −3, −2,0 𝕨3 = (0,0,1,1,0)  따라서, 주어진 벡터들에 의해 생성되는 공간의 기저는 3이고, 주어진 벡터에 의해 생성되는 부분공간은 그 행렬 𝐴의 행공간이므로, 행공간의 차원 즉, rank는 3이다.  주어진 벡터 4개로 생성되는 부분공간 𝑊를 생성하기 위해서는 결국 주어진 벡터 4개까지 필 요없고, 3개의 벡터(기저)만 있으면 된다. 즉 벡터의 갯수로 보면 1개가 필요없는 것이 된다. 𝑊 를 나타내가 위해서는 계수만큼의 벡터만 있으면 된다.

Notas do Editor

  1. python code