SlideShare uma empresa Scribd logo
1 de 38
11장 실천 방법론
이정현 류성한
지금까지 우리는 다양한 알고리즘을 배웠다. (왜 기억이 안날까요..?)
이번 Chapter는 실전이다!
어떻게 하면 나의 모델을 개선 할 수 있는가?
저자가 추천하는 딥러닝 설계 과정
* 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가?
* End-to-end pipeline을 최대한 일찍 확립한다.
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
저자가 추천하는 딥러닝 설계 과정
* 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가?
* End-to-end pipeline을 최대한 일찍 확립한다.
End-to-end pipeline :
Ex) 음성 인식
(오디오 클립을 입력 X로 가져온다)
X y
(오디오 클립이 글로 옮겨진다)
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
저자가 추천하는 딥러닝 설계 과정
* 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가?
* End-to-end pipeline을 최대한 일찍 확립한다.
End-to-end pipeline :
Ex) 음성 인식
X yFeature를 만든다. 음소를 만든다. 단어
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
저자가 추천하는 딥러닝 설계 과정
* 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가?
* End-to-end pipeline을 최대한 일찍 확립한다.
그런데 찾아보니 End-to-end deep learning라는 것도 있더라.
Ex) 음성 인식
(오디오 클립을 입력 X로 가져온다)
X y
(오디오 클립이 글로 옮겨진다)
기존에 있던 중간 단계를 생략하고 x와 y만을 이용해 학습 시킨다. (파이프 라인을 생략한다)
but : 데이터 양이 충분해야 한다. (매우 효과적이지만 만병통치약은 아니다)
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
End to end pipeline 추가 예시
Ex) 회사 출입문 얼굴 인식 시스템 만들기
사람이 들어오면 이미지 인식으로 바로 누구인지 신원 확인을 하게 만들 수 도 있기는 하다.
(end to end deep learning)
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
End to end pipeline 추가 예시
Ex) 회사 출입문 얼굴 인식 시스템 만들기
1. '사람’이 들어왔는지 유무만을 파악하는 모델 => 이미지를 자르고
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
End to end pipeline 추가 예시
Ex) 회사 출입문 얼굴 인식 시스템 만들기
2. 그 사람이 '누구’인지 파악하는 모델
(파이프 라인 구축)
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
End to end pipeline 추가 예시
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
End to end pipeline 추가 예시
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
저자가 추천하는 딥러닝 설계 과정
* 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가?
* End-to-end pipeline을 최대한 일찍 확립한다.
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
저자가 추천하는 딥러닝 설계 과정
1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론ㅊ
• 목표를(목표 오차) 결정한다(어느어떠한 오차 측정법을 사용할 것인가?
• End-to-end pipeline을 최대한 일찍 확립한다.
• 목표를 이루기 위해 데이터를 더 수집하거나, 매개변수들을 조정하거나,
알고리즘을 바꾸는 등의 점진적인 변화를 반복해서 시스템에 가한다.(우리가 많이 해본 거죠?)
1-1 성과 측정
적절한 수준의 목표를 어떻게 결정하는가?
- 학술 연구 : 달성 가능한 오류율을 이전에 발표된 벤치마크 결과들에 기초해서 추정한다.
- 실제 응용 : 소비자들에게 어필할 만한 오류율을 추정한다.
어떻게 보면 당연한 소리..책읽듯이 11장은 한 번 쭉 읽는 걸 추천합니다.
적절한 목표 성과 수준을 어떻게 측정하는가?
- 우리가 정말 많이 했던 confusion matrix, roc curve 이야기를 책도 동일하게 합니다.
Recall = sensitivity
P라고 검출한 사건 중 실제로도 P인 사건
항상 positive라고 검출하는 분류기의 recall은 100%이다.
But Precision은 형편 없을 것이다. 둘 모두 중요하다.
1. 어떻게 하면 나의 모델을 개선 할 수 있는가
1. 어떻게 하면 나의 모델을 개선 할 수 있는가
Recall과 precision의 조화 평균
1-2 추가 자료 수집 여부 결정
기계 학습 초보자 중에는 서로 다른 여러 알고리즘을 시도함으로써 시스템을 개선하려는 사람이 많다.
그러나 학습 알고리즘을 개선하기보다는 자료를 더 수집할 때 더 나은 성과를 얻을 때가 많다.
그렇다면 ‘아!!! 이건 자료를 더 수집 해야해!’ 라고 결정을 내리는 과정은 어떠할까?
1-2 추가 자료 수집 여부 결정
Train data 성과가 나쁘다
자료 수집 X
층을 더 추가하는 등 parameter 튜닝
그래도 성과가 안 나온다
데이터 품질의 문제일 수 있다.
노이즈가 너무 많거나 등, 다시 자료
수집을 한다.
1-2 추가 자료 수집 여부 결정
Train data 성과는 괜찮은데
Test data는 잘 안된다.
자료를 더 수집하는 것이 아주 효과적일 수 있다.
이때 핵심 고려사항
1. 추가 자료 수집의 실현 가능성과 비용
2. 다른 수단으로 Test data error를 줄일 가능성
과 비용
3. 추가로 필요한 데이터는 얼마나
실무적인 이야기 우리에게는 해당 사항이 글쎄…
1-2 추가 자료 수집 여부 결정
얼마나 자료 수집을 더 해야하냐?
Training data의 크기와 오차를 그래프로 그리면 대략적으로 알 수 있다.
1-3 hyperparameter 선택
당연한 이야기지만 초매개변수를 튜닝하는 목적은
underfitting과 overfitting 그 사이의 줄다리기에서 핫스팟을 찾는 것
몇 가지 방법들에 대해 알아보자
1-3 hyperparameter 선택
Grid search(격자 검색)
- 초매개변수 값의 집합들이 존재할 때 이 집합들로 만들 수 있는 모든 집합에 대해 모형을 훈련하는 것
- 그러면 이 값들의 집합은 어떻게 결정해야 할까?
- 보통 로그 축적(logarithmic scale)에 따라 근사적으로 고르는 것이 무난하다고 한다.
Ex) 학습 속도 {0.1, 0.01, 0.001, 0.0001} hidden unit 수 {50, 100, 200, 500, 1000, 2000}.
1-3 hyperparameter 선택
Grid search(격자 검색)
Ex) 학습 속도 {0.1, 0.01, 0.001, 0.0001} hidden unit 수 {50, 100, 200, 500, 1000, 2000}.
당연하면서 강력한 단점 : 계산 비용이 초매개변수 개수에 지수적으로 증가한다.
초매개변수가 m개 있고, 각 초매개변수가 가질 수 있는 값이 n가지
시행 횟수 => 𝑛 𝑚
- 초매개변수 값의 집합들이 존재할 때 이 집합들로 만들 수 있는 모든 집합에 대해 모형을 훈련하는 것
- 그러면 이 값들의 집합은 어떻게 결정해야 할까?
- 보통 로그 축적(logarithmic scale)에 따라 근사적으로 고르는 것이 무난하다고 한다.
1-3 hyperparameter 선택
random search(무작위 검색)
- 각 hyperparameter 대해 하나의 분포를 정의 한다.
- 분포에 특정 구간을 정하고 구간 내에 랜덤으로 표본을 추출한 값을 hyperparameter로 사용한다.
- 이 때 랜덤으로 뽑힌 hyperparameter의 값을 이산화하지 않아야 한다.
Ex) 베르누이 분포로 정의하고, 3~10사이의 구간을 정했는데 3.3이 나와도 그냥 그 값을 쓴다.
따로 정수화 같은 작업을 하지 않는다.
Why? 더 큰 범위를 탐색하기 위해서 + 추가적인 계산 비용을 피하기 위해서
- 랜덤으로 뽑기 때문에 grid 처럼 불필요한 실험적 실행에 의한 낭비가 적다.
1-3 hyperparameter 선택
grid search vs random search
- 당연히 random search가 계산량은 grid보다 든다.
- 튜닝 해야할 초매개변수가 적다면 Random search가 보편적으로 grid search보다 더 좋은 성능을 낸다.
(튜닝 해야할 변수가 많으면 당연히 둘다 최적을 찾기는 힘들겠지요)
- 데이터의 양이 클 때도 grid search 보다 random search가 더 좋을 듯 (네이버에서 경험..)
기계 학습 시스템은 디버깅이 어려움
Why?
1. 모델의 성과가 나쁠 때, 그것이 알고리즘 자체의 결함 때문인지 아니면
알고리즘의 구현에 버그가 있는 건지 파악하기가 어려움
2. 기계 학습의 핵심은 사용자(사람)이 미리 지정할 수 없는 어떤 유용한 행동을
알고리즘이 스스로 발견하는 경우가 많기 때문에 (왜 성능이 이렇게 나오는지 명확하게 말하기 어려움)
1-3 디버깅 전략과 검사 방법
그럼에도 불구하고 디버깅 전략과 검사 방법 몇 가지가 있다!
1-3 디버깅 전략과 검사 방법
1. 모델의 작동을 중간 중간 시각화한다.
너무 당연한 이야기지만 실무에서는 정확도와 같은 성과 측도 수치만을 살펴보고
다른 정보를 간과하는 경우가 있다. 모델이 과제를 수행하는 모습을 직접 관찰해 보면
수치적인 성과 측도들이 실제로 의미가 있는지 파악할 수 있다.
1-3 디버깅 전략과 검사 방법
2. 작은 데이터 셋에 모델을 적용시켜 본다.
Train data에 오차가 높다.
1. 그냥 Underfitting 인가?
2. 소프트웨어 결함인가?
아주 작은 크기의 데이터셋으로 분류 모델을 돌려본다.(sample 1개)
그랬는데도 부안된다면 소프트웨어(?) 문제이다.
어느 정도 딥러닝을 코드로 돌릴 수 있는 능력이 있을 때
이 챕터가 도움이 되리라 생각이 들었습니다.
그래서 한 번 코드를 돌려봤습니다
11장 교재에서 보여주고 있는 예시에서는
거리뷰의 번지수 이미지를 문자로 바꾸는 것이다
379
하지만 좀 오래 걸릴 것 같아
좀 더 간단하게 MNIST 데이터 셋을 이용하여
교재와 최대한(?) 비슷한 접근 방법으로 간다
Keras(케라스 소개)
여러 딥러닝 라이브러리 중에 무엇을 쓸 것인가?
90% 정도의 연구나 적용은 모두 케라스로도 가능하다고 하신다
텐서플로우 케라스 설치하기
1. 파이썬 버전 확인 (3.6x 이하 버전만 가능/64bit에서만 가능), 아나콘다와 함께라면
편하다
2. GPU를 사용하기 위해서는 CUDA, cuDNN설치 (CUDA 9.x 이하 버전만 가능)
3. 참고 http://solarisailab.com/archives/1581 , <케라스 창시자에게 배우는 딥러닝>
인터넷, 관련 책에 설치 방법 소개가 많기 때문에 어렵지 않지만, 설치하기 전에 기존의
파이썬 버전, CUDA의 버전을 확인해야 한다. 최근 버전(파이썬 3.7x , CUDA 10.x)는 텐서플로우에서
아직 지원을 하지 않아서 설치 시 에러가 난다.
Keras 에서 MNIST 데이터 불러오기
mnist 데이터 간단하게 불러옴
(samples, height, width) 출력
Train_images에서 5번쨰 이미지
이미지로 나타내기
CNN을 이용한 학습
Output 깊이가 32,
filter는 3x3 사용
원하는 레이어를 순서대로 쌓아 주면 됨
CNN을 이용한 학습
1
28
28
32
26
26
13
13
32
64
11
11
5
64
5
64
3
3
576
64
10
MaxPo conv2D MaxPo conv2Dconv2D Flatten
벡터로 쭉 펴주는 작업
0~255 값을 0~1로 스케일링
명확히 이해는 못했지만 여튼 8장 최적화에서 소개된 알고리즘..
Epochs : 학습 반복 획수
Batch size : 몇 개의 샘플로 가중치를 갱신할 것인지 지정
만약 accuracy 가 아닌 F1-score를 구하고 싶다면
다음과 같이 모델 예측을 통해서 직접 구하면된다. (Keras에서 업데이트를 하면서 f1-score에 대한
metrics를 없앴다고 한다.)

Mais conteúdo relacionado

Mais procurados

5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝Haesun Park
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3Haesun Park
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)Haesun Park
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvementHaesun Park
 
데이터분석의 길 4: “고수는 통계학습의 달인이다”
데이터분석의 길 4:  “고수는 통계학습의 달인이다”데이터분석의 길 4:  “고수는 통계학습의 달인이다”
데이터분석의 길 4: “고수는 통계학습의 달인이다”Jaimie Kwon (권재명)
 
13.앙상블학습
13.앙상블학습13.앙상블학습
13.앙상블학습Minchul Jung
 
인공지능 맛보기
인공지능 맛보기인공지능 맛보기
인공지능 맛보기Park JoongSoo
 
Time series classification
Time series classificationTime series classification
Time series classificationSung Kim
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forestHaesun Park
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learningHaesun Park
 
Find a genre* of EDM track with Deep neural network & TF/Keras.
 Find a genre* of EDM track with Deep neural network & TF/Keras. Find a genre* of EDM track with Deep neural network & TF/Keras.
Find a genre* of EDM track with Deep neural network & TF/Keras.Juneseok Byun
 
04. binary search
04. binary search04. binary search
04. binary search승혁 조
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)Jaimie Kwon (권재명)
 
Create a solution including deep learning models
Create a solution including deep learning modelsCreate a solution including deep learning models
Create a solution including deep learning modelsTae Young Lee
 
Infra as a model service
Infra as a model serviceInfra as a model service
Infra as a model serviceTae Young Lee
 
Transfer learning usage
Transfer learning usageTransfer learning usage
Transfer learning usageTae Young Lee
 
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석Heekyung Yoon
 

Mais procurados (20)

5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
 
1.introduction
1.introduction1.introduction
1.introduction
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvement
 
데이터분석의 길 4: “고수는 통계학습의 달인이다”
데이터분석의 길 4:  “고수는 통계학습의 달인이다”데이터분석의 길 4:  “고수는 통계학습의 달인이다”
데이터분석의 길 4: “고수는 통계학습의 달인이다”
 
13.앙상블학습
13.앙상블학습13.앙상블학습
13.앙상블학습
 
인공지능 맛보기
인공지능 맛보기인공지능 맛보기
인공지능 맛보기
 
Time series classification
Time series classificationTime series classification
Time series classification
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learning
 
Find a genre* of EDM track with Deep neural network & TF/Keras.
 Find a genre* of EDM track with Deep neural network & TF/Keras. Find a genre* of EDM track with Deep neural network & TF/Keras.
Find a genre* of EDM track with Deep neural network & TF/Keras.
 
04. binary search
04. binary search04. binary search
04. binary search
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
 
Create a solution including deep learning models
Create a solution including deep learning modelsCreate a solution including deep learning models
Create a solution including deep learning models
 
Infra as a model service
Infra as a model serviceInfra as a model service
Infra as a model service
 
Transfer learning usage
Transfer learning usageTransfer learning usage
Transfer learning usage
 
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석파이썬 라이브러리로 쉽게 시작하는 데이터 분석
파이썬 라이브러리로 쉽게 시작하는 데이터 분석
 

Semelhante a Chapter 11 Practical Methodology

Deep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsDeep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsseungwoo kim
 
딥러닝 세계에 입문하기 위반 분투
딥러닝 세계에 입문하기 위반 분투딥러닝 세계에 입문하기 위반 분투
딥러닝 세계에 입문하기 위반 분투Ubuntu Korea Community
 
한눈에 보는 머신러닝
한눈에 보는 머신러닝한눈에 보는 머신러닝
한눈에 보는 머신러닝주경 이
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터JEEHYUN PAIK
 
Howto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHowto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHyo jeong Lee
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)Haezoom Inc.
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4thSubin An
 
2021-11-16 모두콘 딥러닝 경량화 발표
2021-11-16 모두콘 딥러닝 경량화 발표2021-11-16 모두콘 딥러닝 경량화 발표
2021-11-16 모두콘 딥러닝 경량화 발표JongkukLim
 
Guided policy search
Guided policy searchGuided policy search
Guided policy searchJaehyeon Park
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindDataya Nolja
 
개발자가 이해하는 분석
개발자가 이해하는 분석개발자가 이해하는 분석
개발자가 이해하는 분석동철 박
 
검색엔진에 적용된 ChatGPT
검색엔진에 적용된 ChatGPT검색엔진에 적용된 ChatGPT
검색엔진에 적용된 ChatGPTTae Young Lee
 
실무에서 활용하는 A/B테스트
실무에서 활용하는 A/B테스트실무에서 활용하는 A/B테스트
실무에서 활용하는 A/B테스트JeongMin Kwon
 
데이터를 얻으려는 노오오력
데이터를 얻으려는 노오오력데이터를 얻으려는 노오오력
데이터를 얻으려는 노오오력Youngjae Kim
 
Chapter 17 monte carlo methods
Chapter 17 monte carlo methodsChapter 17 monte carlo methods
Chapter 17 monte carlo methodsKyeongUkJang
 
Loss function discovery for object detection via convergence simulation drive...
Loss function discovery for object detection via convergence simulation drive...Loss function discovery for object detection via convergence simulation drive...
Loss function discovery for object detection via convergence simulation drive...taeseon ryu
 
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작DACON AI 데이콘
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)SANG WON PARK
 

Semelhante a Chapter 11 Practical Methodology (20)

Deep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsDeep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendations
 
딥러닝 세계에 입문하기 위반 분투
딥러닝 세계에 입문하기 위반 분투딥러닝 세계에 입문하기 위반 분투
딥러닝 세계에 입문하기 위반 분투
 
한눈에 보는 머신러닝
한눈에 보는 머신러닝한눈에 보는 머신러닝
한눈에 보는 머신러닝
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터
 
Howto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear RegressionHowto_Tensorflow+Linear Regression
Howto_Tensorflow+Linear Regression
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4th
 
2021-11-16 모두콘 딥러닝 경량화 발표
2021-11-16 모두콘 딥러닝 경량화 발표2021-11-16 모두콘 딥러닝 경량화 발표
2021-11-16 모두콘 딥러닝 경량화 발표
 
PaLM Paper Review
PaLM Paper ReviewPaLM Paper Review
PaLM Paper Review
 
Guided policy search
Guided policy searchGuided policy search
Guided policy search
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in Mind
 
개발자가 이해하는 분석
개발자가 이해하는 분석개발자가 이해하는 분석
개발자가 이해하는 분석
 
검색엔진에 적용된 ChatGPT
검색엔진에 적용된 ChatGPT검색엔진에 적용된 ChatGPT
검색엔진에 적용된 ChatGPT
 
실무에서 활용하는 A/B테스트
실무에서 활용하는 A/B테스트실무에서 활용하는 A/B테스트
실무에서 활용하는 A/B테스트
 
데이터를 얻으려는 노오오력
데이터를 얻으려는 노오오력데이터를 얻으려는 노오오력
데이터를 얻으려는 노오오력
 
Chapter 17 monte carlo methods
Chapter 17 monte carlo methodsChapter 17 monte carlo methods
Chapter 17 monte carlo methods
 
Loss function discovery for object detection via convergence simulation drive...
Loss function discovery for object detection via convergence simulation drive...Loss function discovery for object detection via convergence simulation drive...
Loss function discovery for object detection via convergence simulation drive...
 
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작
위성관측 데이터 활용 강수량 산출 AI 경진대회 1위 수상작
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)
 

Mais de KyeongUkJang

Photo wake up - 3d character animation from a single photo
Photo wake up - 3d character animation from a single photoPhoto wake up - 3d character animation from a single photo
Photo wake up - 3d character animation from a single photoKyeongUkJang
 
GAN - Generative Adversarial Nets
GAN - Generative Adversarial NetsGAN - Generative Adversarial Nets
GAN - Generative Adversarial NetsKyeongUkJang
 
Distilling the knowledge in a neural network
Distilling the knowledge in a neural networkDistilling the knowledge in a neural network
Distilling the knowledge in a neural networkKyeongUkJang
 
Latent Dirichlet Allocation
Latent Dirichlet AllocationLatent Dirichlet Allocation
Latent Dirichlet AllocationKyeongUkJang
 
Gaussian Mixture Model
Gaussian Mixture ModelGaussian Mixture Model
Gaussian Mixture ModelKyeongUkJang
 
CNN for sentence classification
CNN for sentence classificationCNN for sentence classification
CNN for sentence classificationKyeongUkJang
 
Visualizing data using t-SNE
Visualizing data using t-SNEVisualizing data using t-SNE
Visualizing data using t-SNEKyeongUkJang
 
Playing atari with deep reinforcement learning
Playing atari with deep reinforcement learningPlaying atari with deep reinforcement learning
Playing atari with deep reinforcement learningKyeongUkJang
 
Chapter 20 Deep generative models
Chapter 20 Deep generative modelsChapter 20 Deep generative models
Chapter 20 Deep generative modelsKyeongUkJang
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational InferenceKyeongUkJang
 
Natural Language Processing(NLP) - basic 2
Natural Language Processing(NLP) - basic 2Natural Language Processing(NLP) - basic 2
Natural Language Processing(NLP) - basic 2KyeongUkJang
 
Natural Language Processing(NLP) - Basic
Natural Language Processing(NLP) - BasicNatural Language Processing(NLP) - Basic
Natural Language Processing(NLP) - BasicKyeongUkJang
 
Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2KyeongUkJang
 
Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1KyeongUkJang
 
Chapter 15 Representation learning - 2
Chapter 15 Representation learning - 2Chapter 15 Representation learning - 2
Chapter 15 Representation learning - 2KyeongUkJang
 

Mais de KyeongUkJang (20)

Photo wake up - 3d character animation from a single photo
Photo wake up - 3d character animation from a single photoPhoto wake up - 3d character animation from a single photo
Photo wake up - 3d character animation from a single photo
 
YOLO
YOLOYOLO
YOLO
 
AlphagoZero
AlphagoZeroAlphagoZero
AlphagoZero
 
GoogLenet
GoogLenetGoogLenet
GoogLenet
 
GAN - Generative Adversarial Nets
GAN - Generative Adversarial NetsGAN - Generative Adversarial Nets
GAN - Generative Adversarial Nets
 
Distilling the knowledge in a neural network
Distilling the knowledge in a neural networkDistilling the knowledge in a neural network
Distilling the knowledge in a neural network
 
Latent Dirichlet Allocation
Latent Dirichlet AllocationLatent Dirichlet Allocation
Latent Dirichlet Allocation
 
Gaussian Mixture Model
Gaussian Mixture ModelGaussian Mixture Model
Gaussian Mixture Model
 
CNN for sentence classification
CNN for sentence classificationCNN for sentence classification
CNN for sentence classification
 
Visualizing data using t-SNE
Visualizing data using t-SNEVisualizing data using t-SNE
Visualizing data using t-SNE
 
Playing atari with deep reinforcement learning
Playing atari with deep reinforcement learningPlaying atari with deep reinforcement learning
Playing atari with deep reinforcement learning
 
Chapter 20 - GAN
Chapter 20 - GANChapter 20 - GAN
Chapter 20 - GAN
 
Chapter 20 - VAE
Chapter 20 - VAEChapter 20 - VAE
Chapter 20 - VAE
 
Chapter 20 Deep generative models
Chapter 20 Deep generative modelsChapter 20 Deep generative models
Chapter 20 Deep generative models
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational Inference
 
Natural Language Processing(NLP) - basic 2
Natural Language Processing(NLP) - basic 2Natural Language Processing(NLP) - basic 2
Natural Language Processing(NLP) - basic 2
 
Natural Language Processing(NLP) - Basic
Natural Language Processing(NLP) - BasicNatural Language Processing(NLP) - Basic
Natural Language Processing(NLP) - Basic
 
Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2Chapter 16 structured probabilistic models for deep learning - 2
Chapter 16 structured probabilistic models for deep learning - 2
 
Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1
 
Chapter 15 Representation learning - 2
Chapter 15 Representation learning - 2Chapter 15 Representation learning - 2
Chapter 15 Representation learning - 2
 

Último

MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionKim Daeun
 
캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스
 
A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)Tae Young Lee
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Kim Daeun
 
Console API (Kitworks Team Study 백혜인 발표자료)
Console API (Kitworks Team Study 백혜인 발표자료)Console API (Kitworks Team Study 백혜인 발표자료)
Console API (Kitworks Team Study 백혜인 발표자료)Wonjun Hwang
 
Merge (Kitworks Team Study 이성수 발표자료 240426)
Merge (Kitworks Team Study 이성수 발표자료 240426)Merge (Kitworks Team Study 이성수 발표자료 240426)
Merge (Kitworks Team Study 이성수 발표자료 240426)Wonjun Hwang
 

Último (6)

MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
 
캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차
 
A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
 
Console API (Kitworks Team Study 백혜인 발표자료)
Console API (Kitworks Team Study 백혜인 발표자료)Console API (Kitworks Team Study 백혜인 발표자료)
Console API (Kitworks Team Study 백혜인 발표자료)
 
Merge (Kitworks Team Study 이성수 발표자료 240426)
Merge (Kitworks Team Study 이성수 발표자료 240426)Merge (Kitworks Team Study 이성수 발표자료 240426)
Merge (Kitworks Team Study 이성수 발표자료 240426)
 

Chapter 11 Practical Methodology

  • 2. 지금까지 우리는 다양한 알고리즘을 배웠다. (왜 기억이 안날까요..?) 이번 Chapter는 실전이다! 어떻게 하면 나의 모델을 개선 할 수 있는가?
  • 3. 저자가 추천하는 딥러닝 설계 과정 * 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가? * End-to-end pipeline을 최대한 일찍 확립한다. 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 4. 저자가 추천하는 딥러닝 설계 과정 * 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가? * End-to-end pipeline을 최대한 일찍 확립한다. End-to-end pipeline : Ex) 음성 인식 (오디오 클립을 입력 X로 가져온다) X y (오디오 클립이 글로 옮겨진다) 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 5. 저자가 추천하는 딥러닝 설계 과정 * 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가? * End-to-end pipeline을 최대한 일찍 확립한다. End-to-end pipeline : Ex) 음성 인식 X yFeature를 만든다. 음소를 만든다. 단어 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 6. 저자가 추천하는 딥러닝 설계 과정 * 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가? * End-to-end pipeline을 최대한 일찍 확립한다. 그런데 찾아보니 End-to-end deep learning라는 것도 있더라. Ex) 음성 인식 (오디오 클립을 입력 X로 가져온다) X y (오디오 클립이 글로 옮겨진다) 기존에 있던 중간 단계를 생략하고 x와 y만을 이용해 학습 시킨다. (파이프 라인을 생략한다) but : 데이터 양이 충분해야 한다. (매우 효과적이지만 만병통치약은 아니다) 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 7. End to end pipeline 추가 예시 Ex) 회사 출입문 얼굴 인식 시스템 만들기 사람이 들어오면 이미지 인식으로 바로 누구인지 신원 확인을 하게 만들 수 도 있기는 하다. (end to end deep learning) 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 8. End to end pipeline 추가 예시 Ex) 회사 출입문 얼굴 인식 시스템 만들기 1. '사람’이 들어왔는지 유무만을 파악하는 모델 => 이미지를 자르고 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 9. End to end pipeline 추가 예시 Ex) 회사 출입문 얼굴 인식 시스템 만들기 2. 그 사람이 '누구’인지 파악하는 모델 (파이프 라인 구축) 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 10. End to end pipeline 추가 예시 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 11. End to end pipeline 추가 예시 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 12. 저자가 추천하는 딥러닝 설계 과정 * 목표를(목표 오차) 결정한다 : 어떠한 오차 측정법을 사용할 것인가? * End-to-end pipeline을 최대한 일찍 확립한다. 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론
  • 13. 저자가 추천하는 딥러닝 설계 과정 1. 어떻게 하면 나의 모델을 개선 할 수 있는지를 이론ㅊ • 목표를(목표 오차) 결정한다(어느어떠한 오차 측정법을 사용할 것인가? • End-to-end pipeline을 최대한 일찍 확립한다. • 목표를 이루기 위해 데이터를 더 수집하거나, 매개변수들을 조정하거나, 알고리즘을 바꾸는 등의 점진적인 변화를 반복해서 시스템에 가한다.(우리가 많이 해본 거죠?)
  • 14. 1-1 성과 측정 적절한 수준의 목표를 어떻게 결정하는가? - 학술 연구 : 달성 가능한 오류율을 이전에 발표된 벤치마크 결과들에 기초해서 추정한다. - 실제 응용 : 소비자들에게 어필할 만한 오류율을 추정한다. 어떻게 보면 당연한 소리..책읽듯이 11장은 한 번 쭉 읽는 걸 추천합니다. 적절한 목표 성과 수준을 어떻게 측정하는가? - 우리가 정말 많이 했던 confusion matrix, roc curve 이야기를 책도 동일하게 합니다.
  • 15. Recall = sensitivity P라고 검출한 사건 중 실제로도 P인 사건 항상 positive라고 검출하는 분류기의 recall은 100%이다. But Precision은 형편 없을 것이다. 둘 모두 중요하다. 1. 어떻게 하면 나의 모델을 개선 할 수 있는가
  • 16. 1. 어떻게 하면 나의 모델을 개선 할 수 있는가 Recall과 precision의 조화 평균
  • 17. 1-2 추가 자료 수집 여부 결정 기계 학습 초보자 중에는 서로 다른 여러 알고리즘을 시도함으로써 시스템을 개선하려는 사람이 많다. 그러나 학습 알고리즘을 개선하기보다는 자료를 더 수집할 때 더 나은 성과를 얻을 때가 많다. 그렇다면 ‘아!!! 이건 자료를 더 수집 해야해!’ 라고 결정을 내리는 과정은 어떠할까?
  • 18. 1-2 추가 자료 수집 여부 결정 Train data 성과가 나쁘다 자료 수집 X 층을 더 추가하는 등 parameter 튜닝 그래도 성과가 안 나온다 데이터 품질의 문제일 수 있다. 노이즈가 너무 많거나 등, 다시 자료 수집을 한다.
  • 19. 1-2 추가 자료 수집 여부 결정 Train data 성과는 괜찮은데 Test data는 잘 안된다. 자료를 더 수집하는 것이 아주 효과적일 수 있다. 이때 핵심 고려사항 1. 추가 자료 수집의 실현 가능성과 비용 2. 다른 수단으로 Test data error를 줄일 가능성 과 비용 3. 추가로 필요한 데이터는 얼마나 실무적인 이야기 우리에게는 해당 사항이 글쎄…
  • 20. 1-2 추가 자료 수집 여부 결정 얼마나 자료 수집을 더 해야하냐? Training data의 크기와 오차를 그래프로 그리면 대략적으로 알 수 있다.
  • 21. 1-3 hyperparameter 선택 당연한 이야기지만 초매개변수를 튜닝하는 목적은 underfitting과 overfitting 그 사이의 줄다리기에서 핫스팟을 찾는 것 몇 가지 방법들에 대해 알아보자
  • 22. 1-3 hyperparameter 선택 Grid search(격자 검색) - 초매개변수 값의 집합들이 존재할 때 이 집합들로 만들 수 있는 모든 집합에 대해 모형을 훈련하는 것 - 그러면 이 값들의 집합은 어떻게 결정해야 할까? - 보통 로그 축적(logarithmic scale)에 따라 근사적으로 고르는 것이 무난하다고 한다. Ex) 학습 속도 {0.1, 0.01, 0.001, 0.0001} hidden unit 수 {50, 100, 200, 500, 1000, 2000}.
  • 23. 1-3 hyperparameter 선택 Grid search(격자 검색) Ex) 학습 속도 {0.1, 0.01, 0.001, 0.0001} hidden unit 수 {50, 100, 200, 500, 1000, 2000}. 당연하면서 강력한 단점 : 계산 비용이 초매개변수 개수에 지수적으로 증가한다. 초매개변수가 m개 있고, 각 초매개변수가 가질 수 있는 값이 n가지 시행 횟수 => 𝑛 𝑚 - 초매개변수 값의 집합들이 존재할 때 이 집합들로 만들 수 있는 모든 집합에 대해 모형을 훈련하는 것 - 그러면 이 값들의 집합은 어떻게 결정해야 할까? - 보통 로그 축적(logarithmic scale)에 따라 근사적으로 고르는 것이 무난하다고 한다.
  • 24. 1-3 hyperparameter 선택 random search(무작위 검색) - 각 hyperparameter 대해 하나의 분포를 정의 한다. - 분포에 특정 구간을 정하고 구간 내에 랜덤으로 표본을 추출한 값을 hyperparameter로 사용한다. - 이 때 랜덤으로 뽑힌 hyperparameter의 값을 이산화하지 않아야 한다. Ex) 베르누이 분포로 정의하고, 3~10사이의 구간을 정했는데 3.3이 나와도 그냥 그 값을 쓴다. 따로 정수화 같은 작업을 하지 않는다. Why? 더 큰 범위를 탐색하기 위해서 + 추가적인 계산 비용을 피하기 위해서 - 랜덤으로 뽑기 때문에 grid 처럼 불필요한 실험적 실행에 의한 낭비가 적다.
  • 25. 1-3 hyperparameter 선택 grid search vs random search - 당연히 random search가 계산량은 grid보다 든다. - 튜닝 해야할 초매개변수가 적다면 Random search가 보편적으로 grid search보다 더 좋은 성능을 낸다. (튜닝 해야할 변수가 많으면 당연히 둘다 최적을 찾기는 힘들겠지요) - 데이터의 양이 클 때도 grid search 보다 random search가 더 좋을 듯 (네이버에서 경험..)
  • 26. 기계 학습 시스템은 디버깅이 어려움 Why? 1. 모델의 성과가 나쁠 때, 그것이 알고리즘 자체의 결함 때문인지 아니면 알고리즘의 구현에 버그가 있는 건지 파악하기가 어려움 2. 기계 학습의 핵심은 사용자(사람)이 미리 지정할 수 없는 어떤 유용한 행동을 알고리즘이 스스로 발견하는 경우가 많기 때문에 (왜 성능이 이렇게 나오는지 명확하게 말하기 어려움) 1-3 디버깅 전략과 검사 방법 그럼에도 불구하고 디버깅 전략과 검사 방법 몇 가지가 있다!
  • 27. 1-3 디버깅 전략과 검사 방법 1. 모델의 작동을 중간 중간 시각화한다. 너무 당연한 이야기지만 실무에서는 정확도와 같은 성과 측도 수치만을 살펴보고 다른 정보를 간과하는 경우가 있다. 모델이 과제를 수행하는 모습을 직접 관찰해 보면 수치적인 성과 측도들이 실제로 의미가 있는지 파악할 수 있다.
  • 28. 1-3 디버깅 전략과 검사 방법 2. 작은 데이터 셋에 모델을 적용시켜 본다. Train data에 오차가 높다. 1. 그냥 Underfitting 인가? 2. 소프트웨어 결함인가? 아주 작은 크기의 데이터셋으로 분류 모델을 돌려본다.(sample 1개) 그랬는데도 부안된다면 소프트웨어(?) 문제이다.
  • 29. 어느 정도 딥러닝을 코드로 돌릴 수 있는 능력이 있을 때 이 챕터가 도움이 되리라 생각이 들었습니다. 그래서 한 번 코드를 돌려봤습니다
  • 30. 11장 교재에서 보여주고 있는 예시에서는 거리뷰의 번지수 이미지를 문자로 바꾸는 것이다 379
  • 31. 하지만 좀 오래 걸릴 것 같아 좀 더 간단하게 MNIST 데이터 셋을 이용하여 교재와 최대한(?) 비슷한 접근 방법으로 간다
  • 32. Keras(케라스 소개) 여러 딥러닝 라이브러리 중에 무엇을 쓸 것인가? 90% 정도의 연구나 적용은 모두 케라스로도 가능하다고 하신다
  • 33. 텐서플로우 케라스 설치하기 1. 파이썬 버전 확인 (3.6x 이하 버전만 가능/64bit에서만 가능), 아나콘다와 함께라면 편하다 2. GPU를 사용하기 위해서는 CUDA, cuDNN설치 (CUDA 9.x 이하 버전만 가능) 3. 참고 http://solarisailab.com/archives/1581 , <케라스 창시자에게 배우는 딥러닝> 인터넷, 관련 책에 설치 방법 소개가 많기 때문에 어렵지 않지만, 설치하기 전에 기존의 파이썬 버전, CUDA의 버전을 확인해야 한다. 최근 버전(파이썬 3.7x , CUDA 10.x)는 텐서플로우에서 아직 지원을 하지 않아서 설치 시 에러가 난다.
  • 34. Keras 에서 MNIST 데이터 불러오기 mnist 데이터 간단하게 불러옴 (samples, height, width) 출력 Train_images에서 5번쨰 이미지 이미지로 나타내기
  • 35. CNN을 이용한 학습 Output 깊이가 32, filter는 3x3 사용 원하는 레이어를 순서대로 쌓아 주면 됨
  • 36. CNN을 이용한 학습 1 28 28 32 26 26 13 13 32 64 11 11 5 64 5 64 3 3 576 64 10 MaxPo conv2D MaxPo conv2Dconv2D Flatten 벡터로 쭉 펴주는 작업
  • 37. 0~255 값을 0~1로 스케일링 명확히 이해는 못했지만 여튼 8장 최적화에서 소개된 알고리즘.. Epochs : 학습 반복 획수 Batch size : 몇 개의 샘플로 가중치를 갱신할 것인지 지정
  • 38. 만약 accuracy 가 아닌 F1-score를 구하고 싶다면 다음과 같이 모델 예측을 통해서 직접 구하면된다. (Keras에서 업데이트를 하면서 f1-score에 대한 metrics를 없앴다고 한다.)

Notas do Editor

  1. 이전의 언어 인식 시트템에서는 고양이를 발음할 때 C A T를 조합해서 만듬. 인간의 선입관을 반영하게 한다. 음성학이 언어학에 대한 환상 언어학자들이 언어를 합리적으로 묘사한 것. 이를 배재할 수 있다.
  2. 이전의 언어 인식 시트템에서는 고양이를 발음할 때 C A T를 조합해서 만듬. 인간의 선입관을 반영하게 한다. 음성학이 언어학에 대한 환상 언어학자들이 언어를 합리적으로 묘사한 것. 이를 배재할 수 있다.