SlideShare uma empresa Scribd logo
1 de 41
Baixar para ler offline
밑바닥부터 시작하는 딥러닝
박성현 zkfthfl123@naver.com
목차
• CNN 설명
• CNN 구현
• CNN 시각화
• 대표적인 CNN 구성
CNN 설명
CNN (convolutional neural network)
• 합성곱 신경망
• 이미지 인식 분야에서 딥러닝을 활용한 기법은 거의 다 CNN을 기초로 함.
전체 구조
C
o
n
v
R
e
L
U
P
o
o
l
i
n
g
C
o
n
v
R
e
L
U
P
o
o
l
i
n
g
A
f
f
i
n
e
S
o
f
t
m
a
x
C
o
n
v
R
e
L
U
A
f
f
i
n
e
R
e
L
U
합성곱 계층(Conv)과 풀링 계층(Pooling)이 추가됨
완전연결 계층의 문제점
• 이미지 : 3차원 형상(채널*가로*세로)
• 3차원 형상이 가질 수 있는 정보
- 가까운 픽셀은 값이 비슷할 수 있다.
- RGB의 채널은 밀접하게 관련되어 있다.
- 거리가 먼 픽셀끼리는 연관이 없을 수 있다.
• 완전연결 계층(Affine 계층)의 문제점
- 데이터의 형상이 무시됨.
- 데이터를 1차원 데이터로 평탄화 하기 때문.
- 큰 이미지를 입력으로 넣을 경우 필요 가중치의 개수가 너무 많아진다.
합성곱 계층은 형상을 유지한다.
합성곱 연산
합성곱 연산
(이미지)에 (커널)을 적용해 계산한다.
필터의 윈도우를 일정 간격으로
이동해가며 입력 데이터에 적용
합성곱 연산
합성곱 연산을 이용하는 필터 종류
합성곱 연산의 편향
패딩(Padding)
입력 데이터 주변을 특정 값(0) 으로 채우는 기법
-> 출력 크기를 조정하기 위해
스트라이드(Stride)
스트라이드 : 2
필터를 적용하는 위치의 간격 (보폭)
스트라이드가 커질수록
출력 크기는 작아진다.
출력 크기 계산
• 출력 크기는 패딩, 스트라이드를 어떻게 설정하는지에 따라 달라진다.
• 출력 크기를 수식으로 나타내면
𝑂𝐻 =
𝐻 + 2𝑃 − 𝐹𝐻
𝑆
+ 1
𝑂𝑊 =
𝐻 + 2𝑃 − 𝐹𝐻
𝑆
+ 1
입력 크기 : (H,W)
필터 크기 : (FH,FW)
출력 크기 : (OH, OW)
패딩 : P
스트라이드 : S
출력 크기는 정수로 나누어 떨어지는 값이여야 한다.
3차원 데이터의 합성곱 연산
• 이미지는 3차원 데이터이다. (채널, 세로, 가로)
• 3차원 입력 데이터의 채널 수와 필터의 채널 수가 같아야 한다.
3차원 데이터의 합성곱 연산
블록으로 생각하기
출력 데이터의 채널은 1개이다. 만약 다수의 채널을 출력으로 내보내려면?
블록으로 생각하기
여러 개의 필터를(FN개)를 적용하면 여러 개의 출력 데이터가 생성된다.(FN개)
필터의 가중치 데이터 : 4차원 (출력 채널 수, 입력 채널 수, 높이, 너비)
편향 추가
채널 하나에 값 하나씩 으로 구성됨
배치 처리
각 데이터의 선두에 배치용 차원을 추가
N회 분의 처리를 한 번에 수행한다.
풀링(Pooling) 계층
세로 * 가로 방향의 공간을 줄이는 연산
오른쪽 그림은 최대 풀링(Max pooling)을 스트라이드 2로 처리하는 모습
풀링의 윈도우 크기와 스트라이드는 같은 값으로 설정하는 것이 일반적
2x2 크기의 영역에서 가장 큰 원소 하나를 꺼낸다.
2x2 최대 풀링
풀링 계층의 특징
• 학습해야 할 매개변수가 없다.
- 풀링은 대상 영역에서 최댓값이나 평균만을 취하는 처리이므로
• 채널 수가 변하지 않는다.
- 입력 데이터의 채널 수 그대로 출력 데이터로 내보냄.
• 입력의 변화에 영향을 적게 받는다. (강건함)
데이터가 가로로 1원소만큼 어긋나도 출력은 같다.
CNN 구현
합성곱 계층 구현
• 합성곱 연산을 단순하게 구현하려면 for 문을 겹겹이 써야한다.
• 2중 for문 이상으로 구현하게 되면 시간이 매우 오래 걸린다.
• 효율적인 방법은?
• im2col 함수 (image to column)
im2col
• 입력 데이터를 필터링(가중치 계산) 하기 좋게 전개하는(펼치는) 함수
• 4차원 데이터를 2차원으로 변환
• 합성곱(convolution) 연산은 빠르지만
연산 메모리가 증가하는 단점이 존재함
• 메모리 사용을 희생하면서 더 빨리 계산
출처 : https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/making_faster.html
im2col
입력 데이터 : (3,4,4)
필터(커널) : (3,2,2)
출력 데이터 : (3,3)
필터가 4개인 경우는…
4x4x3 = 48개의 입력 데이터가
12x9 = 108개로 늘어남!
하지만 for문을 쓰는 것 보다는 빠르다.
출처 : https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/making_faster.html
im2col
im2col 구현
몫 계산(소수점 버림)
Pad 크기만큼 패딩
im2col을 이용한 합성곱 계층
합성곱 계층의 역전파
im2col과 반대의 역할을 수행하는
col2im함수를 이용한다.
합성곱 계층의 역전파
풀링 계층 구현
im2col을 이용해 전개 후 행 별 최댓값을 뽑아낸다.
풀링 계층 구현
CNN 구현하기
C
o
n
v
R
e
L
U
P
o
o
l
i
n
g
A
f
f
i
n
e
S
o
f
t
m
a
x
A
f
f
i
n
e
R
e
L
U
단순한 CNN 네트워크 구성
CNN 구현하기
CNN 시각화
1번째 층의 가중치 시각화
학습 전 학습 후
앞에서 구현한 CNN의 1번째 층의 형상 (30,1,5,5)
세로 엣지에 반응하는 필터 가로 엣지에 반응하는 필터
블롭(국소적으로 덩어리진 영역)
에 반응하는 필터?
층 깊이에 따른 추출 정보 변화
출처 : https://hamait.tistory.com/535
CNN의 각 계층에서는
어떤 정보가 추출될까?
연구에 따르면 계층이 깊어질수록
추출되는 정보(강하게 반응하는 뉴런)
는 더 추상화된다고 한다.
단순한 엣지 물체의 일부분 더 복잡한 일부분
사물의 의미를 이해하도록 변화
대표적인 CNN 구조
대표적인 CNN 구조
• LeNet (1998)
• AlexNet (2012)
• ZF Net (2013)
• VGG (2014)
• GoogleNet (2015)
• ResNet (2015)
• DenseNet (2016)
• …
LeNet (1998) LeNet-5
손글씨 숫자를 인식하는 네트워크(CNN의 원조)
합성곱 계층과 풀링 계층을 반복하고 마지막으로 완전연결 계층을 거치면서 결과를 출력
• 현재의 CNN과의 차이점
- 활성화 함수는 Sigmoid
- 풀링 계층이 단순히 원소를 줄이기만 하는 서브샘플링 계층임
AlexNet (2012)
딥러닝 열풍을 일으키는 데 큰 역할을 함
합성곱 계층, 풀링 계층을 거듭하며 마지막으로 완전연결 계층을 거쳐 결과를 출력
• LeNet과의 차이점
- 활성화 함수는 ReLU
- LRN(local Response Normalization)이라는 국소적 정규화 실시 계층이 있음
- 드롭아웃 사용

Mais conteúdo relacionado

Mais procurados

keras 빨리 훑어보기(intro)
keras 빨리 훑어보기(intro)keras 빨리 훑어보기(intro)
keras 빨리 훑어보기(intro)beom kyun choi
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learingHaesun Park
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learningYongdae Kim
 
Deep learning seminar_snu_161031
Deep learning seminar_snu_161031Deep learning seminar_snu_161031
Deep learning seminar_snu_161031Jinwon Lee
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류Haesun Park
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해Hee Won Park
 
밑바닥부터 시작하는 딥러닝_신경망학습
밑바닥부터 시작하는 딥러닝_신경망학습밑바닥부터 시작하는 딥러닝_신경망학습
밑바닥부터 시작하는 딥러닝_신경망학습Juhui Park
 
Alexnet paper review
Alexnet paper reviewAlexnet paper review
Alexnet paper review오 혜린
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
4.convolutional neural networks
4.convolutional neural networks4.convolutional neural networks
4.convolutional neural networksHaesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리Haesun Park
 
3.neural networks
3.neural networks3.neural networks
3.neural networksHaesun Park
 
인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명Woonghee Lee
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNetjdo
 
Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2KyeongUkJang
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...홍배 김
 
Chapter 7 Regularization for deep learning - 3
Chapter 7 Regularization for deep learning - 3Chapter 7 Regularization for deep learning - 3
Chapter 7 Regularization for deep learning - 3KyeongUkJang
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련Haesun Park
 
Learning by association
Learning by associationLearning by association
Learning by association홍배 김
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신Haesun Park
 

Mais procurados (20)

keras 빨리 훑어보기(intro)
keras 빨리 훑어보기(intro)keras 빨리 훑어보기(intro)
keras 빨리 훑어보기(intro)
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learing
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learning
 
Deep learning seminar_snu_161031
Deep learning seminar_snu_161031Deep learning seminar_snu_161031
Deep learning seminar_snu_161031
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해
 
밑바닥부터 시작하는 딥러닝_신경망학습
밑바닥부터 시작하는 딥러닝_신경망학습밑바닥부터 시작하는 딥러닝_신경망학습
밑바닥부터 시작하는 딥러닝_신경망학습
 
Alexnet paper review
Alexnet paper reviewAlexnet paper review
Alexnet paper review
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
4.convolutional neural networks
4.convolutional neural networks4.convolutional neural networks
4.convolutional neural networks
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
 
3.neural networks
3.neural networks3.neural networks
3.neural networks
 
인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
 
Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2Chapter 6 Deep feedforward networks - 2
Chapter 6 Deep feedforward networks - 2
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
 
Chapter 7 Regularization for deep learning - 3
Chapter 7 Regularization for deep learning - 3Chapter 7 Regularization for deep learning - 3
Chapter 7 Regularization for deep learning - 3
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
 
Learning by association
Learning by associationLearning by association
Learning by association
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
 

Semelhante a Dl from scratch(7)

Cnn 발표자료
Cnn 발표자료Cnn 발표자료
Cnn 발표자료종현 최
 
Convolutional neural networks
Convolutional neural networksConvolutional neural networks
Convolutional neural networksHyunjinBae3
 
Chapter 9 - convolutional networks
Chapter 9 - convolutional networksChapter 9 - convolutional networks
Chapter 9 - convolutional networksKyeongUkJang
 
텐서플로우 2.0 튜토리얼 - CNN
텐서플로우 2.0 튜토리얼 - CNN텐서플로우 2.0 튜토리얼 - CNN
텐서플로우 2.0 튜토리얼 - CNNHwanhee Kim
 
Deep Learning & Convolutional Neural Network
Deep Learning & Convolutional Neural NetworkDeep Learning & Convolutional Neural Network
Deep Learning & Convolutional Neural Networkagdatalab
 
03.12 cnn backpropagation
03.12 cnn backpropagation03.12 cnn backpropagation
03.12 cnn backpropagationDea-hwan Ki
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoMario Cho
 
Mlp logical input pattern classfication report doc
Mlp logical input pattern classfication report docMlp logical input pattern classfication report doc
Mlp logical input pattern classfication report doc우진 신
 
FCN to DeepLab.v3+
FCN to DeepLab.v3+FCN to DeepLab.v3+
FCN to DeepLab.v3+Whi Kwon
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84Soukwon Jun
 
Deep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetDeep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetHyojun Kim
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장Sunggon Song
 
[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린dkuplusalpha
 
Densely Connected Convolutional Networks
Densely Connected Convolutional NetworksDensely Connected Convolutional Networks
Densely Connected Convolutional NetworksOh Yoojin
 
[신경망기초] 심층신경망개요
[신경망기초] 심층신경망개요[신경망기초] 심층신경망개요
[신경망기초] 심층신경망개요jaypi Ko
 
History of Vision AI
History of Vision AIHistory of Vision AI
History of Vision AITae Young Lee
 

Semelhante a Dl from scratch(7) (20)

Cnn 발표자료
Cnn 발표자료Cnn 발표자료
Cnn 발표자료
 
CNN
CNNCNN
CNN
 
Convolutional neural networks
Convolutional neural networksConvolutional neural networks
Convolutional neural networks
 
Convolutional rnn
Convolutional rnnConvolutional rnn
Convolutional rnn
 
Chapter 9 - convolutional networks
Chapter 9 - convolutional networksChapter 9 - convolutional networks
Chapter 9 - convolutional networks
 
텐서플로우 2.0 튜토리얼 - CNN
텐서플로우 2.0 튜토리얼 - CNN텐서플로우 2.0 튜토리얼 - CNN
텐서플로우 2.0 튜토리얼 - CNN
 
Deep Learning & Convolutional Neural Network
Deep Learning & Convolutional Neural NetworkDeep Learning & Convolutional Neural Network
Deep Learning & Convolutional Neural Network
 
HistoryOfCNN
HistoryOfCNNHistoryOfCNN
HistoryOfCNN
 
03.12 cnn backpropagation
03.12 cnn backpropagation03.12 cnn backpropagation
03.12 cnn backpropagation
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
 
Mlp logical input pattern classfication report doc
Mlp logical input pattern classfication report docMlp logical input pattern classfication report doc
Mlp logical input pattern classfication report doc
 
FCN to DeepLab.v3+
FCN to DeepLab.v3+FCN to DeepLab.v3+
FCN to DeepLab.v3+
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84
 
Deep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNetDeep Learning Into Advance - 1. Image, ConvNet
Deep Learning Into Advance - 1. Image, ConvNet
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장
 
[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린[데이터 분석 소모임] Convolution Neural Network 김려린
[데이터 분석 소모임] Convolution Neural Network 김려린
 
Densely Connected Convolutional Networks
Densely Connected Convolutional NetworksDensely Connected Convolutional Networks
Densely Connected Convolutional Networks
 
[신경망기초] 심층신경망개요
[신경망기초] 심층신경망개요[신경망기초] 심층신경망개요
[신경망기초] 심층신경망개요
 
History of Vision AI
History of Vision AIHistory of Vision AI
History of Vision AI
 

Último

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법JMP Korea
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화JMP Korea
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석JMP Korea
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?Jay Park
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP Korea
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP Korea
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP Korea
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP Korea
 

Último (8)

데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법데이터 분석 문제 해결을 위한 나의 JMP 활용법
데이터 분석 문제 해결을 위한 나의 JMP 활용법
 
공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화공학 관점에서 바라본 JMP 머신러닝 최적화
공학 관점에서 바라본 JMP 머신러닝 최적화
 
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
실험 설계의 평가 방법: Custom Design을 중심으로 반응인자 최적화 및 Criteria 해석
 
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
(독서광) 인간이 초대한 대형 참사 - 대형 참사가 일어날 때까지 사람들은 무엇을 하고 있었는가?
 
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
JMP 기능의 확장 및 내재화의 핵심 JMP-Python 소개
 
JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!JMP가 걸어온 여정, 새로운 도약 JMP 18!
JMP가 걸어온 여정, 새로운 도약 JMP 18!
 
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement MethodologyJMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
JMP를 활용한 전자/반도체 산업 Yield Enhancement Methodology
 
JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례JMP를 활용한 가속열화 분석 사례
JMP를 활용한 가속열화 분석 사례
 

Dl from scratch(7)