SlideShare uma empresa Scribd logo
1 de 77
해커에게 전해들은 머신러닝-1
tensorflowkorea.wordpress.com/슬라이드-자료/
tensorflowkorea.wordpress.com/2016/10/29/해커에게-전해들은-머신러닝
github.com/rickiepark/ml-learn
2016. 11.
Park Haesun(haesunrpark@gmail.com)
머신 러닝
(Machine Learning)
“머신 러닝 또는 기계 학습은 인공 지능의 한 분야로, 컴
퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하
는 분야를 말한다.” - 위키피디아
“Field of study that gives computers the ability to learn
without being explicitly programmed.” - Arthur Samuel,
1959
머신러닝이란
Machine
Learning
Computer
Science
Statistics
Data Mining
컴퓨터 비전
자연어처리
뉴럴 네트워크
회귀
연관분석패턴인식
추천
베이지안 네트워크
확률 Statistical ML
인공지능
빅데이터
리소스 분류
𝐀𝐈 ⊃ 𝐌𝐚𝐜𝐡𝐢𝐧𝐞 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 ⊃ 𝐃𝐞𝐞𝐩 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠
시간에 따른 변화
우리에게 필요한 도구들
어떤 것을 사용할 것인가
“Don’t be a hero”
사이킷런
온라인에서 읽을 수 있는 파이썬 책
http://byteofpython-korean.sourceforge.net/
byte_of_python.html
http://www.flowdas.com/thinkpython/
파이썬 인스톨러
http://www.activestate.com/activepython
https://www.enthought.com/products/canopy/
https://www.continuum.io/downloads
IPython on Windows
Ipython on Mac, Linux
머신러닝 분류
학습 방법
지도학습, 감독학습
비지도학습, 비감독학습 강화학습
by Andreas C. Müller
사이킷런 치트 시트
ML
Learn
프로그램 순서
선형 회귀 분석 (Linear Regression)
로지스틱 회귀 분석 (Logistic Regression)
뉴럴 네트워크 (Neural Network)
ML
Learn
regression toward the mean
Francis Galton
프란시스 갈톤
숫자를 사용하여 숫자를 예측한다.
회귀 분석
중국: 32.2 °C
일본: 33.3 °C ---> 한국: 31.6 °C
북한: 29.5 °C
y = 2 * x + 3
y = 2 * x2 + 3 (X)
y = √x + 3 (X)
선형 == 1차함수
당뇨병 데이터
ML
Learn
UC 얼바인 ML 저장소
http://archive.ics.uci.edu/ml/
사이킷런의 내장 데이터
load_boston() : 주택가격
load_iris() : 붓꽃
load_diabetes() : 당뇨병
load_digits() : 손글씨숫자
load_linnerud() : 운동
당뇨병 데이터
나이(Age), 성별(Sex), 체질량(BMI), 혈압(BP), 혈액검사 데이터 6가지(S1~S6)
1년 뒤의 당뇨병 악화 지수
당뇨병 환자를 추적한 442개의 데이터셋
데이터 로드
$ ipython
...
In [1]: %pylab
In [2]: from sklearn import datasets
In [3]: diabetes = datasets.load_diabetes()
In [4]: print(diabetes.data.shape, diabetes.target.shape)
Out [5]: (442, 10) (442, )
$ ipython
...
In [1]: %pylab
In [2]: from sklearn import datasets
In [3]: diabetes = datasets.load_diabetes()
In [4]: print(diabetes.data.shape, diabetes.target.shape)
Out [5]: (442, 10) (442, )
데이터 로드
넘파이, 맷플롯립 임포트
사이킷런의 데이터 패키지 임포트
데이터 로드
넘파이 변수
442개의 행
10개의 열
442개의 타겟
(병의 악화도)
행렬(Matrix)
10개의 열(column)
442개의 행(row)
In [1]: print(diabetes.target[:10])
In [2]: print(diabetes.data[:5])
데이터 들여다 보기
슬라이스 연산자
In [1]: print(diabetes.target[:10])
[ 151. 75. 141. 206. 135. 97. 138. 63. 110. 310.]
In [2]: print(diabetes.data[:5])
[[ 0.03807591 0.05068012 0.06169621 0.02187235 -0.0442235 -0.03482076 -
0.04340085 -0.00259226 0.01990842 -0.01764613] [-0.00188202 -0.04464164 -
0.05147406 -0.02632783 -0.00844872 -0.01916334 0.07441156 -0.03949338 -
0.06832974 -0.09220405] [ 0.08529891 0.05068012 0.04445121 -0.00567061 -
0.04559945 -0.03419447 -0.03235593 -0.00259226 0.00286377 -0.02593034] [-
0.08906294 -0.04464164 -0.01159501 -0.03665645 0.01219057 0.02499059 -
0.03603757 0.03430886 0.02269202 -0.00936191] [ 0.00538306 -0.04464164 -
0.03638469 0.02187235 0.00393485 0.01559614 0.00814208-0.00259226 -
0.03199144 -0.04664087]]
데이터 들여다 보기
10개의 열(column)
442개의 행(row)
In [1]: print(diabetes.target[:10])
[ 151. 75. 141. 206. 135. 97. 138. 63. 110. 310.]
In [2]: print(diabetes.data[:5])
[[ 0.03807591 0.05068012 0.06169621 0.02187235 -0.0442235 -0.03482076 -
0.04340085 -0.00259226 0.01990842 -0.01764613]
데이터 들여다 보기
나이 성별 체질량
In [1]: print(diabetes.target[:10])
[ 151. 75. 141. 206. 135. 97. 138. 63. 110. 310.]
In [2]: print(diabetes.data[:5])
[[ 0.03807591 0.05068012 0.06169621 0.02187235 -0.0442235 -0.03482076 -
0.04340085 -0.00259226 0.01990842 -0.01764613]
데이터 들여다 보기
나이 성별 체질량
sklearn.preprocessing.scale ---> sklearn.preprocessing.normalize
0.05068012 , -0.04464164
입력값, 출력값
독립변수, 예측변수, 특성(feature), 입력값(input)
종속변수, 응답변수, 출력값(output)
산점도(Scatter Plot)
In [1]: plt.scatter(diabetes.data[:,2], diabetes.target)
적절한 선형 모델
선형 회귀 방정식
하나의 뉴런
(Single Neuron)
뉴런(Neuron)
뉴런의 신호전달
하나의 뉴런
Neuron
ŷ
w
x
b
*
+
y: diabetes.target
하나의 뉴런
Neuron
ŷ
w
x
b
*
+
정방향 계산
역방향 계산
y: diabetes.target
SingleNeuron
SingleNeuron
In [1]: n1 = SingleNeuron()
In [2]: n1.set_params(5, 1) # w, b 를 5, 1 로 셋팅
In [3]: print(n1.forpass(3)) # x 에 3 을 입력
16
In [4]: n1.set_params(6, 1) # w, b 를 6, 1 로 셋팅
In [5]: print(n1.forpass(3)) # x 에 3 을 입력
19
w * x
(5, 3)
(5, -3)
w 에 대한 ŷ 의 변화율
In [1]: n1 = SingleNeuron()
In [2]: n1.set_params(5, 1) # w, b 를 5, 1 로 셋팅
In [3]: print(n1.forpass(3)) # x 에 3 을 입력
16
In [4]: n1.set_params(6, 1) # w, b 를 6, 1 로 셋팅
In [5]: print(n1.forpass(3)) # x 에 3 을 입력
19
ŷ = w * 3 + 1
w 에 대한 ŷ 의 변화율
x 에 대한 ŷ 의 변화율
In [1]: n1 = SingleNeuron()
In [2]: n1.set_params(5, 1) # w, b 를 5, 1 로 셋팅
In [3]: print(n1.forpass(3)) # x 에 3 을 입력
16
In [4]: n1.set_params(5, 1) # w, b 를 5, 1 로 셋팅
In [5]: print(n1.forpass(4)) # x 에 4 을 입력
21
ŷ = 5 * x + 1
x 에 대한 ŷ 의 변화율
b 에 대한 ŷ 의 변화율
In [1]: n1 = SingleNeuron()
In [2]: n1.set_params(5, 1) # w, b 를 5, 1 로 셋팅
In [3]: print(n1.forpass(3)) # x 에 3 을 입력
16
In [4]: n1.set_params(5, 2) # w, b 를 5, 2 로 셋팅
In [5]: print(n1.forpass(3)) # x 에 3 을 입력
17
경사하강법
(Gradient Descent)
w, b 를 최적화 하는 방법
• x 가 주어졌을 때 ŷ 를 계산 (442번)
ŷ1 = 5 * x + 1
• w 를 조금 변경시켜 다시 ŷ2 계산 (442번)
• w 의 변화율 계산
• 변화율에 비례하여 w 와 b 를 변경
변화율 계산 대신 미분 공식
ŷ = w * x + b ---> ŷ’ = x
w 에 대한 미분
ŷ = w * x + b ---> ŷ’ = 1
b 에 대한 미분
https://ko.wikipedia.org/wiki/미분표
변화율 계산 대신 미분 공식
ŷ = w * x + b ---> ŷ’ = x
w 에 대한 미분
ŷ = w * x + b ---> ŷ’ = 1
b 에 대한 미분
https://ko.wikipedia.org/wiki/미분표
편미분 기호 사용
미분 공식 기억하세요?
𝑦 = 3𝑥
𝜕𝑦
𝜕𝑥
= 3
𝑦 = 2
𝜕𝑦
𝜕𝑥
= 0
𝑦 = 𝑥2
𝜕𝑦
𝜕𝑥
= 2𝑥
𝑦 = 𝑤𝑥
𝜕𝑦
𝜕𝑥
= 𝑤
𝜕𝑦
𝜕𝑤
= 𝑥
w, b 를 최적화 하는 방법 - 미분
• x 가 주어졌을 때 ŷ 를 계산 (442번)
ŷ = 5 * x + 1
• w 에 대한 미분으로 변화율 계산
• 변화율에 비례하여 w 와 b 를 변경
w 와 b 가 나아갈 표면
w, b 가 변경되는 순서
ŷ = 90 이고 y = 100 일 때 10만큼 모자람
10 * (w 에 대한 변화율) = 10 * x 10 * (b 에 대한 변화율) = 10 * 1
변경량 속도 조절을 위해 * 0.1
w 와 b 의 변경량을 각각 업데이트
역방향 계산
Neuron
ŷ
w
x
b
*
+
y - ŷ
+ (y – ŷ) * x * 0.1
+ (y – ŷ) * 1 * 0.1
y: diabetes.target
업데이트 부호가 의미하는 것
Neuron
ŷ
w
x
b
*
+
y - ŷ
+ (y – ŷ) * x * 0.1
+ (y – ŷ) * 1 * 0.1
(y – ŷ) > 0 : 출력이 모자람
if x > 0: w 를 증가시킴
else : w 를 감소시킴
(y – ŷ) < 0 : 출력이 넘침
if x > 0: w 를 감소시킴
else : w 를 증가시킴
y: diabetes.target
기울기 업데이트
이것이 경사하강법(Gradient Descent)!
y - ŷ
전체 요소에 대해 계산전체 합
선형 회귀 계산
체질량 데이터 전체를 이용
3만번 반복
3만번 업데이트
선형 회귀 모델
보통의 이론적인 방법
비용 함수
모델의 오차를 정의하는 함수
비용 함수 (Cost Function) ==
손실 함수 (Loss Function) ==
목적 함수 (Objective Function) ==
오차 함수 (Error Function)
회귀 분석의 비용 함수
평균 제곱 오차(Mean Square Error)*
회귀 분석의 비용 함수
오차의 제곱
모든 훈련 데이터의
오차 제곱을 더함
훈련 데이터
갯수로 나눔
미분후 깔끔을
위해 2로 나눔
비용 함수 미분
경사하강
그래디언트 업데이트
학습속도(Learning Rate)
뉴런에서 그래디언트 전달
Neuron
ŷ
w
x
b
*
+
y - ŷ
η(y – ŷ)x
η(y – ŷ)
사이킷런과 비교
SGDRegressor
페널티: 나중에Stochastic
by Andreas C. Müller
사이킷런 치트 시트
batch, mini-batch
SGDRegressor(Stochastic Gradient Descent): 확률적 경사 하강법
훈련 데이터를 하나씩 사용하여 반복 학습
SingleNeuron(Batch Gradient Descent): 훈련 데이터 전체를 사용하
여 반복 학습
Mini-Batch Gradient Descent: 훈련 데이터를 10~20개씩 묶음으로 나
누어 반복 학습
LinearRegression
정규방정식을 사용:
LinearRegression
단점: 데이터가 클 경우 연산비용이 너무 크고
역행렬을 구할 수 없는 특이 행렬이 존재함
정규방정식을 사용:
감사합니다.

Mais conteúdo relacionado

Mais procurados

3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learingHaesun Park
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기NAVER D2
 
개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow양 한빛
 
차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)beom kyun choi
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
ML + 주식 phase 2
ML + 주식  phase 2ML + 주식  phase 2
ML + 주식 phase 2HoChul Shin
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon
 
확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석jaypi Ko
 
Deep learning study 1
Deep learning study 1Deep learning study 1
Deep learning study 1San Kim
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners홍배 김
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기정주 김
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoMario Cho
 
[신경망기초] 신경망의시작-퍼셉트론
[신경망기초] 신경망의시작-퍼셉트론[신경망기초] 신경망의시작-퍼셉트론
[신경망기초] 신경망의시작-퍼셉트론jaypi Ko
 
[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석jaypi Ko
 
Learning to remember rare events
Learning to remember rare eventsLearning to remember rare events
Learning to remember rare events홍배 김
 
Reinforcement learning v0.5
Reinforcement learning v0.5Reinforcement learning v0.5
Reinforcement learning v0.5SANG WON PARK
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료JungGeun Lee
 

Mais procurados (20)

3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learing
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기
 
개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow개발자를 위한 공감세미나 tensor-flow
개발자를 위한 공감세미나 tensor-flow
 
차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
ML + 주식 phase 2
ML + 주식  phase 2ML + 주식  phase 2
ML + 주식 phase 2
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리
 
Digit recognizer
Digit recognizerDigit recognizer
Digit recognizer
 
확통 회귀분석
확통 회귀분석확통 회귀분석
확통 회귀분석
 
Generative adversarial network
Generative adversarial networkGenerative adversarial network
Generative adversarial network
 
Deep learning study 1
Deep learning study 1Deep learning study 1
Deep learning study 1
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners
 
파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기파이썬으로 나만의 강화학습 환경 만들기
파이썬으로 나만의 강화학습 환경 만들기
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
 
[신경망기초] 신경망의시작-퍼셉트론
[신경망기초] 신경망의시작-퍼셉트론[신경망기초] 신경망의시작-퍼셉트론
[신경망기초] 신경망의시작-퍼셉트론
 
[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석[신경망기초] 선형회귀분석
[신경망기초] 선형회귀분석
 
Learning to remember rare events
Learning to remember rare eventsLearning to remember rare events
Learning to remember rare events
 
Reinforcement learning v0.5
Reinforcement learning v0.5Reinforcement learning v0.5
Reinforcement learning v0.5
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료
 

Destaque

2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2Haesun Park
 
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전Mijeong Park
 
파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기Yong Joon Moon
 
05_벡터와 매트릭스
05_벡터와 매트릭스05_벡터와 매트릭스
05_벡터와 매트릭스noerror
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기Yong Joon Moon
 
2014년 무학과 학생들을 위한 수리과학과 설명회
2014년 무학과 학생들을 위한 수리과학과 설명회2014년 무학과 학생들을 위한 수리과학과 설명회
2014년 무학과 학생들을 위한 수리과학과 설명회Hang Park
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text dataHaesun Park
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic RegressionMinHyeok Kim
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvementHaesun Park
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering featuresHaesun Park
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도 jason min
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호Jiho Lee
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)Ashal aka JOKER
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)Yonghoon Kwon
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Lee Ji Eun
 
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2Haesun Park
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysismothersafe
 
6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplinesHaesun Park
 

Destaque (20)

2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-22.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
 
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전
[PYCON KOREA 2017] Python 입문자의 Data Science(Kaggle) 도전
 
파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기파이썬 확률과 통계 기초 이해하기
파이썬 확률과 통계 기초 이해하기
 
05_벡터와 매트릭스
05_벡터와 매트릭스05_벡터와 매트릭스
05_벡터와 매트릭스
 
선형 대수학
선형 대수학선형 대수학
선형 대수학
 
python 수학이해하기
python 수학이해하기python 수학이해하기
python 수학이해하기
 
2014년 무학과 학생들을 위한 수리과학과 설명회
2014년 무학과 학생들을 위한 수리과학과 설명회2014년 무학과 학생들을 위한 수리과학과 설명회
2014년 무학과 학생들을 위한 수리과학과 설명회
 
7.woring with text data
7.woring with text data7.woring with text data
7.woring with text data
 
Logistic Regression
Logistic RegressionLogistic Regression
Logistic Regression
 
5.model evaluation and improvement
5.model evaluation and improvement5.model evaluation and improvement
5.model evaluation and improvement
 
4.representing data and engineering features
4.representing data and engineering features4.representing data and engineering features
4.representing data and engineering features
 
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도 인공지능 변호사 개발  1편 - Ai lawyer 개발을 위한 시도
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
 
파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호파이콘 2017 그만퇴근합시다_이지호
파이콘 2017 그만퇴근합시다_이지호
 
머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)머신러닝 이해하기 (Sample)
머신러닝 이해하기 (Sample)
 
머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)머신러닝 시그 세미나_(deep learning for visual recognition)
머신러닝 시그 세미나_(deep learning for visual recognition)
 
Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례Deep learning 기반TmapPOI 추천기술개발사례
Deep learning 기반TmapPOI 추천기술개발사례
 
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2
 
Linear regression analysis
Linear regression analysisLinear regression analysis
Linear regression analysis
 
6.algorithm chains and piplines
6.algorithm chains and piplines6.algorithm chains and piplines
6.algorithm chains and piplines
 
Text summarization
Text summarizationText summarization
Text summarization
 

Semelhante a 해커에게 전해들은 머신러닝 #1

Tensorflow regression 텐서플로우 회귀
Tensorflow regression 텐서플로우 회귀Tensorflow regression 텐서플로우 회귀
Tensorflow regression 텐서플로우 회귀beom kyun choi
 
Alphago at a Glance
Alphago at a GlanceAlphago at a Glance
Alphago at a GlanceDataya Nolja
 
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터][NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]SeungWon Lee
 
22 r data manipulation 2 pt 20140404
22 r data manipulation 2 pt 2014040422 r data manipulation 2 pt 20140404
22 r data manipulation 2 pt 20140404Myung-Hoe Huh
 
House pricing prediction in R(Regression Project)
House pricing prediction in R(Regression Project)House pricing prediction in R(Regression Project)
House pricing prediction in R(Regression Project)Adonis Han
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택JinTaek Seo
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
코드로 이해하는 Back_propagation(cs231n)
코드로 이해하는 Back_propagation(cs231n)코드로 이해하는 Back_propagation(cs231n)
코드로 이해하는 Back_propagation(cs231n)SANG WON PARK
 
자료구조5보고서
자료구조5보고서자료구조5보고서
자료구조5보고서KimChangHoen
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 WinterSuhyun Park
 

Semelhante a 해커에게 전해들은 머신러닝 #1 (13)

Tensorflow regression 텐서플로우 회귀
Tensorflow regression 텐서플로우 회귀Tensorflow regression 텐서플로우 회귀
Tensorflow regression 텐서플로우 회귀
 
알고리즘
알고리즘알고리즘
알고리즘
 
R_datamining
R_dataminingR_datamining
R_datamining
 
Alphago at a Glance
Alphago at a GlanceAlphago at a Glance
Alphago at a Glance
 
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터][NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]
[NDC14] 라이브중인 2D게임에 시스템 변경 없이 본 애니메이션 도입하기[던전앤파이터]
 
22 r data manipulation 2 pt 20140404
22 r data manipulation 2 pt 2014040422 r data manipulation 2 pt 20140404
22 r data manipulation 2 pt 20140404
 
House pricing prediction in R(Regression Project)
House pricing prediction in R(Regression Project)House pricing prediction in R(Regression Project)
House pricing prediction in R(Regression Project)
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택3ds maxscript 튜토리얼_20151206_서진택
3ds maxscript 튜토리얼_20151206_서진택
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
코드로 이해하는 Back_propagation(cs231n)
코드로 이해하는 Back_propagation(cs231n)코드로 이해하는 Back_propagation(cs231n)
코드로 이해하는 Back_propagation(cs231n)
 
자료구조5보고서
자료구조5보고서자료구조5보고서
자료구조5보고서
 
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
세그먼트 트리 느리게 업데이트하기 - Sogang ICPC Team, 2020 Winter
 

Mais de Haesun Park

사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기Haesun Park
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reductionHaesun Park
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forestHaesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지Haesun Park
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝Haesun Park
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)Haesun Park
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)Haesun Park
 
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2Haesun Park
 
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 15.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1Haesun Park
 
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)Haesun Park
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3Haesun Park
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1Haesun Park
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)Haesun Park
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learningHaesun Park
 

Mais de Haesun Park (20)

사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디사이킷런 최신 변경 사항 스터디
사이킷런 최신 변경 사항 스터디
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
 
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
 
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)7.woring with text data(epoch#2)
7.woring with text data(epoch#2)
 
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
 
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 25.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
 
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 15.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1
 
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1
 
1.introduction(epoch#2)
1.introduction(epoch#2)1.introduction(epoch#2)
1.introduction(epoch#2)
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learning
 

해커에게 전해들은 머신러닝 #1

Notas do Editor

  1. 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  2. 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  3. AI는 언어학, 뇌의학, 검색, 로봇틱스 포함 아직 일반지능이 아님 딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  4. 2012년 제프리힌튼 팀의 이미지 분류 논문(ImageNet Classification with Deep Convolutional Neural Networks)
  5. 매트랩, 옥타브: 수치, 과학연산 어플리케이션 (옥타브 대학 통계, 머신러닝 수업) R: 오픈소스 통계 패키지 WEKA: 자바 머신러닝 패키지 줄리아: 수치분석 전문언어 옥타브, R 은 데이터 분석 도구로도 널리 사용됨.
  6. 파이썬은 범용언어, 전처리, 상용서비스에서 더 나은 선택. 대학강의에서 제품개발로도 사용. 싸이파이를 위시한 라이브러리는 표준 라이브러리 같은 대접. 씨아노, 텐서플로우도 파이썬 인터페이스 사용
  7. 0.18 버전에 뉴럴 네트워크 추가
  8. C 언어 기반 라이브러리라 직접 설치가 어려움.
  9. 훈련데이터/학습데이터 지도학습: 주가예측, 스팸메일 분류 비지도학습: 고객 분류 딥 러닝은 알고리즘의 하나로 학습방법이 아님. 딥 리인포스먼트 러닝
  10. 절대 지표가 아님 참고용으로 볼것.
  11. 숫자가 아닌 데이터는 숫자로 변환. 출력 숫자는 크기가 있는 것.
  12. 선형 모델이 합쳐져서 뉴럴 네트워크를 만듦
  13. 구글 등도 많은 데이터를 공개
  14. data 는 2차원 배열임.
  15. zero mean, L2 정규화.
  16. 특성을 컬럼으로 지칭하기도 함.
  17. 최적의 w, b 를 찾는 문제: 최적화 알고리즘. 경사하강법(Gradient Descent)
  18. y 햇: h, f 등으로 쓰기도 함.
  19. y햇이 모자르면 y햇을 키우는 방향으로 w, b 를 변경해야 함.
  20. 선형이 아닐 경우 기울기가 변하므로 극한으로 보내야함. w2 – w1 을 극한으로 보내면 미분임.
  21. 절대 지표가 아님 참고용으로 볼것.
  22. 절대 지표가 아님 참고용으로 볼것.