SlideShare uma empresa Scribd logo
1 de 39
Baixar para ler offline
Investment & Deep Learning
QRAFT TECHNOLOGIES, INC.
March 2019
STRICTLY CONFIDENTIAL
Qraft Technologies, Inc.
2
크래프트테크놀로지스는 빠르게 성장하는 금융 AI 회사입니다
0
200
400
600
800
1000
1200
1400
1600
1800
2000
2016 2017 2018 2019
기업가치
잠정
1500>
Qraft Technologies, Inc.
ROBO ADVISOR
Market Share
3
STRICTLY CONFIDENTIAL
1.2조원
로보어드바이저 인더스트리 총
자산
≥90%
크래프트 엔진 적용
국내 최대의 로보어드바이저 서비스 공급사
Qraft Technologies, Inc.
AI ETF
4
STRICTLY CONFIDENTIAL
세계 최초 글로벌 AI ETF 상장 & 국내 최초 AI ETF 뉴욕증시 상장 예정
Qraft Technologies, Inc.
AI EXECUTION
AXE Challenge
5
STRICTLY CONFIDENTIAL
• 실거래 성과 측정 기간: 2018.11.14 ~ 22 ( 총 7거래일 )
• 총매수금액: 2,536,275,830 원 (코스피 200 중 70종목)
• 일평균 매수금액: 362,325,119 원
• 시장 VWAP 대비 총 절감금액 : 1,217,412 원
• 대회기간 평균 절감 비율: VWAP 대비 5bps 절감
국내 최초 AI 주문집행 시스템 개발
Qraft Technologies, Inc.
AI ETF
NVIDIA GTC 2018
6
STRICTLY CONFIDENTIAL
Qraft Technologies, Inc.
7
발표자 소개 문효준
現) 크래프트 테크놀로지스 AI리서치팀 팀장
1. 강화학습 기반 주문집행알고리즘 AXE 프로젝트 PM
2. US AI Enhanced ETF PM (4월초 뉴욕증시 상장)
3. Deep Asset Allocation PM (연기금 프로젝트)
4. AXE for Scheduling (Currency, Commodity) PM
5. 로보어드바이저 고도화 프로젝트
6. NLP 기반 US 인덱스 프로젝트
Qraft Technologies, Inc.
8
금융 + 딥러닝 = ?
왜 대부분은 기업에서 금융과 딥러닝을 접목시키는데 실패할까요?
Garbage In, Garbage Out
금융 데이터는 딥러닝을 적용하기에 최악의 구조
Qraft Technologies, Inc.
9
문제점 1. 시계열 Feature 자체의 노이즈
Qraft Technologies, Inc.
일반적으로 주가 모델링은 기하브라운모형 (GBM)을 가정하지만,
근본적으로 AR(1)과 크게 다르지 않으므로 편의를 위해 AR(1) 모형에서 시작해 조금만 변형해봅시다.
𝑦𝑡+1 = 𝑦𝑡 + 𝑥𝑡 + 𝜖 𝑡
다음 주가 = 현재주가 + 정보 + 노이즈
10
예시) 수익률 데이터
-0.25
-0.2
-0.15
-0.1
-0.05
0
0.05
0.1
0.15
1986-01-01
1987-08-01
1989-03-01
1990-10-01
1992-05-01
1993-12-01
1995-07-01
1997-02-01
1998-09-01
2000-04-01
2001-11-01
2003-06-01
2005-01-01
2006-08-01
2008-03-01
2009-10-01
2011-05-01
2012-12-01
2014-07-01
2016-02-01
2017-09-01
Equity (MSCI World)
0
1000
2000
3000
4000
5000
6000
7000
1985-12-01
1987-12-01
1989-12-01
1991-12-01
1993-12-01
1995-12-01
1997-12-01
1999-12-01
2001-12-01
2003-12-01
2005-12-01
2007-12-01
2009-12-01
2011-12-01
2013-12-01
2015-12-01
2017-12-01
Equity (MSCI World)
하지만 𝜖 𝑡가 차지하는 요소 > 𝑥𝑡가 차지하는 요소
노이즈 > 정보량
딥러닝 모형이 포착해야 함
Qraft Technologies, Inc.
𝑦𝑡+1 = 𝑦𝑡 + 𝑥 𝑡 + 𝜖 𝑡
다음 주가 = 현재주가 + 정보 + 노이즈
노이즈로 인해 상대적으로 𝑦𝑡+1 = 𝑦𝑡 + 𝜖 𝑡 처럼 되고 결과적으로 다음값에 대한 최선의 예측값은 현재값.
11
예시) 수익률 데이터
LSTM을 이용한 주가 예측
잘 예측하는 것 같지만,
실질적으로 오른쪽으로 Lagging
Qraft Technologies, Inc.
12
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
Qraft Technologies, Inc.
13
예시) 자산배분문제
Q : 요즘 같은 경제 상황에서는 어떤 자산군에 어떻게 투자 해야할까요 ?
A : 음… 주식 60%, 채권 30%, 금 10% ?
주식
채권
금
주식 채권 금
Qraft Technologies, Inc.
14
자산배분을 위해 고려해야할 요소
금, 채권, 주식, 리츠, 원자재, … 등 수많은 자산군 데이터
금리, 인플레이션, 장단기금리차, … 등 수많은 매크로 데이터
필요한 High Level Feature ?
자산군 모멘텀 효과
자산군 평균회귀 효과
확장적 통화정책, 긴축적 통화정책 분류
단기부채사이클, 장기부채사이클 파악
…
→ 주로 Monthly Frequency 데이터에서 추출
Qraft Technologies, Inc.
15
40년 데이터 = 겨우 480개의 Sequence 길이
(Monthly Frequency 기준)
고려할 수 있는 요소는 수십 ~ 수백개인데, 고려할 수 있는 데이터 길이는 너무 짧음
→ 차원의 저주
Qraft Technologies, Inc.
16
문제점 3. 문제점 1과 문제점 2로 인한 Overfitting
Qraft Technologies, Inc.
17
문제점 1. 시계열 Feature 자체의 노이즈
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
문제점 3. 문제점 1과 문제점 2로 인한 Overfitting
어떻게 해결할 것인가?
차례대로 해결해봅시다.
Qraft Technologies, Inc.
18
문제점 1. 시계열 Feature 자체의 노이즈
Time-series denoising
1. Moving Average (MA, EMA, … )
2. Bilateral Filter
Qraft Technologies, Inc.
19
문제점 1. 시계열 Feature 자체의 노이즈
Time-series denoising
Moving Average, Bilateral Filter → 학습 개선 효과 존재
하지만 학습 과정에서 자동적으로 노이즈를 제거할 수 있는 방법은 없을까?
CNN Stacked AutoEncoder 기반 Denoising Module
Inputdata
Feature Extraction
Network
output
AutoEncoder Loss
기존 지도학습에서의 Loss + AutoEncoder Loss → Gradient Descent
Qraft Technologies, Inc.
20
문제점 1. 시계열 Feature 자체의 노이즈
Time-series denoising
CNN Stacked AutoEncoder 시각화
Qraft Technologies, Inc.
21
문제점 1. 시계열 Feature 자체의 노이즈
Time-series denoising
CNN Stacked AutoEncoder 시각화
Qraft Technologies, Inc.
22
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
데이터 생성 ?
→ GAN 기반 데이터 생성. 개별적인 생성은 가능하지만, 전체 시계열의 상관성을 고려한 생성은 어려움
데이터 생성도 어렵고, 실제 데이터가 부족한데 어떻게 모델을 학습시킬 것인가 …?
거꾸로 생각해보기
이런 상황에서 기존 퀀트들은 모델을 어떤 식을 만들었는가?
Qraft Technologies, Inc.
23
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
기존 퀀트가 모델을 만드는 방식
(간접적으로라도) 경제적 함의점을 내포하는 모델 설계
경제적 함의점까지 고려하는 직관 자체를 모델링 하는 건 (아마도) 불가능
데이터 직관 모델 포트폴리오 생성
Qraft Technologies, Inc.
24
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
기존 퀀트가 모델을 만드는 방식
(간접적으로라도) 경제적 함의점을 내포하는 모델 설계
데이터 직관 모델 포트폴리오 생성
f(x)
f(x)는 주로 선형적인 모델
단순 선형 모형에서 딥러닝으로 최적의 함수 추정
예를 들어 Momentum Factor 모델링
12 Month Price Data → Model → 12-1M → Momentum
Qraft Technologies, Inc.
25
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
사례) Dynamic Factor Rotation (Timing)
Data source : AQR Data Library
일정하지 않은 팩터 알파
Qraft Technologies, Inc.
26
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
사례) Dynamic Factor Rotation (Timing)
Qraft Technologies, Inc.
Simulation with train data set during training
As time goes by, AI model learns to optimally allocate factors with train data set
At first, it is similar to equal factor weight model
- : AI Factor Rotation Model
- : Equal Factor Model
(1980 ~ 2005)
27
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
사례) Dynamic Factor Rotation (Timing)
Qraft Technologies, Inc.
28
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
사례) Dynamic Factor Rotation (Timing)
Simulation with test data set during training
As times goes by, AI model learns to optimally allocate factors with test data set
At first, it is similar to equal factor weight model
- : AI Factor Rotation Model
- : Equal Factor Model
(2006 ~ 2018)
Paired t-test p-value : 0.00263132
Qraft Technologies, Inc.
29
문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
사례) Dynamic Factor Rotation (Timing)
August 2011 (Black Monday) : High ‘Low Risk’ weight
2007 – 2008 (Financial Crisis) : High ‘Quality Factor’ weight
Qraft Technologies, Inc.
30
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
문제점 1과 문제점 2를 어느 정도 해결하더라도 여전히 Overfitting 발생
그렇다면 어떻게 Overfitting을 최소화할 것인가?
1.Asynchronous Multi Network Learning
2.Bayesian Inference
Qraft Technologies, Inc.
31
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
1. Asynchronous Multi Network Learning
비슷한 Cost이지만 다른 오버피팅 정도
→ Weight Initialization에 따라 다르게 수렴
일반적으로 데이터가 부족해 단순 L1, L2 Norm을 적용시킬 수 없음
Qraft Technologies, Inc.
32
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
1. Asynchronous Multi Network Learning
Thread가 개별적으로 초기화된 각 네트워크를 가지고, 여러 네트워크를 동시에 학습 시작
Qraft Technologies, Inc.
33
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
1. Asynchronous Multi Network Learning
Training 중 Test data를 가지고 오버피팅 체크를 하게 되면 Look-ahead bias 발생
따라서 별도의 validation data로 오버피팅 감지
training validation test
1. N개의 쓰레드로 네트워크 개별 초기화
2. K iteration 후 validation data로 오버피팅 검증 후 하위 X개 제거
3. 새롭게 초기화된 X개의 네트워크 투입
4. Validation에서 원하는 수준까지 수렴할 때까지 반복
5. 잔여모델 Test에서 앙상블 후 모델 최종 검증
→ 효과적인 오버피팅 방지 (전 Factor Rotation 사례에서 검증)
Qraft Technologies, Inc.
34
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
2. Bayesian Inference
관찰하지 못한 데이터구간 → Validation에서도 관찰이 불가능하다면,
오버피팅보다는 모른다고 결과를 내는 것이 효과적
Qraft Technologies, Inc.
35
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
2. Bayesian Inference
어떻게 모른다고 결과를 낼 것인가? Uncertainty Quantification
1. Monte Carlo Dropout
(Gal, Y., & Ghahramani, Z. (2016, June). Dropout as a bayesian approximation: Representing model uncertainty in
deep learning. In international conference on machine learning (pp. 1050-1059)
2. Monte Carlo Batch Normalization
(Teye, M., Azizpour, H., & Smith, K. (2018). Bayesian uncertainty estimation for batch normalized deep
networks. arXiv preprint arXiv:1802.06455)
2. Deep Learning Regression + Gaussian Process Regression
선지도학습 후 GPR 학습 → 가장 심플하고 적용하기 간단
Qraft Technologies, Inc.
36
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
2. Bayesian Inference
Qraft Currency Hedge Engine – MC Dropout 적용 예시
Qraft Technologies, Inc.
37
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
2. Bayesian Inference
MC Dropout → Tau, Dropout rate, Activation에 따른 영향도 높다는 단점
Qraft Technologies, Inc.
38
문제점 3. 그럼에도 불구하고 발생하는 Overfitting
2. Bayesian Inference
어떻게 모른다고 결과를 낼 것인가? Uncertainty Quantification
1. Monte Carlo Dropout
(Gal, Y., & Ghahramani, Z. (2016, June). Dropout as a bayesian approximation: Representing model uncertainty in
deep learning. In international conference on machine learning (pp. 1050-1059)
2. Monte Carlo Batch Normalization
(Teye, M., Azizpour, H., & Smith, K. (2018). Bayesian uncertainty estimation for batch normalized deep
networks. arXiv preprint arXiv:1802.06455)
2. Deep Learning Regression + Gaussian Process Regression
선지도학습 후 GPR 학습 → 가장 심플하고 적용하기 간단
선형 독립적으로 노드들이 Representation Learning이 잘 됐다는 가정 하에 효과적인 GPR 학습 가능
THANK YOU

Mais conteúdo relacionado

Mais procurados

【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networksDeep Learning JP
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII
 
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Katsuya Ito
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセットToru Tamaki
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRUananth
 
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIPDeep Learning JP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
Self-Attention with Linear Complexity
Self-Attention with Linear ComplexitySelf-Attention with Linear Complexity
Self-Attention with Linear ComplexitySangwoo Mo
 
[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개Donghyeon Kim
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical ReportDeep Learning JP
 
PR-297: Training data-efficient image transformers & distillation through att...
PR-297: Training data-efficient image transformers & distillation through att...PR-297: Training data-efficient image transformers & distillation through att...
PR-297: Training data-efficient image transformers & distillation through att...Jinwon Lee
 
Feature Engineering
Feature EngineeringFeature Engineering
Feature EngineeringHJ van Veen
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversionYuki Saito
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...Deep Learning JP
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)Tomoyuki Hioki
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 

Mais procurados (20)

【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
SSII2019TS: Shall We GANs?​ ~GANの基礎から最近の研究まで~
 
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
Dynamic Time Warping を用いた高頻度取引データのLead-Lag 効果の推定
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRU
 
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
[DL輪読会]Wav2CLIP: Learning Robust Audio Representations From CLIP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
Self-Attention with Linear Complexity
Self-Attention with Linear ComplexitySelf-Attention with Linear Complexity
Self-Attention with Linear Complexity
 
[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개
 
【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report【DL輪読会】GPT-4Technical Report
【DL輪読会】GPT-4Technical Report
 
PR-297: Training data-efficient image transformers & distillation through att...
PR-297: Training data-efficient image transformers & distillation through att...PR-297: Training data-efficient image transformers & distillation through att...
PR-297: Training data-efficient image transformers & distillation through att...
 
Feature Engineering
Feature EngineeringFeature Engineering
Feature Engineering
 
Tabnet presentation
Tabnet presentationTabnet presentation
Tabnet presentation
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversion
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 

Semelhante a Investment and deep learning

[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1Luke Sunghyun Kim
 
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료오윤 권
 
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)Myungjin Lee
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래Taehoon Ko
 
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...Amazon Web Services Korea
 
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx문기 박
 
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)Lab80
 
IBM PowerAI Vision
IBM PowerAI VisionIBM PowerAI Vision
IBM PowerAI VisionSeoro Kim
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
기계학습 현재와미래 Pdf
기계학습 현재와미래 Pdf기계학습 현재와미래 Pdf
기계학습 현재와미래 Pdf효근 윤
 
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치Chris Hoyean Song
 
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저Amazon Web Services Korea
 
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기! - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256 CSO/ 이...
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기!  - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256  CSO/ 이...누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기!  - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256  CSO/ 이...
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기! - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256 CSO/ 이...Amazon Web Services Korea
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...Amazon Web Services Korea
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)Haezoom Inc.
 
제약이론,The goal, TOC
제약이론,The goal, TOC 제약이론,The goal, TOC
제약이론,The goal, TOC Jong taek OH
 
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015Amazon Web Services Korea
 
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저POSCO ICT
 
머니투데이 사물인터넷 강연 - 최형욱
머니투데이 사물인터넷 강연 - 최형욱머니투데이 사물인터넷 강연 - 최형욱
머니투데이 사물인터넷 강연 - 최형욱Hugh Choi 최형욱
 

Semelhante a Investment and deep learning (20)

[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
 
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료
[한국 IBM 권오윤] H2O.ai DriverlessAI 소개자료
 
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)
지식그래프 개념과 활용방안 (Knowledge Graph - Introduction and Use Cases)
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
 
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...
Cloud Migration 과 Modernization 을 위한 30가지 아이디어-박기흥, AWS Migrations Specialist...
 
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx
__Cloud_CNA_MSA_Service+Data+InferenceMesh 소개-박문기@메가존클라우드-20230320.pptx
 
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)
학교에서는 배울 수 없는 스타트업 엔지니어링 (연세대 특강)
 
IBM PowerAI Vision
IBM PowerAI VisionIBM PowerAI Vision
IBM PowerAI Vision
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
기계학습 현재와미래 Pdf
기계학습 현재와미래 Pdf기계학습 현재와미래 Pdf
기계학습 현재와미래 Pdf
 
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치
블록체인 데이터와 머신러닝으로 만들어내는 금융업계의 고객 가치
 
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저
[Retail & CPG Day 2019] 유통 고객의 AWS 도입 동향 - 박동국, AWS 어카운트 매니저, 김준성, AWS어카운트 매니저
 
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기! - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256 CSO/ 이...
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기!  - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256  CSO/ 이...누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기!  - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256  CSO/ 이...
누구나 손쉽게 사용하는 BlockChain, 비즈니스에 활용하기! - 박혜영, AWS솔루션즈 아키텍트/정권호, 람다 256 CSO/ 이...
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...
고객 중심 서비스 출시를 위한 준비 “온오프라인 고객 데이터 통합” – 김준형 AWS 솔루션즈 아키텍트, 김수진 아모레퍼시픽:: AWS C...
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
 
제약이론,The goal, TOC
제약이론,The goal, TOC 제약이론,The goal, TOC
제약이론,The goal, TOC
 
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015
AWS와 함께하는 클라우드 컴퓨팅 - AWS 웨비나 시리즈 2015
 
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저
170426 cloud day in 포항 1. 클라우드컴퓨팅과 aws 소개_aws 이재현 매니저
 
머니투데이 사물인터넷 강연 - 최형욱
머니투데이 사물인터넷 강연 - 최형욱머니투데이 사물인터넷 강연 - 최형욱
머니투데이 사물인터넷 강연 - 최형욱
 

Mais de NAVER Engineering

디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIXNAVER Engineering
 
진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)NAVER Engineering
 
서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트NAVER Engineering
 
BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호NAVER Engineering
 
이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라NAVER Engineering
 
날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기NAVER Engineering
 
쏘카프레임 구축 배경과 과정
 쏘카프레임 구축 배경과 과정 쏘카프레임 구축 배경과 과정
쏘카프레임 구축 배경과 과정NAVER Engineering
 
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기NAVER Engineering
 
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)NAVER Engineering
 
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드NAVER Engineering
 
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기NAVER Engineering
 
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활NAVER Engineering
 
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출NAVER Engineering
 
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우NAVER Engineering
 
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...NAVER Engineering
 
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법NAVER Engineering
 
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며NAVER Engineering
 
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기NAVER Engineering
 
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기NAVER Engineering
 

Mais de NAVER Engineering (20)

React vac pattern
React vac patternReact vac pattern
React vac pattern
 
디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX
 
진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)
 
서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트
 
BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호
 
이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라
 
날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기
 
쏘카프레임 구축 배경과 과정
 쏘카프레임 구축 배경과 과정 쏘카프레임 구축 배경과 과정
쏘카프레임 구축 배경과 과정
 
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
 
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
 
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
 
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
 
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
 
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
 
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
 
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
 
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
 
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
 
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
 
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
 

Investment and deep learning

  • 1. Investment & Deep Learning QRAFT TECHNOLOGIES, INC. March 2019 STRICTLY CONFIDENTIAL
  • 2. Qraft Technologies, Inc. 2 크래프트테크놀로지스는 빠르게 성장하는 금융 AI 회사입니다 0 200 400 600 800 1000 1200 1400 1600 1800 2000 2016 2017 2018 2019 기업가치 잠정 1500>
  • 3. Qraft Technologies, Inc. ROBO ADVISOR Market Share 3 STRICTLY CONFIDENTIAL 1.2조원 로보어드바이저 인더스트리 총 자산 ≥90% 크래프트 엔진 적용 국내 최대의 로보어드바이저 서비스 공급사
  • 4. Qraft Technologies, Inc. AI ETF 4 STRICTLY CONFIDENTIAL 세계 최초 글로벌 AI ETF 상장 & 국내 최초 AI ETF 뉴욕증시 상장 예정
  • 5. Qraft Technologies, Inc. AI EXECUTION AXE Challenge 5 STRICTLY CONFIDENTIAL • 실거래 성과 측정 기간: 2018.11.14 ~ 22 ( 총 7거래일 ) • 총매수금액: 2,536,275,830 원 (코스피 200 중 70종목) • 일평균 매수금액: 362,325,119 원 • 시장 VWAP 대비 총 절감금액 : 1,217,412 원 • 대회기간 평균 절감 비율: VWAP 대비 5bps 절감 국내 최초 AI 주문집행 시스템 개발
  • 6. Qraft Technologies, Inc. AI ETF NVIDIA GTC 2018 6 STRICTLY CONFIDENTIAL
  • 7. Qraft Technologies, Inc. 7 발표자 소개 문효준 現) 크래프트 테크놀로지스 AI리서치팀 팀장 1. 강화학습 기반 주문집행알고리즘 AXE 프로젝트 PM 2. US AI Enhanced ETF PM (4월초 뉴욕증시 상장) 3. Deep Asset Allocation PM (연기금 프로젝트) 4. AXE for Scheduling (Currency, Commodity) PM 5. 로보어드바이저 고도화 프로젝트 6. NLP 기반 US 인덱스 프로젝트
  • 8. Qraft Technologies, Inc. 8 금융 + 딥러닝 = ? 왜 대부분은 기업에서 금융과 딥러닝을 접목시키는데 실패할까요? Garbage In, Garbage Out 금융 데이터는 딥러닝을 적용하기에 최악의 구조
  • 9. Qraft Technologies, Inc. 9 문제점 1. 시계열 Feature 자체의 노이즈
  • 10. Qraft Technologies, Inc. 일반적으로 주가 모델링은 기하브라운모형 (GBM)을 가정하지만, 근본적으로 AR(1)과 크게 다르지 않으므로 편의를 위해 AR(1) 모형에서 시작해 조금만 변형해봅시다. 𝑦𝑡+1 = 𝑦𝑡 + 𝑥𝑡 + 𝜖 𝑡 다음 주가 = 현재주가 + 정보 + 노이즈 10 예시) 수익률 데이터 -0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 1986-01-01 1987-08-01 1989-03-01 1990-10-01 1992-05-01 1993-12-01 1995-07-01 1997-02-01 1998-09-01 2000-04-01 2001-11-01 2003-06-01 2005-01-01 2006-08-01 2008-03-01 2009-10-01 2011-05-01 2012-12-01 2014-07-01 2016-02-01 2017-09-01 Equity (MSCI World) 0 1000 2000 3000 4000 5000 6000 7000 1985-12-01 1987-12-01 1989-12-01 1991-12-01 1993-12-01 1995-12-01 1997-12-01 1999-12-01 2001-12-01 2003-12-01 2005-12-01 2007-12-01 2009-12-01 2011-12-01 2013-12-01 2015-12-01 2017-12-01 Equity (MSCI World) 하지만 𝜖 𝑡가 차지하는 요소 > 𝑥𝑡가 차지하는 요소 노이즈 > 정보량 딥러닝 모형이 포착해야 함
  • 11. Qraft Technologies, Inc. 𝑦𝑡+1 = 𝑦𝑡 + 𝑥 𝑡 + 𝜖 𝑡 다음 주가 = 현재주가 + 정보 + 노이즈 노이즈로 인해 상대적으로 𝑦𝑡+1 = 𝑦𝑡 + 𝜖 𝑡 처럼 되고 결과적으로 다음값에 대한 최선의 예측값은 현재값. 11 예시) 수익률 데이터 LSTM을 이용한 주가 예측 잘 예측하는 것 같지만, 실질적으로 오른쪽으로 Lagging
  • 12. Qraft Technologies, Inc. 12 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이
  • 13. Qraft Technologies, Inc. 13 예시) 자산배분문제 Q : 요즘 같은 경제 상황에서는 어떤 자산군에 어떻게 투자 해야할까요 ? A : 음… 주식 60%, 채권 30%, 금 10% ? 주식 채권 금 주식 채권 금
  • 14. Qraft Technologies, Inc. 14 자산배분을 위해 고려해야할 요소 금, 채권, 주식, 리츠, 원자재, … 등 수많은 자산군 데이터 금리, 인플레이션, 장단기금리차, … 등 수많은 매크로 데이터 필요한 High Level Feature ? 자산군 모멘텀 효과 자산군 평균회귀 효과 확장적 통화정책, 긴축적 통화정책 분류 단기부채사이클, 장기부채사이클 파악 … → 주로 Monthly Frequency 데이터에서 추출
  • 15. Qraft Technologies, Inc. 15 40년 데이터 = 겨우 480개의 Sequence 길이 (Monthly Frequency 기준) 고려할 수 있는 요소는 수십 ~ 수백개인데, 고려할 수 있는 데이터 길이는 너무 짧음 → 차원의 저주
  • 16. Qraft Technologies, Inc. 16 문제점 3. 문제점 1과 문제점 2로 인한 Overfitting
  • 17. Qraft Technologies, Inc. 17 문제점 1. 시계열 Feature 자체의 노이즈 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 문제점 3. 문제점 1과 문제점 2로 인한 Overfitting 어떻게 해결할 것인가? 차례대로 해결해봅시다.
  • 18. Qraft Technologies, Inc. 18 문제점 1. 시계열 Feature 자체의 노이즈 Time-series denoising 1. Moving Average (MA, EMA, … ) 2. Bilateral Filter
  • 19. Qraft Technologies, Inc. 19 문제점 1. 시계열 Feature 자체의 노이즈 Time-series denoising Moving Average, Bilateral Filter → 학습 개선 효과 존재 하지만 학습 과정에서 자동적으로 노이즈를 제거할 수 있는 방법은 없을까? CNN Stacked AutoEncoder 기반 Denoising Module Inputdata Feature Extraction Network output AutoEncoder Loss 기존 지도학습에서의 Loss + AutoEncoder Loss → Gradient Descent
  • 20. Qraft Technologies, Inc. 20 문제점 1. 시계열 Feature 자체의 노이즈 Time-series denoising CNN Stacked AutoEncoder 시각화
  • 21. Qraft Technologies, Inc. 21 문제점 1. 시계열 Feature 자체의 노이즈 Time-series denoising CNN Stacked AutoEncoder 시각화
  • 22. Qraft Technologies, Inc. 22 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 데이터 생성 ? → GAN 기반 데이터 생성. 개별적인 생성은 가능하지만, 전체 시계열의 상관성을 고려한 생성은 어려움 데이터 생성도 어렵고, 실제 데이터가 부족한데 어떻게 모델을 학습시킬 것인가 …? 거꾸로 생각해보기 이런 상황에서 기존 퀀트들은 모델을 어떤 식을 만들었는가?
  • 23. Qraft Technologies, Inc. 23 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 기존 퀀트가 모델을 만드는 방식 (간접적으로라도) 경제적 함의점을 내포하는 모델 설계 경제적 함의점까지 고려하는 직관 자체를 모델링 하는 건 (아마도) 불가능 데이터 직관 모델 포트폴리오 생성
  • 24. Qraft Technologies, Inc. 24 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 기존 퀀트가 모델을 만드는 방식 (간접적으로라도) 경제적 함의점을 내포하는 모델 설계 데이터 직관 모델 포트폴리오 생성 f(x) f(x)는 주로 선형적인 모델 단순 선형 모형에서 딥러닝으로 최적의 함수 추정 예를 들어 Momentum Factor 모델링 12 Month Price Data → Model → 12-1M → Momentum
  • 25. Qraft Technologies, Inc. 25 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 사례) Dynamic Factor Rotation (Timing) Data source : AQR Data Library 일정하지 않은 팩터 알파
  • 26. Qraft Technologies, Inc. 26 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 사례) Dynamic Factor Rotation (Timing)
  • 27. Qraft Technologies, Inc. Simulation with train data set during training As time goes by, AI model learns to optimally allocate factors with train data set At first, it is similar to equal factor weight model - : AI Factor Rotation Model - : Equal Factor Model (1980 ~ 2005) 27 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 사례) Dynamic Factor Rotation (Timing)
  • 28. Qraft Technologies, Inc. 28 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 사례) Dynamic Factor Rotation (Timing) Simulation with test data set during training As times goes by, AI model learns to optimally allocate factors with test data set At first, it is similar to equal factor weight model - : AI Factor Rotation Model - : Equal Factor Model (2006 ~ 2018) Paired t-test p-value : 0.00263132
  • 29. Qraft Technologies, Inc. 29 문제점 2. 시계열 Feature 종류 대비 짧은 시계열 길이 사례) Dynamic Factor Rotation (Timing) August 2011 (Black Monday) : High ‘Low Risk’ weight 2007 – 2008 (Financial Crisis) : High ‘Quality Factor’ weight
  • 30. Qraft Technologies, Inc. 30 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 문제점 1과 문제점 2를 어느 정도 해결하더라도 여전히 Overfitting 발생 그렇다면 어떻게 Overfitting을 최소화할 것인가? 1.Asynchronous Multi Network Learning 2.Bayesian Inference
  • 31. Qraft Technologies, Inc. 31 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 1. Asynchronous Multi Network Learning 비슷한 Cost이지만 다른 오버피팅 정도 → Weight Initialization에 따라 다르게 수렴 일반적으로 데이터가 부족해 단순 L1, L2 Norm을 적용시킬 수 없음
  • 32. Qraft Technologies, Inc. 32 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 1. Asynchronous Multi Network Learning Thread가 개별적으로 초기화된 각 네트워크를 가지고, 여러 네트워크를 동시에 학습 시작
  • 33. Qraft Technologies, Inc. 33 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 1. Asynchronous Multi Network Learning Training 중 Test data를 가지고 오버피팅 체크를 하게 되면 Look-ahead bias 발생 따라서 별도의 validation data로 오버피팅 감지 training validation test 1. N개의 쓰레드로 네트워크 개별 초기화 2. K iteration 후 validation data로 오버피팅 검증 후 하위 X개 제거 3. 새롭게 초기화된 X개의 네트워크 투입 4. Validation에서 원하는 수준까지 수렴할 때까지 반복 5. 잔여모델 Test에서 앙상블 후 모델 최종 검증 → 효과적인 오버피팅 방지 (전 Factor Rotation 사례에서 검증)
  • 34. Qraft Technologies, Inc. 34 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 2. Bayesian Inference 관찰하지 못한 데이터구간 → Validation에서도 관찰이 불가능하다면, 오버피팅보다는 모른다고 결과를 내는 것이 효과적
  • 35. Qraft Technologies, Inc. 35 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 2. Bayesian Inference 어떻게 모른다고 결과를 낼 것인가? Uncertainty Quantification 1. Monte Carlo Dropout (Gal, Y., & Ghahramani, Z. (2016, June). Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In international conference on machine learning (pp. 1050-1059) 2. Monte Carlo Batch Normalization (Teye, M., Azizpour, H., & Smith, K. (2018). Bayesian uncertainty estimation for batch normalized deep networks. arXiv preprint arXiv:1802.06455) 2. Deep Learning Regression + Gaussian Process Regression 선지도학습 후 GPR 학습 → 가장 심플하고 적용하기 간단
  • 36. Qraft Technologies, Inc. 36 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 2. Bayesian Inference Qraft Currency Hedge Engine – MC Dropout 적용 예시
  • 37. Qraft Technologies, Inc. 37 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 2. Bayesian Inference MC Dropout → Tau, Dropout rate, Activation에 따른 영향도 높다는 단점
  • 38. Qraft Technologies, Inc. 38 문제점 3. 그럼에도 불구하고 발생하는 Overfitting 2. Bayesian Inference 어떻게 모른다고 결과를 낼 것인가? Uncertainty Quantification 1. Monte Carlo Dropout (Gal, Y., & Ghahramani, Z. (2016, June). Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In international conference on machine learning (pp. 1050-1059) 2. Monte Carlo Batch Normalization (Teye, M., Azizpour, H., & Smith, K. (2018). Bayesian uncertainty estimation for batch normalized deep networks. arXiv preprint arXiv:1802.06455) 2. Deep Learning Regression + Gaussian Process Regression 선지도학습 후 GPR 학습 → 가장 심플하고 적용하기 간단 선형 독립적으로 노드들이 Representation Learning이 잘 됐다는 가정 하에 효과적인 GPR 학습 가능