SlideShare uma empresa Scribd logo
1 de 44
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Amanda Quinto & Bruno Silveira
Arquitetos do Time de Setor Publico da AWS Brasil
20 de Outubro de 2020
Expandindo seu Data Lake na AWS
Ingestão e Armazenamento
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Agenda
O que é um Data Lake na AWS?
A importância na escolha do Armazenamento
Fontes de Dados e Ingestão naAWS
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Data Lake na AWS
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Trabalhando com Data Lake
Catalog & Search Access & User Interfaces
Data Ingestion
Analytics & Serving
S3
Amazon
DynamoDB
Amazon Elasticsearch
Service
AWS
AppSync
Amazon
API Gateway
Amazon
Cognito
AWS
KMS
AWS
CloudTrail
Manage & Secure
AWS
IAM
Amazon
CloudWatch
AWS
Snowball
AWS Storage
Gateway
Amazon
Kinesis Data
Firehose
AWS Direct
Connect
AWS Database
Migration
Service
Amazon
Elasticsearch
Service
Central Storage
Scalable, secure, cost-effective
AWS
Glue
AWS
DataSync AWS Transfer
for SFTP
Amazon S3 Transfer
Acceleration
Amazon
Athena
Amazon
EMR
AWS
Glue
Amazon
Redshift
Amazon
DynamoDB
Amazon
QuickSight
Amazon
Neptune
Amazon
RDS
Amazon
Kinesis
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Trabalhando com Data Lake
Catalog & Search Access & User Interfaces
Data Ingestion
Analytics & Serving
S3
Amazon
DynamoDB
Amazon Elasticsearch
Service
AWS
AppSync
Amazon
API Gateway
Amazon
Cognito
AWS
KMS
AWS
CloudTrail
Manage & Secure
AWS
IAM
Amazon
CloudWatch
Amazon
Athena
Amazon
EMR
AWS
Glue
Amazon
Redshift
Amazon
DynamoDB
Amazon
QuickSight
Amazon
Elasticsearch
Service
Amazon
Neptune
Amazon
RDS
Central Storage
Scalable, secure, cost-effective
AWS
Glue
AWS
Snowball
AWS Storage
Gateway
Amazon
Kinesis Data
Firehose
AWS Direct
Connect
AWS Database
Migration
Service
AWS Transfer
for SFTP
Amazon S3 Transfer
Acceleration
Amazon
Kinesis
AWS
DataSync
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Ingestão de Multiplas Fontes de Dados
s3://datalake/
/vendorfeeds
/vendorA
/vendorB
/clickstream
/orders
/vendors
/customers
/app_logs
/instance1
/instance2
/syslogs
/instance1
/instance2
/databases
/customers
/orders
/vendors
API Gateway
KinesisAgent
DMS
Kinesis Data Firehose
Amazon S3
Files
Streams
Logs
Databases
AWS Snowball
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Amazon Simple Storage Service
Construído para armazenar qualquer quantidade de dados
Funciona na maior infraestrutura de nuvem global do
mundo
Projetado para oferecer durabilidade de 99,999999999%
Redundância geográfica e replicação automática
Armazenamento em camadas para otimizar preço /
desempenho
S3
Standard Glacier
Active Infrequent Archive
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Fontes de Dados
Arquivos LogsStreams Banco de Dados
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Arquivos
Amazon S3Files
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Ingestão de Multiplas Fontes de Dados
s3://datalake/
/vendorfeeds
/vendorA
/vendorB
/clickstream
/orders
/vendors
/customers
/app_logs
/instance1
/instance2
/syslogs
/instance1
/instance2
/databases
/customers
/orders
/vendors
API Gateway
KinesisAgent
DMS
Kinesis Data Firehose
Amazon S3
Files
Streams
Logs
Databases
AWS Snowball
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Upload no Amazon S3
Amazon S3 oferece suporte para single-part
upload e uma API de multi-part upload
O single-part upload suporta objetos de até 5
GB de tamanho
O multi-part upload suporta objetos de até 5
TB de tamanho
O multi-part upload também permite que
você maximize seu rendimento usando
threads paralelas
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
As solicitações PUT passam pelo local de borda
AWS mais próximo
Os dados transitam pela rede privada AWS, em
vez da Internet
A rede privada da AWS otimiza a taxa de
transferência e a latência para a região da AWS
Os dados não são armazenados no cache de
borda
S3Transfer Acceleration
S3 bucket
AWS edge
location
Uploader
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
S3 Batch Operations
Manage billions of objects at scale, change object properties, perform storage management tasks
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
AWS Snowball/Snowmobile
Use Case AWS Solution
Cloud Migration, Disaster
Recovery
AWS Snowball
Internet ofThings (IoT), Remote
Remote Locations
AWS Snowball Edge
Migrating Exabytes of Data AWS Snowmobile
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Streams
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Ingestão de Multiplas Fontes de Dados
s3://datalake/
/vendorfeeds
/vendorA
/vendorB
/clickstream
/orders
/vendors
/customers
/app_logs
/instance1
/instance2
/syslogs
/instance1
/instance2
/databases
/customers
/orders
/vendors
API Gateway
KinesisAgent
DMS
Kinesis Data Firehose
Amazon S3
Files
Streams
Logs
Databases
AWS Snowball
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Streams
Coletando e Analisando
• Amazon Kinesis
• Amazon Managed Streaming for Kafka (MSK)
• Examplo: Clickstream Analytics
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Colete, processe e analise facilmente streams de vídeo e dados em tempo real
Carregar stream de
dados em
armazenamentos de
dados AWS
Kinesis Data
Firehose
Crie aplicativos
personalizados que
analisam stream de
dados
Kinesis Data
Streams
Capture, processe e
armazene streams de
vídeo para análise
KinesisVideo
Streams
Analise streams de dados
com SQL
Kinesis Data
Analytics
Amazon Kinesis –Tempo Real
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Kinesis –Varias integrações
Put* APIs
LOG4J
Flume
Fluentd
Get* APIs
Apache Storm
Amazon Elastic MapReduce
(EMR)
Produzindo
Consumindo
AWS Mobile SDK
Kinesis Producer Library
AWS Lambda
Apache Spark
Kinesis Streams
Kinesis Consumer Library
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Kinesis – Como funciona?
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Kinesis – Como funciona?
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Amazon Managed Streaming for Kafka (MSK)
Totalmente compatível com Apache Kafka v1.1.1
AWS Management Console e AWS API para provisionamento
Os clusters são configurados automaticamente
Provisione brokers e armazenamento Apache Kafka
Crie e remova clusters sob demanda
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Comparando Amazon Kinesis Data Streams to MSK
Amazon Kinesis Data Streams Amazon MSK
Newest dataOldest data
50 1 2 3 4
0 1 2 3
0 1 2 3 4
Shard 2
Shard 1
Shard 3
Writes from
Producers
Stream with 3 shards
Newest dataOldest data
50 1 2 3 4
0 1 2 3
0 1 2 3 4
Partition 2
Partition 1
Partition 3
Writes from
Producers
Topic with 3 partitions
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Comparando Amazon Kinesis Data Streams to MSK
• Experiência API AWS
• Modelo de provisionamento de taxa
de transferência
• Dimensionamento contínuo
• Custos normalmente mais baixos
• Integrações nativas AWS
• Compatibilidade opensource
• Modelo de provisionamento de
cluster
• O dimensionamento do Apache
Kafka não é fácil para os clientes
• Desempenho bruto
Amazon Kinesis Data Streams Amazon MSK
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
API Gateway
Kinesis
Data Stream
Kinesis Data Firehose
Kinesis
DataAnalytics
Kinesis Data Firehose
Amazon S3
Kinesis
Data Stream
Lambda
Taxas de conversão
Anomalias
SNS
Clickstream com Analytics emTempo Real
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
DEMO
Amazon S3Files
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Logs
Amazon S3Files
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Ingestão de Multiplas Fontes de Dados
s3://datalake/
/vendorfeeds
/vendorA
/vendorB
/clickstream
/orders
/vendors
/customers
/app_logs
/instance1
/instance2
/syslogs
/instance1
/instance2
/databases
/customers
/orders
/vendors
API Gateway
KinesisAgent
DMS
Kinesis Data Firehose
Amazon S3
Files
Streams
Logs
Databases
AWS Snowball
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Logs
Coletando e Analisando
AmazonCloudWatch
Amazon Kinesis
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Logs – CloudWatch Agent
EC2 Instances
CloudWatch Log Stream AWS Lambda Amazon S3
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Logs – Kinesis Agent
Amazon S3Kinesis Data Firehose
EC2 InstancesWith Kinesis Agent
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Logs – Kinesis Agent (with Analytics)
Amazon S3
EC2 Instances
Kinesis Data Stream
Kinesis Data FirehoseKinesis DataAnalytics
Kinesis Data Firehose
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Bancos de Dados
Amazon S3Databases
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Ingestão de Multiplas Fontes de Dados
s3://datalake/
/vendorfeeds
/vendorA
/vendorB
/clickstream
/orders
/vendors
/customers
/app_logs
/instance1
/instance2
/syslogs
/instance1
/instance2
/databases
/customers
/orders
/vendors
API Gateway
KinesisAgent
DMS
Kinesis Data Firehose
Amazon S3
Files
Streams
Logs
Databases
AWS Snowball
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
AWS Database Migration Service
Sources* Targets*
Oracle Oracle
SQL Server SQL Server
Azure SQL PostgreSQL
PostgreSQL MySQL
MySQL Amazon Redshift
SAP ASE SAP ASE
MongoDB Amazon S3
Amazon S3 Amazon DynamoDB
IBM DB2 Amazon Kinesis
Amazon ElasticSearch
Consult CHAP_Source.html and CHAP_Target.html pages for latest
DMS sources and targets
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Change Data Capture
Techniques to Capture Changes
• Timestamp
• Diff Comparison
• Triggers
• Transaction Log
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
AWS Database Migration Service (AWS DMS) migre e/ ou
replique de forma fácil e segura seus bancos de dados e data
warehouses para AWS
AWS Schema ConversionTool (AWS SCT) converta seu banco de
dados comercial e esquemas de armazém de dados em mecanismos
de código aberto ou serviços nativos, como Amazon Aurora e
Redshift
Database Migration Service
(Também bom para ingestão!)
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Modernize Migre Replique
Modernize sua camada de banco de dados –
• Comercial para open-source
• Comercial para Amazon Aurora
Modernize seu DataWarehoue –
• Commercial para Redshift
• Migrar aplicativos essenciais aos
negócios
• Migrar do clássico para oVPC
• Migrar data warehouse para Redshift
• Atualize para uma versão secundária
• Crie réplicas de leitura entre regiões
• Execute suas análises na nuvem
• Mantenha a sincronização do ambiente
de desenvolvimento/teste e produção
Quando usar DMS e SCT?
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
DMS – Deployment
Amazon S3
Availability Zone Availability Zone
VPC subnet VPC subnet
Replication
Primary
Replication
Secondary
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Bulk File
s3://mybucket/schemaName/tableName
s3://mybucket/hr/employee
/schemaName/tableName/LOAD001.csv
/schemaName/tableName/LOAD002.csv
/schemaName/tableName/LOAD003.csv
...
101,Smith,Bob,4-Jun-14,New York
102,Smith,Bob,8-Oct-15,Los Angeles
103,Smith,Bob,13-Mar-17,Dallas
104,Smith,Bob,13-Mar-17,Dallas
Ongoing CDC Files
s3://mybucket/schemaName/tableName
<time-stamp>.csv
<time-stamp>.csv
<time-stamp>.csv
...
I,101,Smith,Bob,4-Jun-14,New York
U,101,Smith,Bob,8-Oct-15,Los Angeles
U,101,Smith,Bob,13-Mar-17,Dallas
D,101,Smith,Bob,13-Mar-17,Dallas
DMS – S3 como Destino
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Opções para transferência de dados
AWS
Direct Connect
Amazon Kinesis
Data Firehose
AWS
Snowball
AWS Snowmobile
AWS
Storage
Gateway
Amazon S3
Transfer
Acceleration
AWS
DataSync
AWSTransfer
for SFTP
AWS
Snowball Edge
Amazon Kinesis
Data Streams
Amazon Kinesis
Video Streams
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Data Immersion Month
Quarta-feira (21/10) - Webinar - Planeje e entenda como criar um
repositório de dados de maneira segura e seguindo boas práticas
de governança
Quinta-feira (22/10) - Webinar - Entenda como a AWS pode te
ajudar em obter respostas com dados e AI/ML
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Q&A
Amanda Quinto & Bruno Silveira
© 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved.
Obrigada!

Mais conteúdo relacionado

Mais procurados

Getting Started with Containers on AWS
Getting Started with Containers on AWSGetting Started with Containers on AWS
Getting Started with Containers on AWSAmazon Web Services
 
Os benefícios de realizar backup na nuvem AWS
Os benefícios de realizar backup na nuvem AWSOs benefícios de realizar backup na nuvem AWS
Os benefícios de realizar backup na nuvem AWSAmazon Web Services LATAM
 
AWS Chicago user group: AWS Platform for .NET Developers
AWS Chicago user group: AWS Platform for .NET DevelopersAWS Chicago user group: AWS Platform for .NET Developers
AWS Chicago user group: AWS Platform for .NET DevelopersAWS Chicago
 
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...Amazon Web Services Korea
 
Sessão Avançada: VMware Cloud na AWS - ENT204 - Sao Paulo Summit
Sessão Avançada: VMware Cloud na AWS -  ENT204 - Sao Paulo SummitSessão Avançada: VMware Cloud na AWS -  ENT204 - Sao Paulo Summit
Sessão Avançada: VMware Cloud na AWS - ENT204 - Sao Paulo SummitAmazon Web Services
 
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online SeriesAmazon Web Services Korea
 
AWS Summit 2011: Overview of Security and Compliance in the cloud
AWS Summit 2011: Overview of Security and Compliance in the cloudAWS Summit 2011: Overview of Security and Compliance in the cloud
AWS Summit 2011: Overview of Security and Compliance in the cloudAmazon Web Services
 
AWS Compute Evolved Week: Running Kubernetes on AWS
AWS Compute Evolved Week: Running Kubernetes on AWSAWS Compute Evolved Week: Running Kubernetes on AWS
AWS Compute Evolved Week: Running Kubernetes on AWSAmazon Web Services
 
Azure vmware solutions para partners
Azure vmware solutions para partnersAzure vmware solutions para partners
Azure vmware solutions para partnersskadobayashi
 
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS Summit
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS SummitAWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS Summit
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS SummitAmazon Web Services
 
Amazon web service
Amazon web serviceAmazon web service
Amazon web serviceParas Arora
 
Well-Architected for Security: Advanced Session
Well-Architected for Security: Advanced SessionWell-Architected for Security: Advanced Session
Well-Architected for Security: Advanced SessionAmazon Web Services
 
AWS User Group UK re:Invent re:Cap
AWS User Group UK re:Invent re:CapAWS User Group UK re:Invent re:Cap
AWS User Group UK re:Invent re:CapIan Massingham
 
Databases - EBC on the road Brazil Edition [Portuguese]
Databases - EBC on the road Brazil Edition [Portuguese]Databases - EBC on the road Brazil Edition [Portuguese]
Databases - EBC on the road Brazil Edition [Portuguese]Amazon Web Services
 
Deploy Golang WebApp dengan AWS App Runner
Deploy Golang WebApp dengan AWS App RunnerDeploy Golang WebApp dengan AWS App Runner
Deploy Golang WebApp dengan AWS App RunnerRio Astamal
 
Amazon Web Services
Amazon Web ServicesAmazon Web Services
Amazon Web ServicesAndrew Wong
 
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...Amazon Web Services Korea
 
AWSome Day Glasgow | Technical Track
AWSome Day Glasgow | Technical TrackAWSome Day Glasgow | Technical Track
AWSome Day Glasgow | Technical TrackAmazon Web Services
 

Mais procurados (20)

Getting Started with Containers on AWS
Getting Started with Containers on AWSGetting Started with Containers on AWS
Getting Started with Containers on AWS
 
Os benefícios de realizar backup na nuvem AWS
Os benefícios de realizar backup na nuvem AWSOs benefícios de realizar backup na nuvem AWS
Os benefícios de realizar backup na nuvem AWS
 
AWS Chicago user group: AWS Platform for .NET Developers
AWS Chicago user group: AWS Platform for .NET DevelopersAWS Chicago user group: AWS Platform for .NET Developers
AWS Chicago user group: AWS Platform for .NET Developers
 
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...
AWS Media Day-AWS 기반의 미디어 & 엔터테인먼트 워크플로우 소개(Ben Masek 미디어 엔터테인먼트 부서 (M&E) 글로벌...
 
Sessão Avançada: VMware Cloud na AWS - ENT204 - Sao Paulo Summit
Sessão Avançada: VMware Cloud na AWS -  ENT204 - Sao Paulo SummitSessão Avançada: VMware Cloud na AWS -  ENT204 - Sao Paulo Summit
Sessão Avançada: VMware Cloud na AWS - ENT204 - Sao Paulo Summit
 
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series
마이크로 서비스 아키텍처와 앱 모던화 – 김일호 :: AWS Builders Online Series
 
AWS Summit 2011: Overview of Security and Compliance in the cloud
AWS Summit 2011: Overview of Security and Compliance in the cloudAWS Summit 2011: Overview of Security and Compliance in the cloud
AWS Summit 2011: Overview of Security and Compliance in the cloud
 
AWS Compute Evolved Week: Running Kubernetes on AWS
AWS Compute Evolved Week: Running Kubernetes on AWSAWS Compute Evolved Week: Running Kubernetes on AWS
AWS Compute Evolved Week: Running Kubernetes on AWS
 
Azure vmware solutions para partners
Azure vmware solutions para partnersAzure vmware solutions para partners
Azure vmware solutions para partners
 
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS Summit
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS SummitAWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS Summit
AWS PrivateLink: Fundamentals - SRV211 - Anaheim AWS Summit
 
Amazon web service
Amazon web serviceAmazon web service
Amazon web service
 
Well-Architected for Security: Advanced Session
Well-Architected for Security: Advanced SessionWell-Architected for Security: Advanced Session
Well-Architected for Security: Advanced Session
 
AWS User Group UK re:Invent re:Cap
AWS User Group UK re:Invent re:CapAWS User Group UK re:Invent re:Cap
AWS User Group UK re:Invent re:Cap
 
Databases - EBC on the road Brazil Edition [Portuguese]
Databases - EBC on the road Brazil Edition [Portuguese]Databases - EBC on the road Brazil Edition [Portuguese]
Databases - EBC on the road Brazil Edition [Portuguese]
 
Lanzando tu primera cargo de trabajo
Lanzando tu primera cargo de trabajoLanzando tu primera cargo de trabajo
Lanzando tu primera cargo de trabajo
 
Deploy Golang WebApp dengan AWS App Runner
Deploy Golang WebApp dengan AWS App RunnerDeploy Golang WebApp dengan AWS App Runner
Deploy Golang WebApp dengan AWS App Runner
 
Getting Started on AWS
Getting Started on AWS Getting Started on AWS
Getting Started on AWS
 
Amazon Web Services
Amazon Web ServicesAmazon Web Services
Amazon Web Services
 
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...
콘텐츠는 여전히 왕이다  - 클라우드를 통한 미디어 자산 관리와 공급망 혁신, SM Entertainment의 Digital Library...
 
AWSome Day Glasgow | Technical Track
AWSome Day Glasgow | Technical TrackAWSome Day Glasgow | Technical Track
AWSome Day Glasgow | Technical Track
 

Semelhante a AWS Data Immersion Webinar Week - Entenda como ampliar suas possibilidades de uso do seu DataLake

Big Data per le Startup: come creare applicazioni Big Data in modalità Server...
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...Big Data per le Startup: come creare applicazioni Big Data in modalità Server...
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...Amazon Web Services
 
AWS Lake Formation Deep Dive
AWS Lake Formation Deep DiveAWS Lake Formation Deep Dive
AWS Lake Formation Deep DiveCobus Bernard
 
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...Amazon Web Services
 
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptx
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptxSupply Chain Data Lake - Kartik Medha AWS Chicago.pptx
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptxAWS Chicago
 
AWS Portfolio: highlight delle categorie di prodotti AWS con esempi
AWS Portfolio: highlight delle categorie di prodotti AWS con esempiAWS Portfolio: highlight delle categorie di prodotti AWS con esempi
AWS Portfolio: highlight delle categorie di prodotti AWS con esempiAmazon Web Services
 
Scale - Best Practices for Migrating your Microsoft Workloads to AWS
Scale - Best Practices for Migrating your Microsoft Workloads to AWSScale - Best Practices for Migrating your Microsoft Workloads to AWS
Scale - Best Practices for Migrating your Microsoft Workloads to AWSAmazon Web Services
 
Building a Modern Data Platform in the Cloud
Building a Modern Data Platform in the CloudBuilding a Modern Data Platform in the Cloud
Building a Modern Data Platform in the CloudAmazon Web Services
 
Migrating Business Critical Applications to AWS
Migrating Business Critical Applications to AWSMigrating Business Critical Applications to AWS
Migrating Business Critical Applications to AWSAmazon Web Services
 
Migrating your IT - AWS Summit Cape Town 2018
Migrating your IT - AWS Summit Cape Town 2018Migrating your IT - AWS Summit Cape Town 2018
Migrating your IT - AWS Summit Cape Town 2018Amazon Web Services
 
Data Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaData Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaAmazon Web Services
 
Data Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaData Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaAmazon Web Services
 
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019AWSKRUG - AWS한국사용자모임
 
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...Amazon Web Services
 
Initiate Edinburgh 2019 - Migrating Data to the Cloud
Initiate Edinburgh 2019 - Migrating Data to the CloudInitiate Edinburgh 2019 - Migrating Data to the Cloud
Initiate Edinburgh 2019 - Migrating Data to the CloudAmazon Web Services
 
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWS
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWSServerless Architectural Patterns 
and Best Practices - Madhu Shekar - AWS
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWSCodeOps Technologies LLP
 
Building Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSBuilding Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSAmazon Web Services
 
Building Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSBuilding Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSAmazon Web Services
 
Serverless Computing How to Innovate Faster
Serverless Computing How to Innovate FasterServerless Computing How to Innovate Faster
Serverless Computing How to Innovate FasterAmazon Web Services
 

Semelhante a AWS Data Immersion Webinar Week - Entenda como ampliar suas possibilidades de uso do seu DataLake (20)

Big Data per le Startup: come creare applicazioni Big Data in modalità Server...
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...Big Data per le Startup: come creare applicazioni Big Data in modalità Server...
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...
 
AWS Lake Formation Deep Dive
AWS Lake Formation Deep DiveAWS Lake Formation Deep Dive
AWS Lake Formation Deep Dive
 
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...
Build a dashboard using serverless security analytics - SDD201 - AWS re:Infor...
 
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptx
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptxSupply Chain Data Lake - Kartik Medha AWS Chicago.pptx
Supply Chain Data Lake - Kartik Medha AWS Chicago.pptx
 
AWS Portfolio: highlight delle categorie di prodotti AWS con esempi
AWS Portfolio: highlight delle categorie di prodotti AWS con esempiAWS Portfolio: highlight delle categorie di prodotti AWS con esempi
AWS Portfolio: highlight delle categorie di prodotti AWS con esempi
 
Data_Analytics_and_AI_ML
Data_Analytics_and_AI_MLData_Analytics_and_AI_ML
Data_Analytics_and_AI_ML
 
Building-a-Data-Lake-on-AWS
Building-a-Data-Lake-on-AWSBuilding-a-Data-Lake-on-AWS
Building-a-Data-Lake-on-AWS
 
Scale - Best Practices for Migrating your Microsoft Workloads to AWS
Scale - Best Practices for Migrating your Microsoft Workloads to AWSScale - Best Practices for Migrating your Microsoft Workloads to AWS
Scale - Best Practices for Migrating your Microsoft Workloads to AWS
 
Building a Modern Data Platform in the Cloud
Building a Modern Data Platform in the CloudBuilding a Modern Data Platform in the Cloud
Building a Modern Data Platform in the Cloud
 
Migrating Business Critical Applications to AWS
Migrating Business Critical Applications to AWSMigrating Business Critical Applications to AWS
Migrating Business Critical Applications to AWS
 
Migrating your IT - AWS Summit Cape Town 2018
Migrating your IT - AWS Summit Cape Town 2018Migrating your IT - AWS Summit Cape Town 2018
Migrating your IT - AWS Summit Cape Town 2018
 
Data Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaData Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & Athena
 
Data Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & AthenaData Catalog & ETL - Glue & Athena
Data Catalog & ETL - Glue & Athena
 
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019
Lake Formation, 데이터레이크 관리와 운영을 하나로 :: 이재성 - AWS Community Day 2019
 
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...
Build Data Lakes & Analytics on AWS: Patterns & Best Practices - BDA305 - Ana...
 
Initiate Edinburgh 2019 - Migrating Data to the Cloud
Initiate Edinburgh 2019 - Migrating Data to the CloudInitiate Edinburgh 2019 - Migrating Data to the Cloud
Initiate Edinburgh 2019 - Migrating Data to the Cloud
 
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWS
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWSServerless Architectural Patterns 
and Best Practices - Madhu Shekar - AWS
Serverless Architectural Patterns 
and Best Practices - Madhu Shekar - AWS
 
Building Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSBuilding Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWS
 
Building Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWSBuilding Data Lakes and Analytics on AWS
Building Data Lakes and Analytics on AWS
 
Serverless Computing How to Innovate Faster
Serverless Computing How to Innovate FasterServerless Computing How to Innovate Faster
Serverless Computing How to Innovate Faster
 

Mais de Amazon Web Services LATAM

AWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAmazon Web Services LATAM
 
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAmazon Web Services LATAM
 
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.Amazon Web Services LATAM
 
AWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAmazon Web Services LATAM
 
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAmazon Web Services LATAM
 
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.Amazon Web Services LATAM
 
Automatice el proceso de entrega con CI/CD en AWS
Automatice el proceso de entrega con CI/CD en AWSAutomatice el proceso de entrega con CI/CD en AWS
Automatice el proceso de entrega con CI/CD en AWSAmazon Web Services LATAM
 
Automatize seu processo de entrega de software com CI/CD na AWS
Automatize seu processo de entrega de software com CI/CD na AWSAutomatize seu processo de entrega de software com CI/CD na AWS
Automatize seu processo de entrega de software com CI/CD na AWSAmazon Web Services LATAM
 
Ransomware: como recuperar os seus dados na nuvem AWS
Ransomware: como recuperar os seus dados na nuvem AWSRansomware: como recuperar os seus dados na nuvem AWS
Ransomware: como recuperar os seus dados na nuvem AWSAmazon Web Services LATAM
 
Ransomware: cómo recuperar sus datos en la nube de AWS
Ransomware: cómo recuperar sus datos en la nube de AWSRansomware: cómo recuperar sus datos en la nube de AWS
Ransomware: cómo recuperar sus datos en la nube de AWSAmazon Web Services LATAM
 
Aprenda a migrar y transferir datos al usar la nube de AWS
Aprenda a migrar y transferir datos al usar la nube de AWSAprenda a migrar y transferir datos al usar la nube de AWS
Aprenda a migrar y transferir datos al usar la nube de AWSAmazon Web Services LATAM
 
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWS
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWSAprenda como migrar e transferir dados ao utilizar a nuvem da AWS
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWSAmazon Web Services LATAM
 
Cómo mover a un almacenamiento de archivos administrados
Cómo mover a un almacenamiento de archivos administradosCómo mover a un almacenamiento de archivos administrados
Cómo mover a un almacenamiento de archivos administradosAmazon Web Services LATAM
 
Os benefícios de migrar seus workloads de Big Data para a AWS
Os benefícios de migrar seus workloads de Big Data para a AWSOs benefícios de migrar seus workloads de Big Data para a AWS
Os benefícios de migrar seus workloads de Big Data para a AWSAmazon Web Services LATAM
 

Mais de Amazon Web Services LATAM (20)

AWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvem
 
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
 
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
 
AWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvemAWS para terceiro setor - Sessão 1 - Introdução à nuvem
AWS para terceiro setor - Sessão 1 - Introdução à nuvem
 
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e BackupAWS para terceiro setor - Sessão 2 - Armazenamento e Backup
AWS para terceiro setor - Sessão 2 - Armazenamento e Backup
 
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
AWS para terceiro setor - Sessão 3 - Protegendo seus dados.
 
Automatice el proceso de entrega con CI/CD en AWS
Automatice el proceso de entrega con CI/CD en AWSAutomatice el proceso de entrega con CI/CD en AWS
Automatice el proceso de entrega con CI/CD en AWS
 
Automatize seu processo de entrega de software com CI/CD na AWS
Automatize seu processo de entrega de software com CI/CD na AWSAutomatize seu processo de entrega de software com CI/CD na AWS
Automatize seu processo de entrega de software com CI/CD na AWS
 
Cómo empezar con Amazon EKS
Cómo empezar con Amazon EKSCómo empezar con Amazon EKS
Cómo empezar con Amazon EKS
 
Como começar com Amazon EKS
Como começar com Amazon EKSComo começar com Amazon EKS
Como começar com Amazon EKS
 
Ransomware: como recuperar os seus dados na nuvem AWS
Ransomware: como recuperar os seus dados na nuvem AWSRansomware: como recuperar os seus dados na nuvem AWS
Ransomware: como recuperar os seus dados na nuvem AWS
 
Ransomware: cómo recuperar sus datos en la nube de AWS
Ransomware: cómo recuperar sus datos en la nube de AWSRansomware: cómo recuperar sus datos en la nube de AWS
Ransomware: cómo recuperar sus datos en la nube de AWS
 
Ransomware: Estratégias de Mitigação
Ransomware: Estratégias de MitigaçãoRansomware: Estratégias de Mitigação
Ransomware: Estratégias de Mitigação
 
Ransomware: Estratégias de Mitigación
Ransomware: Estratégias de MitigaciónRansomware: Estratégias de Mitigación
Ransomware: Estratégias de Mitigación
 
Aprenda a migrar y transferir datos al usar la nube de AWS
Aprenda a migrar y transferir datos al usar la nube de AWSAprenda a migrar y transferir datos al usar la nube de AWS
Aprenda a migrar y transferir datos al usar la nube de AWS
 
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWS
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWSAprenda como migrar e transferir dados ao utilizar a nuvem da AWS
Aprenda como migrar e transferir dados ao utilizar a nuvem da AWS
 
Cómo mover a un almacenamiento de archivos administrados
Cómo mover a un almacenamiento de archivos administradosCómo mover a un almacenamiento de archivos administrados
Cómo mover a un almacenamiento de archivos administrados
 
Simplifique su BI con AWS
Simplifique su BI con AWSSimplifique su BI con AWS
Simplifique su BI con AWS
 
Simplifique o seu BI com a AWS
Simplifique o seu BI com a AWSSimplifique o seu BI com a AWS
Simplifique o seu BI com a AWS
 
Os benefícios de migrar seus workloads de Big Data para a AWS
Os benefícios de migrar seus workloads de Big Data para a AWSOs benefícios de migrar seus workloads de Big Data para a AWS
Os benefícios de migrar seus workloads de Big Data para a AWS
 

AWS Data Immersion Webinar Week - Entenda como ampliar suas possibilidades de uso do seu DataLake

  • 1. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Amanda Quinto & Bruno Silveira Arquitetos do Time de Setor Publico da AWS Brasil 20 de Outubro de 2020 Expandindo seu Data Lake na AWS Ingestão e Armazenamento
  • 2. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Agenda O que é um Data Lake na AWS? A importância na escolha do Armazenamento Fontes de Dados e Ingestão naAWS
  • 3. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Data Lake na AWS
  • 4. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Trabalhando com Data Lake Catalog & Search Access & User Interfaces Data Ingestion Analytics & Serving S3 Amazon DynamoDB Amazon Elasticsearch Service AWS AppSync Amazon API Gateway Amazon Cognito AWS KMS AWS CloudTrail Manage & Secure AWS IAM Amazon CloudWatch AWS Snowball AWS Storage Gateway Amazon Kinesis Data Firehose AWS Direct Connect AWS Database Migration Service Amazon Elasticsearch Service Central Storage Scalable, secure, cost-effective AWS Glue AWS DataSync AWS Transfer for SFTP Amazon S3 Transfer Acceleration Amazon Athena Amazon EMR AWS Glue Amazon Redshift Amazon DynamoDB Amazon QuickSight Amazon Neptune Amazon RDS Amazon Kinesis
  • 5. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Trabalhando com Data Lake Catalog & Search Access & User Interfaces Data Ingestion Analytics & Serving S3 Amazon DynamoDB Amazon Elasticsearch Service AWS AppSync Amazon API Gateway Amazon Cognito AWS KMS AWS CloudTrail Manage & Secure AWS IAM Amazon CloudWatch Amazon Athena Amazon EMR AWS Glue Amazon Redshift Amazon DynamoDB Amazon QuickSight Amazon Elasticsearch Service Amazon Neptune Amazon RDS Central Storage Scalable, secure, cost-effective AWS Glue AWS Snowball AWS Storage Gateway Amazon Kinesis Data Firehose AWS Direct Connect AWS Database Migration Service AWS Transfer for SFTP Amazon S3 Transfer Acceleration Amazon Kinesis AWS DataSync
  • 6. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Ingestão de Multiplas Fontes de Dados s3://datalake/ /vendorfeeds /vendorA /vendorB /clickstream /orders /vendors /customers /app_logs /instance1 /instance2 /syslogs /instance1 /instance2 /databases /customers /orders /vendors API Gateway KinesisAgent DMS Kinesis Data Firehose Amazon S3 Files Streams Logs Databases AWS Snowball
  • 7. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Amazon Simple Storage Service Construído para armazenar qualquer quantidade de dados Funciona na maior infraestrutura de nuvem global do mundo Projetado para oferecer durabilidade de 99,999999999% Redundância geográfica e replicação automática Armazenamento em camadas para otimizar preço / desempenho S3 Standard Glacier Active Infrequent Archive
  • 8. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Fontes de Dados Arquivos LogsStreams Banco de Dados
  • 9. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Arquivos Amazon S3Files
  • 10. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Ingestão de Multiplas Fontes de Dados s3://datalake/ /vendorfeeds /vendorA /vendorB /clickstream /orders /vendors /customers /app_logs /instance1 /instance2 /syslogs /instance1 /instance2 /databases /customers /orders /vendors API Gateway KinesisAgent DMS Kinesis Data Firehose Amazon S3 Files Streams Logs Databases AWS Snowball
  • 11. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Upload no Amazon S3 Amazon S3 oferece suporte para single-part upload e uma API de multi-part upload O single-part upload suporta objetos de até 5 GB de tamanho O multi-part upload suporta objetos de até 5 TB de tamanho O multi-part upload também permite que você maximize seu rendimento usando threads paralelas
  • 12. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. As solicitações PUT passam pelo local de borda AWS mais próximo Os dados transitam pela rede privada AWS, em vez da Internet A rede privada da AWS otimiza a taxa de transferência e a latência para a região da AWS Os dados não são armazenados no cache de borda S3Transfer Acceleration S3 bucket AWS edge location Uploader
  • 13. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. S3 Batch Operations Manage billions of objects at scale, change object properties, perform storage management tasks
  • 14. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. AWS Snowball/Snowmobile Use Case AWS Solution Cloud Migration, Disaster Recovery AWS Snowball Internet ofThings (IoT), Remote Remote Locations AWS Snowball Edge Migrating Exabytes of Data AWS Snowmobile
  • 15. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Streams
  • 16. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Ingestão de Multiplas Fontes de Dados s3://datalake/ /vendorfeeds /vendorA /vendorB /clickstream /orders /vendors /customers /app_logs /instance1 /instance2 /syslogs /instance1 /instance2 /databases /customers /orders /vendors API Gateway KinesisAgent DMS Kinesis Data Firehose Amazon S3 Files Streams Logs Databases AWS Snowball
  • 17. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Streams Coletando e Analisando • Amazon Kinesis • Amazon Managed Streaming for Kafka (MSK) • Examplo: Clickstream Analytics
  • 18. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Colete, processe e analise facilmente streams de vídeo e dados em tempo real Carregar stream de dados em armazenamentos de dados AWS Kinesis Data Firehose Crie aplicativos personalizados que analisam stream de dados Kinesis Data Streams Capture, processe e armazene streams de vídeo para análise KinesisVideo Streams Analise streams de dados com SQL Kinesis Data Analytics Amazon Kinesis –Tempo Real
  • 19. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Kinesis –Varias integrações Put* APIs LOG4J Flume Fluentd Get* APIs Apache Storm Amazon Elastic MapReduce (EMR) Produzindo Consumindo AWS Mobile SDK Kinesis Producer Library AWS Lambda Apache Spark Kinesis Streams Kinesis Consumer Library
  • 20. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Kinesis – Como funciona?
  • 21. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Kinesis – Como funciona?
  • 22. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Amazon Managed Streaming for Kafka (MSK) Totalmente compatível com Apache Kafka v1.1.1 AWS Management Console e AWS API para provisionamento Os clusters são configurados automaticamente Provisione brokers e armazenamento Apache Kafka Crie e remova clusters sob demanda
  • 23. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Comparando Amazon Kinesis Data Streams to MSK Amazon Kinesis Data Streams Amazon MSK Newest dataOldest data 50 1 2 3 4 0 1 2 3 0 1 2 3 4 Shard 2 Shard 1 Shard 3 Writes from Producers Stream with 3 shards Newest dataOldest data 50 1 2 3 4 0 1 2 3 0 1 2 3 4 Partition 2 Partition 1 Partition 3 Writes from Producers Topic with 3 partitions
  • 24. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Comparando Amazon Kinesis Data Streams to MSK • Experiência API AWS • Modelo de provisionamento de taxa de transferência • Dimensionamento contínuo • Custos normalmente mais baixos • Integrações nativas AWS • Compatibilidade opensource • Modelo de provisionamento de cluster • O dimensionamento do Apache Kafka não é fácil para os clientes • Desempenho bruto Amazon Kinesis Data Streams Amazon MSK
  • 25. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. API Gateway Kinesis Data Stream Kinesis Data Firehose Kinesis DataAnalytics Kinesis Data Firehose Amazon S3 Kinesis Data Stream Lambda Taxas de conversão Anomalias SNS Clickstream com Analytics emTempo Real
  • 26. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. DEMO Amazon S3Files
  • 27. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Logs Amazon S3Files
  • 28. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Ingestão de Multiplas Fontes de Dados s3://datalake/ /vendorfeeds /vendorA /vendorB /clickstream /orders /vendors /customers /app_logs /instance1 /instance2 /syslogs /instance1 /instance2 /databases /customers /orders /vendors API Gateway KinesisAgent DMS Kinesis Data Firehose Amazon S3 Files Streams Logs Databases AWS Snowball
  • 29. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Logs Coletando e Analisando AmazonCloudWatch Amazon Kinesis
  • 30. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Logs – CloudWatch Agent EC2 Instances CloudWatch Log Stream AWS Lambda Amazon S3
  • 31. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Logs – Kinesis Agent Amazon S3Kinesis Data Firehose EC2 InstancesWith Kinesis Agent
  • 32. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Logs – Kinesis Agent (with Analytics) Amazon S3 EC2 Instances Kinesis Data Stream Kinesis Data FirehoseKinesis DataAnalytics Kinesis Data Firehose
  • 33. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Bancos de Dados Amazon S3Databases
  • 34. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Ingestão de Multiplas Fontes de Dados s3://datalake/ /vendorfeeds /vendorA /vendorB /clickstream /orders /vendors /customers /app_logs /instance1 /instance2 /syslogs /instance1 /instance2 /databases /customers /orders /vendors API Gateway KinesisAgent DMS Kinesis Data Firehose Amazon S3 Files Streams Logs Databases AWS Snowball
  • 35. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. AWS Database Migration Service Sources* Targets* Oracle Oracle SQL Server SQL Server Azure SQL PostgreSQL PostgreSQL MySQL MySQL Amazon Redshift SAP ASE SAP ASE MongoDB Amazon S3 Amazon S3 Amazon DynamoDB IBM DB2 Amazon Kinesis Amazon ElasticSearch Consult CHAP_Source.html and CHAP_Target.html pages for latest DMS sources and targets
  • 36. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Change Data Capture Techniques to Capture Changes • Timestamp • Diff Comparison • Triggers • Transaction Log
  • 37. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. AWS Database Migration Service (AWS DMS) migre e/ ou replique de forma fácil e segura seus bancos de dados e data warehouses para AWS AWS Schema ConversionTool (AWS SCT) converta seu banco de dados comercial e esquemas de armazém de dados em mecanismos de código aberto ou serviços nativos, como Amazon Aurora e Redshift Database Migration Service (Também bom para ingestão!)
  • 38. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Modernize Migre Replique Modernize sua camada de banco de dados – • Comercial para open-source • Comercial para Amazon Aurora Modernize seu DataWarehoue – • Commercial para Redshift • Migrar aplicativos essenciais aos negócios • Migrar do clássico para oVPC • Migrar data warehouse para Redshift • Atualize para uma versão secundária • Crie réplicas de leitura entre regiões • Execute suas análises na nuvem • Mantenha a sincronização do ambiente de desenvolvimento/teste e produção Quando usar DMS e SCT?
  • 39. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. DMS – Deployment Amazon S3 Availability Zone Availability Zone VPC subnet VPC subnet Replication Primary Replication Secondary
  • 40. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Bulk File s3://mybucket/schemaName/tableName s3://mybucket/hr/employee /schemaName/tableName/LOAD001.csv /schemaName/tableName/LOAD002.csv /schemaName/tableName/LOAD003.csv ... 101,Smith,Bob,4-Jun-14,New York 102,Smith,Bob,8-Oct-15,Los Angeles 103,Smith,Bob,13-Mar-17,Dallas 104,Smith,Bob,13-Mar-17,Dallas Ongoing CDC Files s3://mybucket/schemaName/tableName <time-stamp>.csv <time-stamp>.csv <time-stamp>.csv ... I,101,Smith,Bob,4-Jun-14,New York U,101,Smith,Bob,8-Oct-15,Los Angeles U,101,Smith,Bob,13-Mar-17,Dallas D,101,Smith,Bob,13-Mar-17,Dallas DMS – S3 como Destino
  • 41. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Opções para transferência de dados AWS Direct Connect Amazon Kinesis Data Firehose AWS Snowball AWS Snowmobile AWS Storage Gateway Amazon S3 Transfer Acceleration AWS DataSync AWSTransfer for SFTP AWS Snowball Edge Amazon Kinesis Data Streams Amazon Kinesis Video Streams
  • 42. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Data Immersion Month Quarta-feira (21/10) - Webinar - Planeje e entenda como criar um repositório de dados de maneira segura e seguindo boas práticas de governança Quinta-feira (22/10) - Webinar - Entenda como a AWS pode te ajudar em obter respostas com dados e AI/ML
  • 43. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Q&A Amanda Quinto & Bruno Silveira
  • 44. © 2020, Amazon Web Services, Inc. or its Affiliates. All rights reserved. Obrigada!

Notas do Editor

  1. O Amazon S3 construiu um nível de durabilidade, disponibilidade e escalabilidade incomparável. Ele é construído para armazenar e recuperar qualquer quantidade de dados, com disponibilidade incomparável, e construído do zero para fornecer 99,999999999% (11 noves) de durabilidade. Os recursos exclusivos incluem o armazenamento de dados do cliente em data centers independentes em três zonas de disponibilidade em uma única região da AWS e a replicação automática de dados entre quaisquer regiões, independentemente da classe de armazenamento. - Esses recursos tornam o S3 o serviço perfeito para hospedar nosso data lake
  2. Existem muitos lugares de onde os dados podem vir. Predominantemente, eles se enquadram em uma de quatro categorias: bancos de dados, fluxos, logs e arquivos. Destes, os bancos de dados são os mais predominantes. Normalmente consistem em seus sistemas transacionais upstream principais que são o armazenamento de dados principal para seus aplicativos. Eles assumem sabores relacionais e não relacionais e existem várias técnicas para extrair dados deles. Streams são sequências abertas de dados de série temporal, como dados de clickstream de um site ou dispositivos IoT, geralmente publicados em uma API que hospedamos. Os logs são gerados por aplicativos, serviços e sistemas operacionais. O Data Lake é um ótimo lugar para armazenar tudo isso para análise centralizada. Os arquivos vêm de sistemas de arquivos auto-hospedados ou de feeds de dados de terceiros via FTP ou API. Vamos falar sobre como podemos extrair dados de cada uma dessas fontes de dados upstream e colocá-los em nosso Data Lake.
  3. A API S3 padrão suporta uploads de parte única e de várias partes. Parte única consiste em um único fluxo de rede que transfere todo o arquivo e oferece suporte a arquivos de até 5 GB. Em muitos casos, será melhor aproveitar os uploads de várias partes, o que irá dividir seu arquivo em partes menores, transferi-los em paralelo e, em seguida, recombinar após todas as partes terem sido recebidas pelo serviço. Uploads de várias partes podem, portanto, suportar arquivos de até 5 TB. Ambas as operações possuem uma API muito fácil de usar. É importante garantir a limpeza após todas as operações com várias partes. Quaisquer peças carregadas durante uma transferência abandonada ainda consumirão espaço e, portanto, serão cobradas de acordo com as taxas regulares do S3. Felizmente, você pode criar uma Política de Ciclo de Vida S3 que visa uploads de várias partes abandonados e os exclui se não forem concluídos em um determinado número de dias.
  4. Embora o upload de arquivos diretamente pela Internet possa ser suficiente para muitos casos, você também pode otimizar a rota de rede que seus arquivos seguem ativando o S3 Transfer Acceleration. Em vez de fazer com que seus clientes resolvam seus endpoints de upload diretamente para a região da AWS, você pode fazer com que eles resolvam para um dos muitos locais de borda da AWS. Isso fornecerá automaticamente o local com a menor latência para o seu cliente na rede privada AWS e usará o roteamento otimizado desse ponto para a região.
  5. S3 Batch Operations é um recurso de gerenciamento de dados do Amazon S3 que permite gerenciar bilhões de objetos em escala com apenas alguns cliques no Amazon S3 Management Console ou uma única solicitação de API. Você pode fazer alterações nos metadados e propriedades do objeto ou executar outras tarefas de gerenciamento de armazenamento, como copiar objetos entre baldes, substituir conjuntos de tags de objetos, modificar controles de acesso e restaurar objetos arquivados do S3 Glacier - em vez de levar meses para desenvolver aplicativos personalizados para executar essas tarefas. https://aws.amazon.com/s3/s3batchoperations-videos/
  6. Bola de neve: Migração na nuvem - se você tiver grandes quantidades de dados para migrar para a AWS, o Snowball costuma ser muito mais rápido e econômico do que transferir esses dados pela Internet. Recuperação de desastres - no caso de você precisar recuperar rapidamente uma grande quantidade de dados armazenados no Amazon S3, os dispositivos Snowball podem ajudar a recuperar os dados muito mais rápido do que a Internet de alta velocidade. Snowball Edge Internet das Coisas (IoT) - Snowball Edge pode ingerir dados de sensores IoT, realizar análises nos dados brutos para reverter os resultados rapidamente e adicioná-los a um pool de análise de big data na nuvem. Locais remotos com dados simples - você pode colocar um Snowball Edge no local em locais remotos para coleta e análise de dados. Moto de neve Migrando exabytes de dados O Snowmobile permite que os clientes migrem rapidamente conjuntos de dados em escala de exabyte do local para a AWS de maneira segura, rápida e de baixo custo. Os casos de uso incluem a migração de centenas de petabytes de dados, como bibliotecas de vídeo, sequências genômicas, dados sísmicos e registros financeiros para executar análises de big data na AWS ou desligar centros de dados legados e mover todos os dados locais em exabytes para AWS. Antes do Snowmobile, a migração de dados em tal escala normalmente levava anos, o que era lento demais para muitos clientes.
  7. When it comes to stream processing, the first thing you need is a place to conceptualize the stream. In AWS, we offer two services now that provide this capability: Amazon Kinesis and Amazon Managed Streaming for Kafka (or “MSK”). We’ll talk about both these options in depth, and then show some examples of Clickstream Analytics.
  8. O Amazon Kinesis oferece três recursos. O primeiro é um local para armazenar um fluxo de dados brutos para realizar qualquer processamento downstream dos registros que você deseja. Para facilitar a transferência desses registros para ambientes analíticos comuns, como S3, ElasticSearch, Redshift e Splunk, oferecemos o serviço Firehose. Firehose armazenará em buffer automaticamente todos os registros no fluxo e liberará para o destino como um único arquivo ou conjunto de registros com base em um limite de tamanho de dados ou tempo que você configurar, o que for atingido primeiro. Se você deseja realizar algumas análises baseadas em janela nos registros no stream, oferecemos o Kinesis Analytics. Analytics permite que você flua streams juntos e execute operações SQL sobre seus registros com base nas janelas de tempo que você configurar. A saída pode subsequentemente fluir para outros fluxos que você criar, para que você possa construir um pipeline de streaming sem servidor inteiro.
  9. O Kinesis se integra a vários editores e consumidores comuns. Inclui APIs com as quais você pode interagir diretamente ou pode usar qualquer número de bibliotecas, como a Kinesis Producer Library, o AWS mobile SDK, estruturas de registro populares como Log4j ou remetentes de log como Flume ou Fluentd. Da mesma forma, também existem APIs para consumir fluxos, junto com nossa Biblioteca de Consumidores Kinesis. Para tornar as coisas ainda mais fáceis, você pode até mesmo consumir registros de uma maneira sem servidor, usando uma função Lambda. Kinesis também oferece suporte aos principais sistemas de processamento de fluxo, como Spark (que pode ser executado em EMR), Storm, Samza e Flink.
  10. Sob o capô, os streams do Kinesis são divididos no conceito de "fragmentos". Você pode pensar em um shard, uma unidade altamente durável de computação e armazenamento para seus dados de fluxo, que é automaticamente replicado e tornado consistente em três zonas de disponibilidade. Tanto do ponto de vista do produtor quanto do consumidor, a semântica do fragmento é abstraída - você simplesmente os vê como um fluxo ordenado de eventos.
  11. Com o tempo, você pode aumentar ou diminuir o número de fragmentos que alimentam um fluxo. O Kinesis se encarrega de rebalancear os dados de acordo com os fragmentos para você.
  12. O Amazon Kinesis é ótimo para ingerir dados no S3 para aplicativos que você está executando totalmente no AWS. No entanto, ele foi projetado para ser totalmente sem servidor, com pequenas fatias de computação e armazenamento que você pode escalar elasticamente conforme necessário. Muitos clientes executam o Kafka, no entanto, como parte de seu ambiente híbrido entre seus data centers e a AWS, ou como parte de uma migração life & shift que passará por alguma transformação em Kinesis em algum ponto. Os clientes também executam o Kafka, no entanto, porque sua arquitetura fornece "corretores" de armazenamento e computação totalmente baseados em VM para processar seus dados. Assim, em vez de dimensionar elasticamente pequenas fatias de computação, você pode ajustar o ambiente de VM para fornecer recursos de rendimento e retenção muito altos. Com base nessa demanda pelo tipo de potência bruta que o Kafka pode fornecer, oferecemos o serviço Managed Streaming for Kafka. Este serviço cuida de todo o trabalho pesado indiferenciado que envolve o gerenciamento de corretores Kafka, armazenamento e Apache Zookeeper, para que você possa se concentrar em seus aplicativos em vez da infraestrutura Kafka.
  13. Como uma rápida comparação, tanto o Kinesis Data Streams quanto o Kafka têm conceitos muito semelhantes. Enquanto o Kinesis oferece "fluxos" e "fragmentos", o Kafka oferece "tópicos" e "partições". Para todos os efeitos, eles funcionam praticamente da mesma maneira. A principal diferença é que, com o MSK, seu ambiente de computação básico é a máquina virtual, enquanto com o Kinesis é o próprio fragmento.
  14. Indo um pouco mais longe na comparação, com o Kinesis você obtém principalmente uma experiência AWS totalmente nativa. Os fluxos são configurados com base no rendimento e na elasticidade necessários, e você tem maior controle para ajustar seus custos sobre o número preciso de fragmentos de que precisa a qualquer momento. Por outro lado, o Kafka é um software livre com portabilidade em muitos ambientes de computação diferentes. Ele tem um ecossistema de terceiros robusto e um tremendo potencial de desempenho puro e simples. A desvantagem desse desempenho extra é que a taxa de transferência é configurada em um nível de cluster geral e, como tal, é muito mais difícil escalar elasticamente o Kafka. Além disso, os clientes do Kafka obtêm informações sobre corretores diretamente por meio do Apache Zookeeper, de modo que os clientes precisam restabelecer as conexões com os corretores de acordo com a ocorrência de eventos de dimensionamento. Embora o MSK automatize grande parte do gerenciamento do cluster, ainda há muitas partes móveis que precisam estar sincronizadas para que o cluster permaneça saudável. Portanto, Kafka vem com um fator de risco mais alto do que Kinesis.
  15. Em um exemplo mais complicado, ainda temos nossos vários consumidores da web enviando informações de clique para nossa API no API Gateway, mas em vez de usar isso como um proxy para Kinesis Firehose, vamos enviar isso para um Kinesis Stream. Isso nos permite bifurcar o processamento para que ainda possamos enviar os dados para nosso Data Lake no S3 por meio do Firehose, mas também introduzir algumas análises em tempo real. Neste aplicativo do Analytics, calculamos as taxas de conversão ao longo de uma janela de tempo e enviamos esses resultados para seu próprio fluxo. As taxas de conversão são enviadas para Firehose para armazenamento em nosso Data Lake para fins históricos, mas também podemos usar uma função Lambda para começar a examiná-las para procurar anomalias (como um exemplo). Conforme são detectadas anomalias nas taxas de conversão, nossa função Lambda envia uma notificação ao SNS para que nossa equipe de campanha seja notificada.
  16. Em muitos aspectos, os logs também são fluxos. Não é nada mais do que uma sequência de eventos, normalmente gravada em um arquivo, em vez de ter cada evento de registro emitido em um armazenamento de dados de streaming. Como tal, os mesmos padrões que vimos que se aplicam ao processamento de stream com Kinesis ou Kafka também se aplicam a logs. Além disso, temos CloudWatch.
  17. Qualquer cliente da AWS existente, sem dúvida, terá encontrado o CloudWatch em algum ponto de seu uso. Muitos o usam como seu serviço de registro central, dado que uma série de registros e métricas. Embora quase todos os serviços da AWS enviem dados para o CloudWatch automaticamente, você precisará enviar seus próprios dados de aplicativo para ele. Se seu aplicativo estiver rodando em EC2, então você pode fazer isso facilmente instalando o CloudWatch Agent em suas instâncias e configurá-los para enviar logs no intervalo apropriado. Para todos os logs que estão no CloudWatch, você pode exportá-los para seu Data Lake no S3 usando uma função Lambda em uma programação.
  18. Se você não quiser aproveitar os recursos do CloudWatch, pode optar por instalar o Agente Kinesis em suas instâncias EC2. Este agente pode então encaminhar suas entradas de log para Firehose, para serem depositadas no S3.
  19. Como em nosso exemplo ClickStream anterior, você pode encadear os vários serviços do Kinesis para criar um pipeline de processamento de log.
  20. Sources link https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Source.html Targets link https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Target.html
  21. Existem várias técnicas disponíveis para extrair dados de bancos de dados upstream. Estes quatro parecem ser os que encontramos com mais frequência no campo - se você estiver ciente de quaisquer outros, por favor, compartilhe conosco para que possamos incluir aqui também. Essas técnicas consistem em aproveitar os carimbos de data / hora para quando os registros são criados ou modificados, comparar os dados em dois intervalos de tempo diferentes para determinar quais alterações ocorreram, disparar a extração quando ocorrerem alterações nos dados ou ler as alterações de um log ou fluxo de transações.
  22. Felizmente, a AWS fornece o serviço de migração de banco de dados para muitos dos bancos de dados mais populares. Esse serviço cuida de todo o trabalho pesado de ler dados do log de transações e gravar no S3 para você. Merece uma menção honrosa a AWS Schema Conversion Tool, um aplicativo complementar ao DMS. Essa ferramenta é muito útil quando você deseja alterar sua tecnologia de banco de dados upstream, como a migração de Oracle ou SQL Server para Aurora Postgres.
  23. Embora o serviço seja chamado de Serviço de “Migração” de Banco de Dados devido à sua raiz, ele é usado com muita frequência hoje em dia para executar a replicação contínua de dados de bancos de dados para o S3 na produção.
  24. O DMS é implantado como um par de HA nas Zonas de disponibilidade em instâncias EC2 que gerenciamos para você. Assim, ele fará failover automaticamente e retomará a execução se ocorrer uma falha no mestre atual e criará um novo ambiente escravo. É totalmente configurável quanto aos bancos de dados com os quais interage, quais tabelas dentro desses bancos de dados ele deve replicar e com que rapidez essas alterações serão obtidas. O principal é garantir que você dimensione e configure adequadamente as instâncias para a frequência e o volume de dados que deseja que seus trabalhos processem.
  25. Quando o DMS é executado pela primeira vez, ele cria um arquivo de despejo em massa inicial de todos os registros do banco de dados. Depois de concluído, ele começará a gerar arquivos CDC para essa tabela, que possui um esquema semelhante com a adição do tipo de operação realizada (I para inserir, U para atualizar, D para excluir). É um padrão comum ter um trabalho em execução que executa a operação bulk + CDC e outro que faz um bulk dump menos frequente a cada vez como uma maneira de criar checkpoints e ressincronizar os dados se algo der errado com o processamento downstream.