O documento discute como obter valor comercial com big data. Resume os principais pontos do relatório de Matt Aslett da 451 Research sobre como seis empresas usam big data na nuvem para gerar valor. A nuvem permite introdução mais rápida no mercado, menor custo total de propriedade, redução de custos operacionais, maior agilidade dos desenvolvedores e novas oportunidades de receita.
2. Programação
Parte I - Introdução
Big data na AWS
Estudo de caso de cliente
Parte II - Destaques do relatório por Matt Aslett, 451
Research
Principais descobertas
Objetivos de negócios
Usuários e casos de uso
Avaliação do sucesso
3. Big data em constante crescimento
Volume
Velocidade
Variedade
Veracidade
Valor
Quais perguntas ajudariam
a empresa se pudéssemos
respondê-las?
Quais dados estão disponíveis
e podem ajudar a encontrar
essas respostas?
Quais ferramentas devem ser
usadas para trabalhar com
esses dados?
Procure oferecer valor comercial
imediato com o primeiro projeto
Conceitos básicos
4. Big data em constante crescimento
Volume
Velocidade
Variedade
Veracidade
Valor Grandes despesas de capital
Longos ciclos de
provisionamento
Muitas ferramentas
disponíveis
Habilidades novas e caras
Maior responsabilidade (dados
confidenciais)
Barreiras para obter
valor
5. Big data na AWS
Disponibilidade imediata. Implantação instantânea.
Nenhum hardware para adquirir, nenhuma infraestrutura
para manter e escalar
Confiança e segurança. Desenvolvido para satisfazer os
requisitos mais rígidos. Auditado constantemente, incluindo
certificações como ISO 27001, FedRAMP, DoD CSM e PCI
DSS.
Recursos amplos e profundos. Mais de 50 serviços
e centenas de recursos para oferecer suporte a praticamente
qualquer aplicativo e carga de trabalho de big data
Centenas de parceiros e soluções. Receba ajuda de um
parceiro de consultoria ou escolha entre centenas de
ferramentas e aplicativos em toda a pilha de
gerenciamento de dados.
7. Simplificar big data
Dados Respostas
Coletar Processar Analisar
Armazenar
Tempo de resposta (latência)
Taxa de transferência
Custo
8. Fluxo de trabalho de big data
Dados Respostas
Coletar Processar Analisar
Armazenar
Tempo de resposta (latência)
Taxa de transferência
Custo
Coleta de dados
e armazenamento
Dados
Processamento
Evento
Processamento
Dados
Análise
9. Fluxo de trabalho de big data
Dados Respostas
Coletar Processar Analisar
Armazenar
Coleta de dados
e armazenamento
Dados
Processamento
Evento
Processamento
Dados
Análise
Amazon S3
Amazon Kinesis
Firehose
Amazon DynamoDB
Amazon RDS (Aurora)
AWS Lambda
Processos de
streaming do Kinesis
Amazon
EMR
Amazon
Redshift
Amazon Machine
Learning
10. Portfólio de big data da AWS
AnalisarArmazenarColetar
Amazon Machine
Learning
Amazon Kinesis
Analytics
AWS Import/Export
AWS Direct Connect
Amazon Kinesis
Amazon Kinesis
Firehose
Migração de Banco
de Dados da AWS
Amazon Glacier
Amazon S3
Amazon
CloudSearch
Amazon DynamoDB
Amazon RDS,
Aurora
Amazon
ElasticSearch
AWS Data
Pipeline
Amazon Redshift
Amazon EMR
Amazon
QuickSight
Amazon EC2
12. Estudo de caso: estrutura de dados final da Hearst
Buscas por API
Dados
Prontos
para
API
Amazon
Kinesis
Armazenamento do
S3
Proxy do
aplicativo
Node.JS
Usuários para
propriedades
da Hearst
Clickstream
Ciência de dados
Aplicativo
Amazon Redshift
ETL na EMR
100 segundos
1 GB/dia
30 segundos
5 GB/dia
5 segundos
1 GB/dia
Milissegundos
100 GB/dia
LATÊNCIA
TAXA DE
TRANSFERÊNCIA
Modelos
Dados
agregados
13. Ciência de dados
Amazon Redshift
ETL
Hearst: uma representação "visual" da estrutura da
empresa
Dados de
Clickstream
Amazon Kinesis
API de resultados
14. Como obter valor comercial com big data
Original de Matt Aslett
Diretor de pesquisa de plataformas e análises de dados