O documento discute como o DynamoDB da AWS pode ser usado para construir aplicações serverless escaláveis com armazenamento não relacional. Ele resume como o DynamoDB oferece desempenho previsível e alta disponibilidade para casos de uso como MLBAM e Duolingo, e como ele pode integrar-se com outros serviços da AWS como Lambda e API Gateway para criar aplicações baseadas em eventos.
Este documento discute como migrar workloads de big data para o Amazon EMR, incluindo: (1) identificando desafios com ambientes locais como super provisionamento e gerenciamento de problemas, (2) migrando componentes para serviços AWS como EMR e S3, (3) casos de uso como GuiaBolso que migrou para uma plataforma de dados escalável na AWS.
"O Amazon DynamoDB é um serviço de banco de dados NoSQL, totalmente gerenciado, para aplicativos que precisam de latência consistente de um dígito de milissegundos em qualquer escala. Nesta sessão iremos explorar as capacidades e benefícios do DynamoDB em detalhes e iremos discutir como obter o máximo do seu banco de dados DynamoDB. Examinaremos as melhores práticas de design de schema com o DynamoDB em vários casos de uso, incluindo jogos, AdTech, IoT e outros.
Também exploraremos o design de índices eficientes, scanning e queries, e detalharemos as funcionalidades lançadas recentemente, incluindo o suporte a documentos JSON, Streams, Time-to-Live (TTL) e muito mais."
https://aws.amazon.com/pt/products/databases/
Migrando seu banco de dados para a AWS - Deep Dive em Amazon RDS e AWS Databa...Amazon Web Services LATAM
1) O documento discute as opções da AWS para migrar bancos de dados, incluindo Amazon RDS, AWS Database Migration Service e AWS Schema Conversion Tool.
2) Ele fornece detalhes sobre como migrar bancos de dados relacionais para a AWS usando o Amazon RDS e AWS DMS, incluindo como manter a aplicação em execução durante a migração.
3) O documento também aborda recursos como replicação, conversão de esquema e suporte a várias origens e destinos para migração de bancos de dados.
Amazon EC2 oferece uma ampla seleção de tipos de instâncias para suportar diversos casos de uso. Nesta sessão, entregaremos uma visão geral da plataforma de instâncias do Amazon EC2, das características mais importantes da plataforma e do conceito de gerações de instâncias. Nos aprofundamos nas escolhas da geração atual para as diferentes famílias de instâncias, incluindo as famílias de Propósito Geral (General Purpose), as otimizadas para Computação, Otimizadas para Armazenamento, Otimizadas para Memória e as familias com Computação Acelerada (GPU e FPGA). Também detalharemos as melhores práticas e compartilhamos dicas de desempenho para obter o máximo de suas instâncias do Amazon EC2.
https://aws.amazon.com/pt/ec2/
Deep dive em aceleração de entrega de conteúdo, APIs e Aplicações utilizando ...Amazon Web Services LATAM
O documento apresenta o serviço Lambda@Edge da AWS, que permite executar código Node.js nos Pontos de Presença da AWS CloudFront para customizar conteúdo próximo aos usuários. Lambda@Edge permite validar acesso, reescrever URLs, entregar imagens responsivas e realizar A/B testing de forma global e sem servidores. O documento demonstra como Lambda@Edge pode melhorar a experiência do usuário final de forma escalável e com baixo custo.
Amazon Aurora é o serviço de banco de dados relacional da AWS otimizado para cloud o qual combina velocidade e alta disponibilidade presentes em banco de dados enterprise de mercado com simplicidade e custo de banco de dados open-source. Recentemente foi anunciado a compatibilidade do Amazon Aurora com PostgreSQL, o qual já trabalha trabalhando junto com compatibilidade para MySQL, são perfeitos para novas aplicações e migração de banco de dados tradicionais os quais são mais caros e com restrições comerciais. Nessa sessão iremos discutir de maneira avançada a nova arquitetura e modelo distribuído presentes no Amazon Aurora, discutiremos as melhores práticas e configurações, opções de migração para Amazon Aurora além da experiência de nossos clientes no uso desse poderoso banco de dados.
https://aws.amazon.com/pt/rds/aurora/
A apresentação discute o Amazon QuickSight como uma ferramenta de business intelligence na nuvem da AWS que permite visualizar e analisar grandes volumes de dados de forma rápida e fácil. O QuickSight integra-se com diversos serviços de dados da AWS e possui recursos de administração de usuários, compartilhamento seguro de relatórios e preços acessíveis.
O documento apresenta uma sessão sobre o primeiro aplicativo de Big Data. Aborda os desafios de Big Data, como simplificar o processamento de dados, quais tecnologias usar e por quê, apresentando um caso de sucesso da BigData Corp.
Este documento discute como migrar workloads de big data para o Amazon EMR, incluindo: (1) identificando desafios com ambientes locais como super provisionamento e gerenciamento de problemas, (2) migrando componentes para serviços AWS como EMR e S3, (3) casos de uso como GuiaBolso que migrou para uma plataforma de dados escalável na AWS.
"O Amazon DynamoDB é um serviço de banco de dados NoSQL, totalmente gerenciado, para aplicativos que precisam de latência consistente de um dígito de milissegundos em qualquer escala. Nesta sessão iremos explorar as capacidades e benefícios do DynamoDB em detalhes e iremos discutir como obter o máximo do seu banco de dados DynamoDB. Examinaremos as melhores práticas de design de schema com o DynamoDB em vários casos de uso, incluindo jogos, AdTech, IoT e outros.
Também exploraremos o design de índices eficientes, scanning e queries, e detalharemos as funcionalidades lançadas recentemente, incluindo o suporte a documentos JSON, Streams, Time-to-Live (TTL) e muito mais."
https://aws.amazon.com/pt/products/databases/
Migrando seu banco de dados para a AWS - Deep Dive em Amazon RDS e AWS Databa...Amazon Web Services LATAM
1) O documento discute as opções da AWS para migrar bancos de dados, incluindo Amazon RDS, AWS Database Migration Service e AWS Schema Conversion Tool.
2) Ele fornece detalhes sobre como migrar bancos de dados relacionais para a AWS usando o Amazon RDS e AWS DMS, incluindo como manter a aplicação em execução durante a migração.
3) O documento também aborda recursos como replicação, conversão de esquema e suporte a várias origens e destinos para migração de bancos de dados.
Amazon EC2 oferece uma ampla seleção de tipos de instâncias para suportar diversos casos de uso. Nesta sessão, entregaremos uma visão geral da plataforma de instâncias do Amazon EC2, das características mais importantes da plataforma e do conceito de gerações de instâncias. Nos aprofundamos nas escolhas da geração atual para as diferentes famílias de instâncias, incluindo as famílias de Propósito Geral (General Purpose), as otimizadas para Computação, Otimizadas para Armazenamento, Otimizadas para Memória e as familias com Computação Acelerada (GPU e FPGA). Também detalharemos as melhores práticas e compartilhamos dicas de desempenho para obter o máximo de suas instâncias do Amazon EC2.
https://aws.amazon.com/pt/ec2/
Deep dive em aceleração de entrega de conteúdo, APIs e Aplicações utilizando ...Amazon Web Services LATAM
O documento apresenta o serviço Lambda@Edge da AWS, que permite executar código Node.js nos Pontos de Presença da AWS CloudFront para customizar conteúdo próximo aos usuários. Lambda@Edge permite validar acesso, reescrever URLs, entregar imagens responsivas e realizar A/B testing de forma global e sem servidores. O documento demonstra como Lambda@Edge pode melhorar a experiência do usuário final de forma escalável e com baixo custo.
Amazon Aurora é o serviço de banco de dados relacional da AWS otimizado para cloud o qual combina velocidade e alta disponibilidade presentes em banco de dados enterprise de mercado com simplicidade e custo de banco de dados open-source. Recentemente foi anunciado a compatibilidade do Amazon Aurora com PostgreSQL, o qual já trabalha trabalhando junto com compatibilidade para MySQL, são perfeitos para novas aplicações e migração de banco de dados tradicionais os quais são mais caros e com restrições comerciais. Nessa sessão iremos discutir de maneira avançada a nova arquitetura e modelo distribuído presentes no Amazon Aurora, discutiremos as melhores práticas e configurações, opções de migração para Amazon Aurora além da experiência de nossos clientes no uso desse poderoso banco de dados.
https://aws.amazon.com/pt/rds/aurora/
A apresentação discute o Amazon QuickSight como uma ferramenta de business intelligence na nuvem da AWS que permite visualizar e analisar grandes volumes de dados de forma rápida e fácil. O QuickSight integra-se com diversos serviços de dados da AWS e possui recursos de administração de usuários, compartilhamento seguro de relatórios e preços acessíveis.
O documento apresenta uma sessão sobre o primeiro aplicativo de Big Data. Aborda os desafios de Big Data, como simplificar o processamento de dados, quais tecnologias usar e por quê, apresentando um caso de sucesso da BigData Corp.
Este documento apresenta boas práticas de arquitetura e operação para ambientes na AWS. Apresenta o framework Well Architected e o Cloud Operations Review, que fornecem diretrizes para avaliar a arquitetura e os processos operacionais. Também discute princípios como segurança, confiabilidade, desempenho e otimização de custos.
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/getting-started/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/security/
O documento descreve como criar um data lake na AWS para armazenar e analisar dados de forma flexível e de baixo custo. Os principais componentes discutidos incluem armazenamento em larga escala na AWS S3, processamento de dados em streaming com Kinesis, catálogo e busca de metadados com DynamoDB e Lambda, e sistema de permissões com IAM."
"Computação Serverless permite que você construa e execute aplicações sem a necessidade de provisionar ou gerenciar servidores. Com a computação Serverless você pode construir aplicações web, mobile e IoT backends, executar processamento em streams de dados ou em big data, criar chatbots e mais.
Nessa sessão você será iniciado nos caminhos da computação Serverless através do AWS Lambda, que lhe permite executar código sem provisionar ou gerenciar servidores. Nós o demonstraremos as bases de construção de aplicações em Lambda e como tirar vantagens de benefícios como elasticidade contínua, alta disponibilidade nativa, inúmeras integrações com apps AWS e de terceiros e precificação por frações de segundo. Nós também apresentaremos um portifólio de serviços AWS que lhe auxiliarão na construção de aplicações Serverless em conjunto com o lambda, como API Gateway, Amazon DynamoDB, AWS Step Functions e mais."
https://aws.amazon.com/pt/lambda/
1) O documento discute como construir um Data Lake na AWS utilizando várias tecnologias da AWS.
2) É apresentada uma agenda com conceitos de Data Lake, simplificando o Data Lake e quais tecnologias utilizar.
3) Uma arquitetura de referência e design patterns são discutidos.
Utilizando a nuvem para proteger o mercado financeiro com segurança, agilidad...Amazon Web Services LATAM
Utilizada pelos maiores bancos do país, a solução Guardião da Diebold, utiliza os serviços da AWS (CloudFront, S3, SQS, SNS, API Gateway, Lambda) para escrever a nova versão da plataforma, dando mais agilidade ao seu time e clientes, com segurança e escalabilidade.
Bancos de dados NoSQL são bastante importantes na estratégia de Big Data. Nessa sessão será abordado como o Amazon DynamoDB se encaixa nesse ecossistema, para por exemplo, realização da persistencia de processamentos batches e ETL e as integrações com EMR.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Para executar aplicações do Microsoft Windows Server, SQL Server, Exchange, SharePoint e Lync, bem como aplicações .NET personalizadas, você pode contar com a infraestrutura global segura da Amazon Web Services para executar facilmente aplicações com base no Windows Server na nuvem.
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
O Aurora é o banco de dados gerenciado da AWS que combina, peformance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter beneficio desse serviço.
O documento discute estratégias para escalar aplicações na AWS para milhões de usuários, começando com uma única instância e expandindo para várias instâncias, regiões e serviços gerenciados. É enfatizado começar com banco de dados SQL e mover cargas de trabalho estáticas e sessões para serviços como S3, CloudFront, DynamoDB e ElastiCache para melhorar o desempenho. Auto Scaling é apresentado como forma de dimensionar automaticamente a capacidade de acordo com as métricas.
É essencial que o seu programa de Nuvem comece da melhor forma possível e entregue valor para o negócio rapidamente, pois é uma iniciativa de grande visibilidade na companhia. Nesta sessão, falaremos sobre as capacidades e atividades necessárias para executar aplicações corporativas em produção nos seus primeiros 90 dias de AWS.
https://aws.amazon.com/pt/enterprise/
O documento apresenta o Amazon Aurora, um banco de dados relacional gerenciado pela AWS. O Aurora oferece desempenho 5x maior que o MySQL com disponibilidade e segurança equivalentes aos bancos de dados comerciais. O documento discute as melhorias de desempenho e disponibilidade do Aurora, incluindo índices mais rápidos e gerenciamento de bloqueios aprimorado.
O documento discute o uso da Amazon CloudFront para entrega de conteúdo, melhorando o desempenho, disponibilidade e cache. Apresenta como o CloudFront funciona, casos de uso e funcionalidades como streaming de vídeo, proteção de conteúdo e compressão. Fornece arquiteturas de referência para diferentes cenários e melhores práticas de segurança, monitoramento e configuração.
Nesta apresentação iremos escrever melhores práticas de implementação de aplicações SAP na nuvem AWS. Iremos demonstrar o poder na Nuvem AWS para executar sistemas SAP de missão crítica, bem como a evolução da parceria entre a AWS e a SAP. Demonstraremos como nossa plataforma é hora a mais completa para execução de ambientes corporativos SAP na Nuvem. As informações abordadas durante a palestra poderão ser utilizadas por nossos clientes em diversos estágios de sua jornada de migração de sistemas SAP para a nuvem AWS ou para novas implementações.
https://aws.amazon.com/pt/sap/
Usando Amazon CloudFront para aumentar performance, disponibilidade e cache n...Amazon Web Services LATAM
O documento discute o uso da Amazon CloudFront para melhorar o desempenho, disponibilidade e cache de aplicações. A CloudFront funciona como uma rede de distribuição de conteúdo global que entrega conteúdo para usuários finais com menor latência em comparação a não usar uma CDN.
1) O documento introduz os serviços de armazenamento da AWS, incluindo Amazon S3, EBS, EFS e Glacier.
2) É explicado como cada serviço se diferencia em termos de disponibilidade, durabilidade e preço.
3) São apresentadas opções para mover dados para a AWS e entre recursos de armazenamento na nuvem.
Este documento apresenta uma solução de big data utilizando vários serviços da AWS, como Kinesis, EMR, Redshift e Quicksight. A solução coleta dados de várias fontes, os processa utilizando Spark no EMR, armazena os resultados no S3 e carrega no data warehouse Redshift para análises. O caso de uso apresentado é a análise de malha aérea para uma empresa de transporte aéreo.
Nesta sessão, pela voz do cliente e do parceiro, você irá conhecer um pouco da arquitetura do Advanced-Beer-as-a-Service, desenvolvido pela ChoppUp.com.br em parceria com br.Capgemini.com. A solução conta com AWS IoT, Step Functions, S3, Lambda e mais.
https://aws.amazon.com/pt/blogs/startups/internet-of-beer-introducing-simple-beer-service/
Liberte-se dos bancos de dados comerciais para economizar, crescer e inovarAmazon Web Services LATAM
Frustradas com o alto custo, baixa escalabilidade e outros problemas de desempenho, as empresas estão buscando migrar para bancos de dados em nuvem totalmente gerenciados ou se libertar da natureza restritiva dos bancos de dados legados para economizar, crescer e inovar.
O documento discute as opções de bancos de dados na AWS, incluindo SQL e NoSQL, gerenciados e do-it-yourself. Ele destaca serviços como RDS, DynamoDB e ElastiCache, e como eles podem simplificar operações de bancos de dados em comparação às soluções manuais. Exemplos de casos de sucesso com esses serviços também são apresentados.
Este documento apresenta boas práticas de arquitetura e operação para ambientes na AWS. Apresenta o framework Well Architected e o Cloud Operations Review, que fornecem diretrizes para avaliar a arquitetura e os processos operacionais. Também discute princípios como segurança, confiabilidade, desempenho e otimização de custos.
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/getting-started/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/security/
O documento descreve como criar um data lake na AWS para armazenar e analisar dados de forma flexível e de baixo custo. Os principais componentes discutidos incluem armazenamento em larga escala na AWS S3, processamento de dados em streaming com Kinesis, catálogo e busca de metadados com DynamoDB e Lambda, e sistema de permissões com IAM."
"Computação Serverless permite que você construa e execute aplicações sem a necessidade de provisionar ou gerenciar servidores. Com a computação Serverless você pode construir aplicações web, mobile e IoT backends, executar processamento em streams de dados ou em big data, criar chatbots e mais.
Nessa sessão você será iniciado nos caminhos da computação Serverless através do AWS Lambda, que lhe permite executar código sem provisionar ou gerenciar servidores. Nós o demonstraremos as bases de construção de aplicações em Lambda e como tirar vantagens de benefícios como elasticidade contínua, alta disponibilidade nativa, inúmeras integrações com apps AWS e de terceiros e precificação por frações de segundo. Nós também apresentaremos um portifólio de serviços AWS que lhe auxiliarão na construção de aplicações Serverless em conjunto com o lambda, como API Gateway, Amazon DynamoDB, AWS Step Functions e mais."
https://aws.amazon.com/pt/lambda/
1) O documento discute como construir um Data Lake na AWS utilizando várias tecnologias da AWS.
2) É apresentada uma agenda com conceitos de Data Lake, simplificando o Data Lake e quais tecnologias utilizar.
3) Uma arquitetura de referência e design patterns são discutidos.
Utilizando a nuvem para proteger o mercado financeiro com segurança, agilidad...Amazon Web Services LATAM
Utilizada pelos maiores bancos do país, a solução Guardião da Diebold, utiliza os serviços da AWS (CloudFront, S3, SQS, SNS, API Gateway, Lambda) para escrever a nova versão da plataforma, dando mais agilidade ao seu time e clientes, com segurança e escalabilidade.
Bancos de dados NoSQL são bastante importantes na estratégia de Big Data. Nessa sessão será abordado como o Amazon DynamoDB se encaixa nesse ecossistema, para por exemplo, realização da persistencia de processamentos batches e ETL e as integrações com EMR.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Para executar aplicações do Microsoft Windows Server, SQL Server, Exchange, SharePoint e Lync, bem como aplicações .NET personalizadas, você pode contar com a infraestrutura global segura da Amazon Web Services para executar facilmente aplicações com base no Windows Server na nuvem.
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
O Aurora é o banco de dados gerenciado da AWS que combina, peformance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter beneficio desse serviço.
O documento discute estratégias para escalar aplicações na AWS para milhões de usuários, começando com uma única instância e expandindo para várias instâncias, regiões e serviços gerenciados. É enfatizado começar com banco de dados SQL e mover cargas de trabalho estáticas e sessões para serviços como S3, CloudFront, DynamoDB e ElastiCache para melhorar o desempenho. Auto Scaling é apresentado como forma de dimensionar automaticamente a capacidade de acordo com as métricas.
É essencial que o seu programa de Nuvem comece da melhor forma possível e entregue valor para o negócio rapidamente, pois é uma iniciativa de grande visibilidade na companhia. Nesta sessão, falaremos sobre as capacidades e atividades necessárias para executar aplicações corporativas em produção nos seus primeiros 90 dias de AWS.
https://aws.amazon.com/pt/enterprise/
O documento apresenta o Amazon Aurora, um banco de dados relacional gerenciado pela AWS. O Aurora oferece desempenho 5x maior que o MySQL com disponibilidade e segurança equivalentes aos bancos de dados comerciais. O documento discute as melhorias de desempenho e disponibilidade do Aurora, incluindo índices mais rápidos e gerenciamento de bloqueios aprimorado.
O documento discute o uso da Amazon CloudFront para entrega de conteúdo, melhorando o desempenho, disponibilidade e cache. Apresenta como o CloudFront funciona, casos de uso e funcionalidades como streaming de vídeo, proteção de conteúdo e compressão. Fornece arquiteturas de referência para diferentes cenários e melhores práticas de segurança, monitoramento e configuração.
Nesta apresentação iremos escrever melhores práticas de implementação de aplicações SAP na nuvem AWS. Iremos demonstrar o poder na Nuvem AWS para executar sistemas SAP de missão crítica, bem como a evolução da parceria entre a AWS e a SAP. Demonstraremos como nossa plataforma é hora a mais completa para execução de ambientes corporativos SAP na Nuvem. As informações abordadas durante a palestra poderão ser utilizadas por nossos clientes em diversos estágios de sua jornada de migração de sistemas SAP para a nuvem AWS ou para novas implementações.
https://aws.amazon.com/pt/sap/
Usando Amazon CloudFront para aumentar performance, disponibilidade e cache n...Amazon Web Services LATAM
O documento discute o uso da Amazon CloudFront para melhorar o desempenho, disponibilidade e cache de aplicações. A CloudFront funciona como uma rede de distribuição de conteúdo global que entrega conteúdo para usuários finais com menor latência em comparação a não usar uma CDN.
1) O documento introduz os serviços de armazenamento da AWS, incluindo Amazon S3, EBS, EFS e Glacier.
2) É explicado como cada serviço se diferencia em termos de disponibilidade, durabilidade e preço.
3) São apresentadas opções para mover dados para a AWS e entre recursos de armazenamento na nuvem.
Este documento apresenta uma solução de big data utilizando vários serviços da AWS, como Kinesis, EMR, Redshift e Quicksight. A solução coleta dados de várias fontes, os processa utilizando Spark no EMR, armazena os resultados no S3 e carrega no data warehouse Redshift para análises. O caso de uso apresentado é a análise de malha aérea para uma empresa de transporte aéreo.
Nesta sessão, pela voz do cliente e do parceiro, você irá conhecer um pouco da arquitetura do Advanced-Beer-as-a-Service, desenvolvido pela ChoppUp.com.br em parceria com br.Capgemini.com. A solução conta com AWS IoT, Step Functions, S3, Lambda e mais.
https://aws.amazon.com/pt/blogs/startups/internet-of-beer-introducing-simple-beer-service/
Liberte-se dos bancos de dados comerciais para economizar, crescer e inovarAmazon Web Services LATAM
Frustradas com o alto custo, baixa escalabilidade e outros problemas de desempenho, as empresas estão buscando migrar para bancos de dados em nuvem totalmente gerenciados ou se libertar da natureza restritiva dos bancos de dados legados para economizar, crescer e inovar.
O documento discute as opções de bancos de dados na AWS, incluindo SQL e NoSQL, gerenciados e do-it-yourself. Ele destaca serviços como RDS, DynamoDB e ElastiCache, e como eles podem simplificar operações de bancos de dados em comparação às soluções manuais. Exemplos de casos de sucesso com esses serviços também são apresentados.
Este documento apresenta as principais opções de análise de big data na AWS, incluindo Amazon Redshift, Amazon EMR, Amazon DynamoDB, Amazon Machine Learning e Amazon Elasticsearch Service. Ele também discute padrões de uso, desempenho, custos, escalabilidade e interfaces para cada serviço, além de fornecer três exemplos de cenários de big data.
O documento resume um evento sobre nuvem computacional e análise de big data. Ele inclui a agenda do evento com palestras sobre benefícios da AWS, casos de uso e arquiteturas de software para o século 21. Também discute conceitos como big data, análise de dados na nuvem e o ecossistema relacionado à big data.
O documento resume os principais pontos de um evento sobre Big Data e AWS, incluindo:
1. Apresentações sobre os benefícios da nuvem AWS e casos de uso;
2. Palestras sobre arquiteturas de software para o século XXI;
3. Demonstrações de soluções e tecnologias AWS para Big Data.
A apresentação discute diferentes tipos de bancos de dados e serviços de banco de dados da AWS para cargas de trabalho operacionais e analíticas. Ele fornece uma visão geral dos tipos de bancos de dados relacionais e não relacionais, considerações de design para diferentes formatos e tamanhos de dados, e exemplos de serviços da AWS como DynamoDB, RDS, ElastiCache, Neptune e Redshift.
1) O documento discute arquiteturas de software para o século 21 e como a AWS pode ajudar empresas a construí-las de forma escalável e com baixo custo.
2) Apresenta diversos serviços da AWS como computação em nuvem, armazenamento, bancos de dados e ferramentas para desenvolvedores.
3) Discutem exemplos reais de como empresas usam a AWS para dar suporte a milhões de usuários de forma automatizada e com economias de até 71% nos custos.
O documento resume um evento sobre nuvem AWS que incluiu palestras sobre os benefícios da nuvem AWS, casos de uso e arquiteturas de software. Também discute ferramentas como Amazon EMR, Amazon Redshift e apresenta um estudo de caso sobre uso desses serviços para análise de big data.
Imagine um serviço de Banco de Dados, onde replicação, alta disponibilidade, backup, e a administração dos servidores é feita transparentemente. Pare de imaginar, e conheçao o Amazon RDS - Relational Database Service, disponível para MS SQL, Oracle, MySQL e o Aurora.
Aplicando uma Estratégia de Banco de Dados AWS Personalizada: Encontre o Banc...Amazon Web Services
O documento discute as soluções de banco de dados da AWS e quando cada uma é apropriada. Ele fornece uma visão geral dos tipos de banco de dados relacionais e não relacionais da AWS, incluindo seus casos de uso, como escalar e suas principais características. O documento também apresenta casos reais de uso de banco de dados na Hotmart.
[1] O documento apresenta as principais opções de armazenamento na nuvem da AWS, incluindo S3 para armazenamento de objetos, EBS para armazenamento de blocos, EFS para arquivos e Glacier para arquivamento de baixo custo. [2] Também discute casos de uso como backup, arquivamento e recuperação de desastres usando essas soluções. [3] Por fim, resume a apresentação do AltaVault como uma solução de armazenamento integrada à nuvem que permite backup e arquivamento ef
Escalabilidade para sua solução na Nuvem da AWS de um para centenas de milhõe...Amazon Web Services LATAM
O documento discute estratégias para escalabilidade na nuvem AWS, começando com uma única instância EC2 e evoluindo para arquiteturas capazes de suportar milhões de usuários. É recomendado usar redundância, balanceamento de carga, auto-escalonamento, arquitetura orientada a serviços e serviços gerenciados como S3, DynamoDB e ElastiCache. Ferramentas de automação e monitoramento também são importantes para gerenciar a infraestrutura em larga escala.
AWS Meetup Rio - Qual banco usar e quando?Pedro Pisa
Nestra palestra, realizada no dia 30/08/2016, no Senac-RJ, apresentei as principais soluções de bancos de dados disponíveis na AWS e as diferenças entre elas, bem como alguns casos de uso sugeridos para cada um.
O documento apresenta estratégias para escalar uma aplicação na AWS até 10 milhões de usuários, começando com uma única instância e separando gradualmente os componentes (web, banco de dados) em várias instâncias e zonas de disponibilidade. Ferramentas como Elastic Load Balancing, Auto Scaling e serviços gerenciados como DynamoDB e RDS são apresentados para melhorar a performance, tolerância a falhas e escalabilidade da arquitetura.
O documento discute o desenvolvimento de aplicações móveis na nuvem AWS, incluindo como hospedar dados de usuários, armazenar conteúdo estático e dinâmico, e exemplos de aplicações móveis usando serviços AWS como EC2, S3, DynamoDB e outros.
O documento discute a construção de data lakes para o governo usando a AWS. Ele descreve como data lakes estendem a abordagem tradicional de arquitetura de dados corporativos para lidar com o crescimento e diversidade de dados. Também apresenta casos de uso de vários serviços da AWS como Amazon S3, Amazon Athena, Amazon QuickSight e Amazon SageMaker para armazenar, explorar, visualizar e analisar dados em data lakes governamentais.
O documento discute os serviços de banco de dados gerenciados da AWS, incluindo Amazon RDS para bancos de dados relacionais, DynamoDB para bancos de dados não relacionais e Amazon Redshift para data warehouses. Ele fornece detalhes sobre recursos, casos de uso, arquitetura e preços de cada serviço.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento descreve várias soluções de segurança da nuvem da AWS, incluindo ferramentas para gestão de acessos e identidade, detecção, segurança de infraestrutura, resposta a incidentes e proteção de dados. A AWS oferece 203 certificações de segurança e mais de 2.600 controles auditados anualmente para ajudar clientes a manterem a conformidade e segurança na nuvem.
En este webinar, aprenderá cómo las empresas pueden aprovechar la nube de AWS para automatizar los pipelines de desarrollo de software. Este enfoque permite que su equipo sea más ágil, mejorando su capacidad para entregar aplicaciones y servicios rápidamente.
Neste webinar, você aprenderá como as empresas podem se valer da nuvem da AWS para automatizar os pipelines de desenvolvimento de software. Essa abordagem permite que sua equipe seja mais ágil, melhorando sua capacidade para entregar aplicações e serviços mais rapidamente.
Las tecnologías como los contenedores y kubernetes pueden hacer que sus procesos de entrega de software sean más fáciles y más rápidos. En este webinar, hablaremos sobre cómo usar el Amazon Kubernetes Service (EKS) para construir aplicaciones modernas con grupos Kubernetes totalmente administrados.
Tecnologias como containers e Kubernetes podem tornar seus processos de entrega de software mais fáceis e rápidos. Neste webinar, falaremos sobre como usar o Amazon Elastic Kubernetes Service (EKS) para criar aplicativos modernos com clusters de Kubernetes totalmente gerenciados.
Ransomware é uma das ameaças de crescimento mais rápido para qualquer organização. Nenhuma empresa, grande ou pequena, está imune a ataques de cibercriminosos. Nesta sessão, mostramos como você pode aproveitar os serviços e recursos da nuvem AWS para proteger seus dados mais valiosos de ataques cibernéticos e acelerar a restauração de operações.
El ransomware es una de las amenazas de más rápido crecimiento para cualquier organización. Ninguna empresa, grande o pequeña, es inmune a los ataques de los ciberdelincuentes. En esta sesión, mostramos cómo puede aprovechar los servicios y las capacidades de la nube AWS para proteger sus datos más valiosos de los ataques cibernéticos y acelerar la restauración de las operaciones.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
El ransomware es una práctica maliciosa que se ha popularizado en los últimos años. En esta sesión les mostraremos cómo desde Amazon Web Services nuestros clientes pueden desarrollar una estrategia proactiva de mitigación frente a ataques de ransomware, tanto en escenarios on-premises, como operando en la nube.
Al mover datos a la nube, los clientes deben comprender los métodos óptimos para los diferentes casos de uso, los tipos de datos que están moviendo y los recursos disponibles en la red, entre otros. Las soluciones de migración y transferencia de AWS contemplan desde la migración de datos con conectividad limitada, almacenamiento en la nube híbrida, transferencias frecuentes de archivos B2B, hasta transferencias de datos en línea y sin conexión. En esta sesión, le mostramos cómo puede acelerar la migración y transferencia de datos de manera simplificada desde y hacia la nube de AWS.
O documento discute estratégias para migração de dados para a AWS, incluindo serviços como AWS Transfer Family para transferência de arquivos, AWS DataSync para mover dados entre ambientes on-premises e AWS, e AWS Snow Family para transferência offline de grandes quantidades de dados.
El almacenamiento de archivos tiene diversos casos de uso; como directorios de usuarios, datos de aplicaciones, archivos multimedia y almacenamiento compartido para cargas de trabajo de alto rendimiento. La administración del almacenamiento de archivos en instalaciones propias suele ser un trabajo pesado, indiferenciado, con altos costos de adquisición, carga operativa para configurar y administra, lo que conlleva a desafíos de escalabilidad. En esta sesión, le mostramos cómo puede aprovechar las soluciones de archivos totalmente administradas de AWS para dejar de preocuparse por la sobrecarga administrativa de configurar, proteger, mantener y realizar copias de seguridad de su infraestructura de archivos.
La visualización de datos analíticos es un reto al que se enfrentan muchas organizaciones, el poder crear tableros, alertas, agregar predicciones a sus datos y actuar de acuerdo a estas de manera rápida es una necesidad de todos los negocios actuales. Únase a nuestros arquitectos para aprender como Amazon QuickSight le permite agregar inteligencia de negocios a sus aplicaciones y crear predicciones a futuro de sus datos. Amazon QuickSight es un servicio de inteligencia de negocios escalable y serverless creado para la nube, a través del cual podrá explotar sus datos de negocio para convertirlos en insights para hacer decisiones informadas sobre su negocio sin preocuparse de la gestión, escalamiento y la disponibilidad de la infraestructura de cómputo.
A visualização de dados é um desafio que muitas organizações enfrentam hoje. Criar dashboards, alertas, fazer previsões e agir rapidamente de acordo com os insights dos dados é uma necessidade de todas as empresas. Junte-se aos nossos arquitetos para aprender como o Amazon QuickSight o ajudará a adicionar BI aos seus aplicativos. O Amazon Quicksight é um serviço de BI escalável e serverless criado para a nuvem. Com ele, você pode explorar seus dados para obter insights e tomar decisões embasadas em seus negócios, sem se preocupar em gerenciar e dimensionar servidores e manter a disponibilidade de sua infraestrutura.
1) O documento discute os benefícios de migrar workloads de Big Data para a AWS, incluindo tornar mais fácil construir data lakes e analytics, oferecer maior abrangência de serviços e fornecer infraestrutura mais segura e escalável.
2) É apresentada a plataforma Amazon EMR para executar aplicativos de Big Data de forma gerenciada na AWS, proporcionando melhor desempenho a menor custo em comparação a clusters on-premises.
3) A separação de computação e armazenamento no Amazon EMR permite
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
2. Agenda
• Breve história sobre processamento de dados
Relacional (SQL) vs. non-relacional (NoSQL)
• Soluções NoSQL na AWS
• Amazon DynamoDB’s 100% Gerenciado
3. Volume de dados desde 2010
• 90% dos dados armazenados
foram gerados nos 2 últimos
anos
• 1 terabyte de dados em 2010
hoje representa o mesmo de 6.5
petabytes
• Correlação linear entre dados e
inovação tecnológica
• Nenhuma razão para que essas
tendências não continuem a
acontecer.
9. SQL (Relacional)
Price Desc.
$11.50
$8.99
Chaplin’s
first …
Columns
Rows
Primary Key Index
$14.95
One of 2
major …
The
Partitas
Product
ID
Type
1
2
3
Products
Book
Album
Movie
Books
Title Date
Odyssey 1871
Book ID
1
Books
Author
Homer
10. SQL (Relacional)
Price Desc.
$11.50
$8.99
Chaplin’s
first …
Columns
Rows
Primary Key Index
$14.95
One of 2
major …
The
Partitas
Product
ID
Type
1
2
3
Products
Book
Album
Movie
Books
Title Date
Odyssey 1871
Book ID
1
Books
Genre Director
Drama,
Comedy
Chaplin
Movie ID Title
3 The Kid
Movies
Author
Homer
11. SQL (Relacional)
Products
Price Desc.
$11.50
$8.99
Chaplin’s
first …
Columns
Rows
Primary Key Index
$14.95
One of 2
major …
The
Partitas
Product
ID
Type
1
2
3
Book
Album
Movie
Books Albums
Title Date
Odyssey 1871
Book ID
1
Books Albums
Title
6 Partitas
Album
ID
Artist
2
Genre Director
Drama,
Comedy
Chaplin
Movie ID Title
3 The Kid
Movies
Bach
Author
Homer
12. SQL (Relacional)
Price Desc.
$11.50
$8.99
Chaplin’s
first …
Columns
Rows
Primary Key Index
$14.95
One of 2
major …
The
Partitas
Product
ID
Type
1
2
3
Books Albums
Products
Book
Album
Movie
Title Date
Odyssey 1871
Book ID
1
Books Albums
Title
6 Partitas
Album
ID
Artist
2
Genre Director
Drama,
Comedy
Chaplin
Movie ID Title
3 The Kid
Movies Tracks
Track
Partita
No. 1
Album
ID
Track ID
2 1
Bach
Author
Homer
13. SQL (Relacional) vs. NoSQL (Non-relacional)
Product
ID
Type
Odyssey Homer1 Book ID
2 Album ID 6 Partitas
2
Album ID:
Track ID
Partita
No. 1
Bach
Attributes
Schema is defined per item
Items
Partition Key Sort Key
3 Movie ID The Kid
Drama,
Comedy
1871
Chaplin
Primary Key Products
Price Desc.
$11.50
$8.99
Chaplin’s
first …
Columns
Rows
Primary Key Index
$14.95
One of 2
major …
The
Partitas
Product
ID
Type
1
2
3
Title Date
Odyssey 1871
Book ID
1
Books Albums
Title
6 Partitas
Album
ID
Artist
2
Genre Director
Drama,
Comedy
Chaplin
Movie ID Title
3 The Kid
Movies
Products
Book
Album
Movie
Tracks
Track
Partita
No. 1
Album
ID
Track ID
2 1
Author
Homer Bach NoSQL design otimiza para
computação em vez de
armazenamento
14. Por que NoSQL?
Otimizado para armazenamento Otimizado para processamento
Normalizado/relacional Desnormalizado/Hierárquico
Ad hoc queries Visualização instantânia
Escala vertical Escala horizontal
Bom para for OLTP/OLAP Bom para for OLTP em
escalabilidade
SQL NoSQL
15. NoSQL solutions using Amazon EC2 and EBS
DB rodando no seu datacenter DB rodando em Amazon EC2
18. • Alta disponibilidae com transparência
• Replicação sem custo extra
• Recuperação de disastre caso uma
região tenha falha
• Escale-out direcionando tráfego para
as replicas de leitura de leitura
Multi-AZ & Replicação entre região
1
2
19. • Reduz o custo para deletar itens que não são mais necessários
• Otimização de performance ao controlar o tamanho da tabela
• Trigger (Eventos) com streamming e AWS Lambda
DynamoDB Time-to-Live (TTL)
ID Name Size Expiry
1234 A 100 1456702305
2222 B 240 1456702400
3423 C 150 1459207905
TTL Value
(Epoch format)
TTL Attribute
20. Programação baseada em eventos
DynamoDB Triggers
Implementado com funções
de AWS Lambda functions
Seu código escala
automáticamente
Java, Node.js, Python e
.NET Core
DynamoDB Streams
Stream dos updates da
tabela
Processamento
assíncrono
Exatamente uma vez
Com ordenação
24-hr lifetime per item
21. Plataforma de integração DynamoDB
IoT
S3
Kinesis
EMR
Redshift
Data Pipeline
Mobile
Hub
Lambda
Elasticsearch
SNS
CloudWatch
CloudTrail
22. Integração com AWS
• Camada de cache 100%
gerênciado com Elasticache
• Full-text search query com
Elasticsearch
• Big Data Analytics com EMR e
Redshifit
• Processamento em tempo real com
Kinesis
23. • Controle de acesso restritivo e controlado com
AWS IAM
• Biblioteca de criptografia no lado do cliente
• Log de configurações e acesso com AWS
CloudTrail
• Monitoramento de desempenho e alarme de
eventos com AWS CloudWatch
Segurança com DynamoDB
27. Escritas
Replicação continua em 3 AZs
Leituras
Strongly or eventually consistent
Sem trade-off de latência
Desenhado para
ter 99.99% de
disponibilidade
Contruído
para alta
durabilidade
Alta disponibilidade e durabilidade
29. MLBAM (MLB Advanced Media) is a full service solutions
provider, operating a powerful content delivery platform.
Pela primeira vez, nós
conseguimos mensurar
coisas que nós nunca
mensuramos antes
Joe Inzerillo
Executive Vice President and CTO, MLBAM
”
“ • MLBAM Conseguiu suportar vários jogos no mesmo
dia e escalar sua capacidade para atender essa
demanda.
• Amazon DynamoDB permite o acesso ao dado de
uma maneira muito rápida.
• MLBAM realiza 25,000 eventos ao vivo anualmente e
realiza 10 milhões de transmissões por dia.
Major League Baseball Fields Big Data,
Excitement with Amazon DynamoDB
30. Duolingo escalou seu armazenamento para 31
Bilhões de Itens usando DynamoDB
Duolingo is a free language learning service where
users help translate the web and rate translations.
Usando a AWS, podemos
lidar com os picos de tráfego
que aumenta até sete vezes
a quantidade de tráfego
normal.
Severin Hacker
CTO, Duolingo
”
“
• Duolingo armazena dado para cada usuário para
gerar lições personalizadas.
• O banco de dados MySQL database não conseguiu
acompanhar o crescimento do negócio
• Ao utilizar um banco de dados escalavel aumentou a
capacidade de armazenamento de 100 milhões para
bilhões de itens
• Duolingo possuí capacidade para escalar e suportar
mais de 8 milhões de usuários ativos
31. Ad Tech Gaming MobileIoT Web
Scaling high-velocity use cases with DynamoDB
We will look at the history of databases, and we’ll discuss relational database and non-relational databases, and the differences.
I’ll introduce Amazon DynamoDB and we’ll look at customer references who have built scalable applications using this technology.
To fully appreciate the need for NoSQL… Let’s start by looking into how much data volume has grown in the last 5 years. 90% of data was generated in the last 2 years.
1 TB vs 6.5 PB
We are starting to see Businesses with multi-TB have exploded to multi-PB databases.
As data volume increased, we started innovating data processing systems that would scale to process the large volume of data
We started by remembering everything (human brain) and advanced to writing things down (for centuries). As data pressure increased we saw Magnetic storage, File systems, and then finally Relational Databases. 40 years. Table normalization was designed to eliminate duplicates and save storage costs. Multiple tables – Complex SQL joins – Resource intensive. Optimize for the costlier asset. AGNOSTIC TO ACCESS PATTERNS -- Great for adhoc queries –NOT optimized. Business are seeing the limitations in relational databases. Switching to NoSQL.
Every time there is a new technology, there is initial excitement with early adopters… They may run into roadblocks.
It’s the same with NoSQL. The goal of this presentation is to explain the difference between relational and NoSQL databases. And as you gain more experience with this technology you will start to realize the benefits of NoSQL for your application. And that will help you cross the chasm in getting started with DynamoDB.
Let’s deep dive into the differences between relational and non-relational databases.
Why? Databases are a crucial part of your application and your choice of database technology will determine how your application scales.
To understand the benefits of NoSQL…
Relational - Data is normalized. To enable joins, You are tied to a single partition and a single system. performance on the hardware specs of the primary server. To improve performance, Optimize -- Move to a bigger box. You may still run out of headroom. Create Read Replicas. You will still run out. Scale UP.
NoSQL -- NoSQL databases were designed specifically to overcome scalability issues. Scale “out” data using distributed clusters, low-cost hardware, throughput + low latency
Therefore, Using NoSQL, businesses can scale virtually without limit.
Relational databases normalize data into tabular structures known as tables, which consist of rows and columns.
In relational databases, a schema strictly defines the tables, columns, indexes, relationships between tables, and other database elements. There is a 1:1 relationship between the Products table and Books table.
There is a 1:1 relationship between the Products table and Movies table.
There is a 1:1 relationship between the Products table and Albums table.
m:n relationship between albums and tracks.
Notice how you can execute a complex join to run adhoc queries - agnostic to data access patterns - they are not optimized for a specific access pattern.
Businesses are starting to see a limitation in relational databases.
NoSQL you have to ask – how will the application access the data? And store your data in such a way to retrieve the data with just a Select, and No joins. Designed by keeping in mind Access patterns. Via duplication of data (storage) and using Hierarchical structures, you can now optimize for compute, and therefore it is very fast.
==
Non-relational (NoSQL) databases typically do not enforce a schema. A “partition key” is generally used to retrieve values, column sets, or semi-structured JSON, XML, or other documents containing related item attributes.
Businesses are starting to see scalability problems with relational databases. I once had a customer say they top out with relational at around 3,000 requests per second and had to scale up to move to bigger hardware.With NoSQL, we have a technology that can easily sale to 100s of nodes, or even 1000s, and the scalability bottleneck goes away.
Excellent for OLTP applications that scale, real time data access, fast, low latency, user cannot wait.
==
They store data in a denormalized hierarchical view, that makes it faster and easier to access the data.
Those if you who are involved in spinning up and managing your own servers surely realize how resource intensive it is to manage your own infrastructure. It can be possible to underestimate the cost and complexity of maintaining…. You have to think about power, cooling, OS maintenance and patching. Now imagine managing a 1000 node cluster, this can become very resuource intensive
Amazon EC2 is an AWS service for is the comupte capacity in cloud, it is resizable. Database instance hosted in an EC2 instance takes away some of the overhead. But, you still need to think about scalability and availability.
So, this brings us to Amazon DynamoDB, which is what we are going to discuss today. Let’s take a closer look.
Fully managed – With just a few clicks on the AWS console – create a table that is highly scalalable, highly available, and gives you fast consistent predictable performance.
No need to launch or maintain any servers.
Tell DynamoDB read/write – DynamoDB will scale to meet your application’s requirements
Only pay for what you use. You get all of this with just a few clicks.
Key take away: Using DynamoDB customers get consistent, single-digit millisecond latency at any scale.
==
DynamoDB supports both document and key-value store models, and offers a range of features including global secondary indexes, fine-grained access control via AWS Identity and Access Management, support for event-driven programming, and more.
==
Fully Managed
Amazon DynamoDB is a fully managed cloud NoSQL database service – you simply create a database table, set your throughput, and let the service handle the rest. You no longer need to worry about database management tasks such as hardware or software provisioning, setup and configuration, software patching, operating a reliable, distributed database cluster, or partitioning data over multiple instances as you scale.
Fast, Consistent Performance
Amazon DynamoDB is designed to deliver consistent, fast performance at any scale for all applications. Average service-side latencies are typically single-digit milliseconds. As your data volumes grow and application performance demands increase, Amazon DynamoDB uses automatic partitioning and SSD technologies to meet your throughput requirements and deliver low latencies at any scale.
Highly Scalable
When creating a table, simply specify how much request capacity you require. If your throughput requirements change, simply update your table's request capacity using the AWS Management Console or the Amazon DynamoDB APIs. Amazon DynamoDB manages all the scaling behind the scenes, and you are still able to achieve your prior throughput levels while scaling is underway.
Flexible
Amazon DynamoDB supports both document and key-value data structures, giving you the flexibility to design the best architecture that is optimal for your application.
Event Driven Programming
Amazon DynamoDB integrates with AWS Lambda to provide Triggers which enables you to architect applications that automatically react to data changes.
Fine-grained Access Control
Amazon DynamoDB integrates with AWS Identity and Access Management (IAM) for fine-grained access control for users within your organization. You can assign unique security credentials to each user and control each user's access to services and resources.
http://aws.amazon.com/dynamodb
Built-In 3-way data replication to three Availability Zones (AZ) within an AWS region
Replicate to other regions with open source, fully-extensible, library
Automatically delete items from a table based on expiration timestamp
User defined TTL attribute in epoch time format
TTL activity recorded in DynamoDB Streams
Amazon DynamoDB Time-to-Live (TTL) enables you to automatically delete expired items from your tables, at no additional cost. Now, you no longer need to deal with the complexity and cost of manually scanning your tables and deleting the items that you don’t want to retain. Instead, you can simply specify an attribute containing the timestamp when each item in your table should expire and DynamoDB will delete the items for you automatically. You can also view and archive items deleted via TTL using DynamoDB Streams.
TTL is useful for customers whose storage is growing rapidly and want to control their costs by either archiving or deleting items that they don’t wish to retain indefinitely. It is also helpful for customers who have contractual requirements around data retention and want to closely manage the data in their tables.
To learn more about using TTL for your tables, read our blog post and TTL Documentation.https://aws.amazon.com/blogs/aws/new-manage-dynamodb-items-using-time-to-live-ttl/
http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/TTL.html
The new DynamoDB Streams feature is designed to address this very intriguing use case. Once you enable it for a DynamoDB table, all changes (puts, updates, and deletes) made to the table are tracked on a rolling 24-hour basis. You can retrieve this stream of update records with a single API call and use the results to build tools and applications that function as described above. You have full control over the records that appear in the DynamoDB Stream: no values, all values, or changed values.
If you are building mobile, ad-tech, gaming, web or IoT applications, you can use the DynamoDB Streams capability to make your applications respond to high velocity data changes without having to track the changes yourself. With the recent free tier increase (now including 25 GB of storage and over 200 million requests per month), you can try DynamoDB for your new applications at little or no cost.
You can think of the combination of Streams and Lambda as a clean and lightweight way to implement database triggers, NoSQL style! Historically, relational database triggers were implemented within the database engine itself. As such, the repertoire of possible responses to an operation is limited to the operations defined by the engine. Using Lambda to implement the actions associated with the triggers (inserting, deleting, and changing table items) is far more powerful and significantly more expressive.
For those of you who want to learn more, there is a session later today that will cover advanced topics.
For those of you who want to learn more, there is a session later today that will cover advanced topics.
Amazon DynamoDB provides features to help you secure your data:
Fine-grained Access Control - DynamoDB integrates with AWS Identity and Access Management (IAM) for fine-grained access control for users within your organization. You can assign unique security credentials to each user and control each user's access to services and resources. You can control access at the table, item or attribute level with AWS IAM
Client-side encryption library with optional AWS KMS integration; encrypt select or all attributes
Log DynamoDB configuration, table setup changes and API calls with AWS CloudTrail
Monitor performance and trigger alarms with AWS CloudWatch
Those if you who are involved in spinning up and managing your own servers surely realize how resource intensive it is to manage your own infrastructure. It can be possible to underestimate the cost and complexity of maintaining…. You have to think about power, cooling, OS maintenance and patching. Now imagine managing a 1000 node cluster, this can become very resuource intensive
Amazon EC2 is an AWS service for is the comupte capacity in cloud, it is resizable. Database instance hosted in an EC2 instance takes away some of the overhead. But, you still need to think about scalability and availability.
This is the value that is built into DynamoDB. With DynamoDB, you have get an easy-to-use database. You don’t have to spin up any servers. You can easily design serverless scalable aplications with DynamoDB. You get scalability and multi-AZ replication without designing a distributed system. You get ongoing security upgrades, software improvements, cost reduction efforts, monitoring…without any effort at all.
DDB is fully managed service, you have all of that benefit built into it. We built Dynamo to just work so you can focus on your app.
Note: This represents several days. It is real data, and we can’t share the Y axis. This represents swings of millions of RPS.
In any business, as your business scales up, you need a way to easy scale to meet the traffic, and be able to get consistent predicatable latency at any scale.
You need a way to scale down as your business needs changes. DynamoDB was designed to offer consistent and predictable single-digit millisecond latency, at any scale. And you only pay for what you use. NO limit on throughouput. No limit on Size – PB of data any number of items.
The latency characteristics of DynamoDB are under 10 milliseconds and highly consistent.
Most importantly, the data is durable in DynamoDB, constantly replicated across multiple data centers and persisted to SSD storage.
Predictable Performance
This is obviously something that’s important and valuable in any industry, whether it’s powering the New York Times recommendation engine, storing and retrieving game data for the game Fruit Ninja, or powering queries and fast data retrieval for Major League Baseball Advanced Media. Predictable performance at scale is a must-have for many web apps, and DynamoDB was designed specifically to deliver on this.
13/35. 4 more regions. DynamoDB is highly durable. AWS has a concept of regions and Availability zones. AWS region is a geographic area. Each region has multiple availability zones. Each AZ has 1 or more physical DCs. They have redundant power and cooling, and interconnected via high speed low latency fiber. Take for example the AWS region in NVIrgina. It has 4 Azs.
When you create a DynamoDB table in Nvirgina, we will replicate the data to 3 Azs. All the data is stored in SSDs.
A lot of value built into DynamoDB– a few clicks.
Growing number of customers in the Mobile, IoT, Gaming space are using DynamoDB.
Amazon’s path from Relational Databases to NoSQL reflects the journey many customers are now taking.
Amazon.com, the online retail business, runs on one of the world’s largest web infrastructures. Back in 2004, Amazon.com was using Relational Oracle Databases and they were unable to scale their relational database. Maintenance and administration. In order to keep Amazon.com highly scalable to support all the incoming traffic, Internal project to investigate options… “If availability, durability, and scalability are the priority, what would the database look like?”. This resulted in a whitepaper that described what the database should look like. This paper made the way for many NoSQL technologies out there today. This was also the beginning of DynamoDB.
Database as a Swiss Army Knife - Hundreds of applications built on RDBMS, Poor Scalability (Q4 was a pain), Poor availability, Exorbitantly high costs for h/w, software, admin
Dynamo = replicated DHT with consistency management
Specialist tool with limited query and simpler consistency
Problem: required significant effort to maintain
DynamoDB was designed to deliver consistently high performance at any scale:
Predictable Performance
Massively Scalable
Fully Managed
Low Cost
Give brief, give citations, give list of engines that reference it. Mention where the writers are today. 4 still with Amazon, at least 1 boomeranged.
Major League Baseball – A great example of a customer using DynamoDB to build IoT solution.
Amazon DynamoDB powers queries required to support many games on a single day. When there are only a few games, it dials down throughput to save money; MLBAM only pays for the capacity it uses.
===
STORY BACKGROUND
MLBAM (MLB Advanced Media) is a full service solutions provider, operating a powerful content delivery platform.
Amazon DynamoDB powers queries and supports the fast data retrieval required to support many games on a single day.
MLBAM distributes 25,000 live events annually and 10 million streams daily.
SOLUTION AND BENEFITS
MLBAM only pays for the capacity it uses.
When there are only a few games, it dials down throughput to save money.
MLBAM can focus on what it does best, rather than spending resources managing clusters of non-relational (NoSQL) databases.
On big game days, MLBAM can quickly scale up DynamoDB read and write capacity to meet its demand without increased latency.
ADDITIONAL INFORMATION
https://aws.amazon.com/solutions/case-studies/major-league-baseball-mlbam/
A customer who is using DynamoDB to power their Mobile applications -- Redfin – people use this application for searching buying and selling homes. More than 10,000 customers buy or sell homes with Redfin each year.
==
STORY BACKGROUND
Redfin offers full-service real estate brokerage services with local agents and online tools to help people buy & sell homes.
Redfin built technology to make customers smarter and faster when buying and selling homes.
More than 10,000 customers buy or sell homes with Redfin each year.
SOLUTION AND BENEFITS
Redfin connects users with properties and agents.
Redfin uses DynamoDB to deliver insights to its website and apps.
DynamoDB stores property scores, recommendations, property data (e.g., sold, est. value), agent scoring (i.e., how the agent is performing).
Redfin websites and apps consume these data from DynamoDB.
Using Amazon DynamoDB, Amazon Redshift, Amazon EMR, Amazon S3
ADDITIONAL INFORMATION
[Coming December 2015]
Duolingo provides a free language-learning app that uses crowd sourcing to translate web content as users learn. Duolingo has to be able to scale to manage new users and in addition, expand the service to offer new languages. DynamoDB is Duolingo’s largest and most active data store.
Elastic Load Balancing distributes web and mobile traffic across approximately 170 Amazon Elastic Compute Cloud (Amazon EC2) instances.
STORY BACKGROUND
Duolingo provides a free language-learning app that uses crowd sourcing to translate web content as users learn.
In 2012, Apple named the Duolingo app iPhone App of the Year.
Duolingo has to be able to scale to manage new users and in addition, expand the service to offer new languages.
SOLUTION AND BENEFITS
Learned about Amazon DynamoDB at re:Invent 2012.
DynamoDB is Duolingo’s largest and most active data store.
The company also uses Amazon Relational Database Service (Amazon RDS) running MySQL with provisioned IOPS storage.
Elastic Load Balancing distributes web and mobile traffic across approximately 170 Amazon Elastic Compute Cloud (Amazon EC2) instances.
Using Amazon DynamoDB, Amazon EC2, Elastic Load Balancing, Amazon SNS, Amazon SQS, Amazon VPC, Amazon CloudFront and Amazon CloudWatch
ADDITIONAL INFORMATION
https://aws.amazon.com/solutions/case-studies/duolingo
Nexon is a leading South Korean video game developer. Their blockbuster game titled HIT attracts over 2 million players. They were ranked #1 Mobile Game in Korea on the day of its launch. They used Amazon DynamoDB to scale and to provide a reliable user experience.
===
STORY BACKGROUND
Nexon is a leading South Korean video game developer and a pioneer in the world of interactive entertainment.
Nexon provides 150 games to 150 countries, including FIFA Online 3, MapleStory, and Sudden Attack.
As of 2014, sales reached $1.6 billion, with 60% from overseas business
Nexon used DynamoDB as its primary game database for a new blockbuster Mobile Game, HIT
SOLUTION AND BENEFITS
DynamoDB serves as the primary game database, offering low latency and scale to match player demand
Despite a steady increase in the size of the data, DynamoDB delivered steady latency of less than 10ms.
This enabled Nexon to provide a reliable service to users HIT, which was the foundation for the success of HIT.
ADDITIONAL INFORMATION
https://aws.amazon.com/solutions/case-studies/nexon/
Here are just a few examples of customers achieving tremendous scale with DynamoDB:
And what do customers want? They want Predictable consistent low latency performance at scale; and DynamoDB was designed specifically to deliver on this.
==
Ad Tech
AdRoll http://aws.amazon.com/solutions/case-studies/adroll/
DataXu http://info.qubole.com/how-dataxu-manages-big-data
AdBrain http://www.adbrain.com/careers-generalapp/
DoApp https://aws.amazon.com/solutions/case-studies/doapp/
VidRoll https://aws.amazon.com/solutions/case-studies/vidroll/
Fiksu https://aws.amazon.com/solutions/case-studies/fiksu/
TubeMogul https://www.tubemogul.com/engineering/using-contextual-information-in-programmatic-advertising/
TCC https://github.com/TheClimateCorporation/mandolin
Gaming
Supercell http://aws.amazon.com/solutions/case-studies/supercell/
Zynga https://aws.amazon.com/solutions/case-studies/zynga/
Nexon http://aws.amazon.com/solutions/case-studies/nexon
PennyPop http://aws.amazon.com/solutions/case-studies/battle-camp/
Frontier http://aws.amazon.com/solutions/case-studies/frontier-games/
scopely https://aws.amazon.com/solutions/case-studies/scopely/
Unalis https://aws.amazon.com/solutions/case-studies/unalis/
IoT
MLBAM http://aws.amazon.com/solutions/case-studies/major-league-baseball-mlbam/
ACTi https://aws.amazon.com/solutions/case-studies/acti-case-study/
Canary https://aws.amazon.com/solutions/case-studies/canary/
Dropcam https://aws.amazon.com/solutions/case-studies/dropcam/
MediaTek https://aws.amazon.com/solutions/case-studies/mediatek/
Devicescape https://aws.amazon.com/solutions/case-studies/devicescape/
Mobile
Duolingo http://aws.amazon.com/solutions/case-studies/duolingo-case-study-dynamodb/
Mapbox https://www.mapbox.com/blog/scaling-the-mapbox-infrastructure-with-dynamodb-streams/
Redfin http://aws.amazon.com/solutions/case-studies/redfin/ and https://www.youtube.com/watch?v=YiaPjILR9zw
Remind https://aws.amazon.com/solutions/case-studies/remind/
Infraware http://aws.amazon.com/solutions/case-studies/infraware/
Myriad http://aws.amazon.com/solutions/case-studies/myriad-group/
Peak http://aws.amazon.com/solutions/case-studies/peak/
Web
Expedia https://aws.amazon.com/solutions/case-studies/expedia/
Nordstrom https://aws.amazon.com/solutions/case-studies/nordstrom/
JustGiving http://aws.amazon.com/solutions/case-studies/justgiving/
Tokyu Hands https://aws.amazon.com/blogs/aws/how-tokyu-hands-architected-a-cost-effective-shopping-system-with-amazon-dynamodb/
jobandtalent https://aws.amazon.com/solutions/case-studies/jobandtalent/
Tigerspike http://aws.amazon.com/solutions/case-studies/tigerspike/
Amazon DynamoDB is a fully Managed Service. So, to get started with Amazon DynamoDB you simply have to create a table.
After you logon to the AWS console, select DynamoDB, and click create table, here’s what the screen looks like.
Specify a table name, specify a “partition key”. IT’s like a primary key, and uniquely identifies a row.
Next, if required change the value for amount of reads / writes the table should support. Or accept the defaults and Click Create.
And you’ve created your table – this table which you’ve created in just a few clicks is highly scalable, highly available, and is designed to provide consistent low ms latency at scale.
Attributes can vary between the items, Each item can have a different set of attributes than the other items. (as with any NoSQL database).
Partition key – Primary key – uniquely identifies each item. Also determines HOW DATA IS Partitioned STORED
Optional Sort key – you have a composite key; Sort keys help to create 1:many relationships, and useful in range queries.
Some applications might need to perform many kinds of queries, using a variety of different attributes as query criteria.
Global Secondary Indexes – Parallel tables or secondary tables.
GSI can have a partition key that is different from the Table. They can also have an alternate sort key.
Customers, Orders, Date Range. Partition by Order Id and query for a date range.
Note: When you create a GSI, you must specify read and write capacity units for the expected workload on that index.
Customers often ask if LSI should be used or GSI. Think of this as a parallel table asynchronously populated by DynamoDB. Eventually consistent. GSI updates typically happen within a second.
Throughput for GSI is important.. That is important on how soon the GSI will be updated.
Note: When you create a GSI, you must specify read and write capacity units for the expected workload on that index.
1 Table update = 0, 1 or 2 GSI updates
Some applications only need to query data using the table's primary key; however, there may be situations where an alternate sort key would be helpful. You can use LSIs.
LSI is collocated on the same partition as the item in the table, so this gives us consistency. When an item is updated, LSI is updated, and then ack’d.
LSI is partitioned by the same primary key as the parent table. Different Sort key.
Say, there is a table containing Customers, Orders, date range. Customers and Orders. LSI can have sort key on a “date range”. A local secondary index maintains an alternate sort key for a given partition key value.
For those of you who want to learn more, there is a session later today that will cover advanced topics.
I’ll show you a Demo of building a serveless web app, and we’ll also look at the integration capabilities of DynamoDB with AWS services.
DynamoDB is a managed NoSQL offering from AWS, and we are looking for talented engineers to help build the next generation of this service. Contact Raja for more details.
We will build a web application, that will ask you for feedback and store in securely on the AWS Cloud. The website is a simple HTML/javascript web interface. All the non-PII data – Names of the Super heroes and the mission details is stored in Amazon DynamoDB. All the PII data is stored in Amazon S3 with SSE.
When we created this application, I had to main objectives. I do not want to spin up or have to manage any servers. Two, I want to take advantage of the high availability, scalability, and durability features of AWS services..
*** Amazon S3 is secure, durable, highly-scalable cloud storage, where you can store and retrieve any amount of data..
In this demo, I will access a website using the internet. The website is a simple HTML/javascript web interface. The website is stored in Amazon S3.
The application is a simple web interface that will retrieve flight schedules, flight number, wait list, etc stored in a DynamoDB table. In order to set this up, I did not have to spin up any servers, so no servers to maintain. I am taking advantage of all the fully managed capabilities of AWS services to securely access my data. All I did is create my application and let AWS handle the infrastructure and the scaling.
So we said that API Gateway acts as a front door to the “business logic”. So my business logic is running on AWS Lambda. AWS Lambda is a Fully managed compute service – you just write the code and upload it. In this example, the APIs created from the API Gateway front-door, will call the business logic running on AWS lambda functions.
And all the data is stored in DynamoDB.
DynamoDB is a fully managed NoSQL database service that provides consistent, single-digit millisecond latency at any scale.
[CLICK] So if you put this together, I will show you a demo where I will access a website hosted in an S3 bucket, which uses API Gateway calls to send requests to Lambda backends to store the DynamoDB data.
You can get started with creating your first serverless web application in AWS, by taking advantage of the DynamoDB free tier, that can handle up to 200 million requests for free.
==
As part of the AWS Free Tier, DynamoDB customers get 25GB of storage, 25 writes per second, and 25 reads per second. This lets you handle up to 200 million requests per month so you can deploy a proof-of-concept and begin testing the live cloud service. The DynamoDB free tier does not expire at the end of your 12 month AWS Free Tier term.
http://aws.amazon.com/free