A era dos ciclos anuais e semestrais de entrega de software está ficando para trás. Empresas líderes em seu segmento de mercado entregam software de alta qualidade em ciclos de poucos dias, em alguns casos, de poucas horas. Nesta sessão, iremos apresentar como você pode iniciar sua jornada para DevOps compartilhando boas práticas e ferramentas utilizadas pelos times de ‘duas pizzas’ da Amazon. Vamos mostrar como você pode acelerar sua produtividade implementando fluxos de integração e entrega contínua. E iremos introduzir os serviços que a AWS desenvolveu inspirados nas ferramentas e práticas internas da Amazon: AWS CodeCommit, AWS CodeBuild, AWS CodePipeline e AWS CodeDeploy.
https://aws.amazon.com/pt/products/developer-tools/
Containers Docker se tornaram um componente chave em arquiteturas de aplicações modernas. Desenvolvedores estão quebrando suas aplicações em componentes menores e as distribuindo em um conjunto de servidores. Usar Docker em seu ambiente de desenvolvimento local é simples, mas rodar aplicações Docker em escala em produção pode ser difícil.
https://aws.amazon.com/pt/docker/
Você já ouviu como o containers funcionam muito bem com microserviços, no entanto gerenciar grandes aplicações em produção utilizando microserviços ou containers não é tarefa fácil e frequentemente exige um modelo complexo de orquestração e gerenciamento da infraestrutura. Então o que exatamente é necessário pra ter sucesso com arquitetura de microserviços em escala? Nessa sessão vamos explorar a motivação e conceitos por traz dos microserviços e qual o ganho em introduzir containers na equação, além de detalhar alguns padrões de arquitetura utilizados por nossos clientes. Vamos também discutir algums desafios de rodar microserviços como balanceamento, discovery de serviços e gerenciamento de chaves de acesso e ver como o AWS EC2 Container Service (ECS) pode mitigar a complexidade dessas operações. Também demonstraremos como você pode facilmente colocar aplicações complexas de microserviços em produção utilizando o Amazon ECS.
https://aws.amazon.com/pt/docker/
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
É essencial que o seu programa de Nuvem comece da melhor forma possível e entregue valor para o negócio rapidamente, pois é uma iniciativa de grande visibilidade na companhia. Nesta sessão, falaremos sobre as capacidades e atividades necessárias para executar aplicações corporativas em produção nos seus primeiros 90 dias de AWS.
https://aws.amazon.com/pt/enterprise/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/getting-started/
Este documento apresenta boas práticas de arquitetura e operação para ambientes na AWS. Apresenta o framework Well Architected e o Cloud Operations Review, que fornecem diretrizes para avaliar a arquitetura e os processos operacionais. Também discute princípios como segurança, confiabilidade, desempenho e otimização de custos.
"Computação Serverless permite que você construa e execute aplicações sem a necessidade de provisionar ou gerenciar servidores. Com a computação Serverless você pode construir aplicações web, mobile e IoT backends, executar processamento em streams de dados ou em big data, criar chatbots e mais.
Nessa sessão você será iniciado nos caminhos da computação Serverless através do AWS Lambda, que lhe permite executar código sem provisionar ou gerenciar servidores. Nós o demonstraremos as bases de construção de aplicações em Lambda e como tirar vantagens de benefícios como elasticidade contínua, alta disponibilidade nativa, inúmeras integrações com apps AWS e de terceiros e precificação por frações de segundo. Nós também apresentaremos um portifólio de serviços AWS que lhe auxiliarão na construção de aplicações Serverless em conjunto com o lambda, como API Gateway, Amazon DynamoDB, AWS Step Functions e mais."
https://aws.amazon.com/pt/lambda/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/security/
Containers Docker se tornaram um componente chave em arquiteturas de aplicações modernas. Desenvolvedores estão quebrando suas aplicações em componentes menores e as distribuindo em um conjunto de servidores. Usar Docker em seu ambiente de desenvolvimento local é simples, mas rodar aplicações Docker em escala em produção pode ser difícil.
https://aws.amazon.com/pt/docker/
Você já ouviu como o containers funcionam muito bem com microserviços, no entanto gerenciar grandes aplicações em produção utilizando microserviços ou containers não é tarefa fácil e frequentemente exige um modelo complexo de orquestração e gerenciamento da infraestrutura. Então o que exatamente é necessário pra ter sucesso com arquitetura de microserviços em escala? Nessa sessão vamos explorar a motivação e conceitos por traz dos microserviços e qual o ganho em introduzir containers na equação, além de detalhar alguns padrões de arquitetura utilizados por nossos clientes. Vamos também discutir algums desafios de rodar microserviços como balanceamento, discovery de serviços e gerenciamento de chaves de acesso e ver como o AWS EC2 Container Service (ECS) pode mitigar a complexidade dessas operações. Também demonstraremos como você pode facilmente colocar aplicações complexas de microserviços em produção utilizando o Amazon ECS.
https://aws.amazon.com/pt/docker/
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
É essencial que o seu programa de Nuvem comece da melhor forma possível e entregue valor para o negócio rapidamente, pois é uma iniciativa de grande visibilidade na companhia. Nesta sessão, falaremos sobre as capacidades e atividades necessárias para executar aplicações corporativas em produção nos seus primeiros 90 dias de AWS.
https://aws.amazon.com/pt/enterprise/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/getting-started/
Este documento apresenta boas práticas de arquitetura e operação para ambientes na AWS. Apresenta o framework Well Architected e o Cloud Operations Review, que fornecem diretrizes para avaliar a arquitetura e os processos operacionais. Também discute princípios como segurança, confiabilidade, desempenho e otimização de custos.
"Computação Serverless permite que você construa e execute aplicações sem a necessidade de provisionar ou gerenciar servidores. Com a computação Serverless você pode construir aplicações web, mobile e IoT backends, executar processamento em streams de dados ou em big data, criar chatbots e mais.
Nessa sessão você será iniciado nos caminhos da computação Serverless através do AWS Lambda, que lhe permite executar código sem provisionar ou gerenciar servidores. Nós o demonstraremos as bases de construção de aplicações em Lambda e como tirar vantagens de benefícios como elasticidade contínua, alta disponibilidade nativa, inúmeras integrações com apps AWS e de terceiros e precificação por frações de segundo. Nós também apresentaremos um portifólio de serviços AWS que lhe auxiliarão na construção de aplicações Serverless em conjunto com o lambda, como API Gateway, Amazon DynamoDB, AWS Step Functions e mais."
https://aws.amazon.com/pt/lambda/
Os clientes que usam a AWS se beneficiam de mais de 1.800 controles de segurança e conformidade incorporados na plataforma da AWS. Nesta sessão, você aprenderá a tirar proveito dos recursos de segurança avançados da plataforma AWS para obter visibilidade, agilidade e controle necessários para ser mais seguro na nuvem do que em ambientes legados. Vamos dar uma olhada em várias arquiteturas de referência para cargas de trabalho comuns e destacar as maneiras inovadoras que os clientes estão usando a AWS para gerenciar a segurança de forma mais eficiente. Depois de participar desta sessão, você estará familiarizado com o modelo de responsabilidade de segurança compartilhado e como você pode herdar controles dos programas de certificação e acreditação mantidos pela AWS.
https://aws.amazon.com/pt/security/
"O Amazon DynamoDB é um serviço de banco de dados NoSQL, totalmente gerenciado, para aplicativos que precisam de latência consistente de um dígito de milissegundos em qualquer escala. Nesta sessão iremos explorar as capacidades e benefícios do DynamoDB em detalhes e iremos discutir como obter o máximo do seu banco de dados DynamoDB. Examinaremos as melhores práticas de design de schema com o DynamoDB em vários casos de uso, incluindo jogos, AdTech, IoT e outros.
Também exploraremos o design de índices eficientes, scanning e queries, e detalharemos as funcionalidades lançadas recentemente, incluindo o suporte a documentos JSON, Streams, Time-to-Live (TTL) e muito mais."
https://aws.amazon.com/pt/products/databases/
Deep dive em aceleração de entrega de conteúdo, APIs e Aplicações utilizando ...Amazon Web Services LATAM
O documento apresenta o serviço Lambda@Edge da AWS, que permite executar código Node.js nos Pontos de Presença da AWS CloudFront para customizar conteúdo próximo aos usuários. Lambda@Edge permite validar acesso, reescrever URLs, entregar imagens responsivas e realizar A/B testing de forma global e sem servidores. O documento demonstra como Lambda@Edge pode melhorar a experiência do usuário final de forma escalável e com baixo custo.
Nesta sessão, pela voz do cliente e do parceiro, você irá conhecer um pouco da arquitetura do Advanced-Beer-as-a-Service, desenvolvido pela ChoppUp.com.br em parceria com br.Capgemini.com. A solução conta com AWS IoT, Step Functions, S3, Lambda e mais.
https://aws.amazon.com/pt/blogs/startups/internet-of-beer-introducing-simple-beer-service/
O documento fornece melhores práticas e lições aprendidas para aplicações serverless, incluindo: (1) entender o que é serverless e como funciona o ciclo de vida das funções Lambda, (2) monitorar aplicações com AWS X-Ray e manter a lógica de negócios separada, e (3) otimizar desempenho e recursos com alocação de memória correta e uso de VPC quando necessário.
Amazon EC2 oferece uma ampla seleção de tipos de instâncias para suportar diversos casos de uso. Nesta sessão, entregaremos uma visão geral da plataforma de instâncias do Amazon EC2, das características mais importantes da plataforma e do conceito de gerações de instâncias. Nos aprofundamos nas escolhas da geração atual para as diferentes famílias de instâncias, incluindo as famílias de Propósito Geral (General Purpose), as otimizadas para Computação, Otimizadas para Armazenamento, Otimizadas para Memória e as familias com Computação Acelerada (GPU e FPGA). Também detalharemos as melhores práticas e compartilhamos dicas de desempenho para obter o máximo de suas instâncias do Amazon EC2.
https://aws.amazon.com/pt/ec2/
"AWS Lambda e Amazon API Gateway mudaram a forma como aplicações e serviços são desenvolvidos. Porém, qual a melhor forma para executar tarefas como deployment, monitoramento e debugging em um mundo sem servidor? Nesta sessão, detalharemos as práticas recomendadas relacionadas a todo o ciclo de vida de uma aplicação serverless.
Discutiremos como você pode construir um pipeline CI/CD que automaticamente empacota (build), testa e faz deploy de aplicações serverless utilizando soluções como AWS CodePipeline, AWS CodeBuild e AWS CloudFormation. Além disso, apresentaremos recursos do AWS Lambda e Amazon API Gateway que auxiliam no processo de versionamento de funções e isolamento dos ambientes de execução de suas APIs. Por fim, vamos mostrar como o Amazon CloudWatch e o AWS X-Ray podem ser usados para auxiliar no processo de monitoramento e diagnóstico de seus serviços."
https://aws.amazon.com/pt/serverless/
A apresentação discute o Amazon QuickSight como uma ferramenta de business intelligence na nuvem da AWS que permite visualizar e analisar grandes volumes de dados de forma rápida e fácil. O QuickSight integra-se com diversos serviços de dados da AWS e possui recursos de administração de usuários, compartilhamento seguro de relatórios e preços acessíveis.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalável, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
O documento discute como obter valor comercial com big data. Resume os principais pontos do relatório de Matt Aslett da 451 Research sobre como seis empresas usam big data na nuvem para gerar valor. A nuvem permite introdução mais rápida no mercado, menor custo total de propriedade, redução de custos operacionais, maior agilidade dos desenvolvedores e novas oportunidades de receita.
O documento apresenta vários serviços da AWS relacionados à inteligência artificial, incluindo Amazon Rekognition para reconhecimento de imagens, Amazon Polly para conversão de texto em voz, e Apache MXNet para deep learning. Exemplos demonstram como utilizar essas ferramentas para aplicações como análise de imagens e geração de voz.
O quesito segurança é primordial na AWS. O intuito dessa apresentação será expor padrões de seguranças, assim como, boas práticas, desde da proteção da sua conta, até aos serviços utilizados.
Nesta sessão, gerentes e profissionais de TI receberão dicas importantes de como implementar uma Lean Enterprise como uma ferramenta poderosa para alavancar inovação em escala nas empresas, mas de forma tão efetiva e rápida quanto uma startup. Este tópico se torna cada vez mais relevante, à medida que as empresas se deparam com uma competição crescente, e ameaças surgem de todos os lados. Deve haver um balanço entre, proteger seu core business e inovar ao mesmo tempo: inovar tão rápido quanto uma startup e, ao mesmo tempo, minimizar o desperdício de tempo e recursos causado por falhas. Como isso é possível?
https://aws.amazon.com/pt/enterprise/
A visualização de dados é um desafio que muitas organizações enfrentam hoje. Criar dashboards, alertas, fazer previsões e agir rapidamente de acordo com os insights dos dados é uma necessidade de todas as empresas. Junte-se aos nossos arquitetos para aprender como o Amazon QuickSight o ajudará a adicionar BI aos seus aplicativos. O Amazon Quicksight é um serviço de BI escalável e serverless criado para a nuvem. Com ele, você pode explorar seus dados para obter insights e tomar decisões embasadas em seus negócios, sem se preocupar em gerenciar e dimensionar servidores e manter a disponibilidade de sua infraestrutura.
Este documento resume os principais serviços da AWS para desenvolvimento móvel em 3 frases:
A AWS oferece diversos serviços para identidade, armazenamento de dados, backend serverless, engajamento de usuários e testes em dispositivos reais. O Mobile Hub e os SDKs facilitam a integração com serviços como Cognito, DynamoDB, Lambda e Pinpoint. O documento apresenta casos de uso desses serviços e como eles podem suportar diferentes tipos de aplicativos móveis.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalavel, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
1) O documento discute como construir um Data Lake na AWS utilizando várias tecnologias da AWS.
2) É apresentada uma agenda com conceitos de Data Lake, simplificando o Data Lake e quais tecnologias utilizar.
3) Uma arquitetura de referência e design patterns são discutidos.
Empresas de ponta possuem ciclos de entrega de software medido em dias ao invés de meses. Essa agilidade é alcançada através de práticas de DevOps como entrega contínua, da qual permite automatizar a construção, testes e deploy mudanças no código da aplicação. Essa automação permite reconhecer problemas antecipadamente e aumentando a produtividade dos desenvolvedores.
Nesse webinar, vamos compartilhar os processos que os engenheiros da Amazon utilizam na prática de DevOps e discutir como você pode levar estes processos para sua empresa utilizando uma série de serviços (AWS CodePipeline e AWS CodeDeploy). Estes por sua vez, foram inspirados pela nossas ferramentas de desenvolvimento internos e cultura DevOps.
O documento discute arquiteturas serverless usando AWS Lambda. Ele descreve como Lambda permite executar código sem se preocupar com servidores, dimensionamento, deployments ou outros detalhes de infraestrutura. Também apresenta uma arquitetura de exemplo para um sistema de upload, transcodificação e armazenamento de vídeos de forma serverless.
O documento descreve como a Amazon Web Services (AWS) pode ser usada para construir uma infraestrutura de vídeo e conteúdo na nuvem de forma escalável, segura e flexível. A AWS fornece ferramentas como Amazon S3 para armazenamento, Amazon Elastic Compute Cloud (EC2) para processamento, Amazon Elastic Transcoder para transcodificação e Amazon CloudFront para entrega que permitem aos clientes se concentrarem em criar conteúdo de melhor qualidade de forma mais fácil. Casos de sucesso de empresas como Videolog, OTT Networks e
O documento discute como o DynamoDB da AWS pode ser usado para construir aplicações serverless escaláveis com armazenamento não relacional. Ele resume como o DynamoDB oferece desempenho previsível e alta disponibilidade para casos de uso como MLBAM e Duolingo, e como ele pode integrar-se com outros serviços da AWS como Lambda e API Gateway para criar aplicações baseadas em eventos.
1) O documento discute DevOps na AWS, incluindo o que é DevOps, a história de DevOps na Amazon, e serviços da AWS para DevOps.
2) Serviços como o AWS CodeBuild, AWS CodeDeploy e AWS CodePipeline podem automatizar o processo de build, teste e deploy de aplicações.
3) A AWS fornece diversas ferramentas para implementar práticas DevOps como entrega contínua e infraestrutura como código.
DevOps na AWS: Construindo Sistemas para Entregas Rápidas - DEV301 - Sao Pau...Amazon Web Services
Ciclos de lançamento de software agora são medidos em dias em vez de meses. Empresas de ponta estão continuamente fornecendo software de alta qualidade em um ritmo acelerado. Nesta sessão, abordaremos como você pode começar sua jornada de DevOps compartilhando melhores práticas e ferramentas usadas pelas equipes de engenharia na Amazon. Nós mostraremos como você pode acelerar a produtividade do desenvolvedor, implementando fluxos de trabalho contínuos de integração e entrega. Além disso, apresentamos o AWS CodeStar, o AWS CodeCommit, o AWS CodeBuild, o AWS CodePipeline, o AWS CodeDeploy e o AWS X-Ray, os serviços inspirados nas ferramentas de desenvolvedor internas e nas práticas DevOps da Amazon.
"O Amazon DynamoDB é um serviço de banco de dados NoSQL, totalmente gerenciado, para aplicativos que precisam de latência consistente de um dígito de milissegundos em qualquer escala. Nesta sessão iremos explorar as capacidades e benefícios do DynamoDB em detalhes e iremos discutir como obter o máximo do seu banco de dados DynamoDB. Examinaremos as melhores práticas de design de schema com o DynamoDB em vários casos de uso, incluindo jogos, AdTech, IoT e outros.
Também exploraremos o design de índices eficientes, scanning e queries, e detalharemos as funcionalidades lançadas recentemente, incluindo o suporte a documentos JSON, Streams, Time-to-Live (TTL) e muito mais."
https://aws.amazon.com/pt/products/databases/
Deep dive em aceleração de entrega de conteúdo, APIs e Aplicações utilizando ...Amazon Web Services LATAM
O documento apresenta o serviço Lambda@Edge da AWS, que permite executar código Node.js nos Pontos de Presença da AWS CloudFront para customizar conteúdo próximo aos usuários. Lambda@Edge permite validar acesso, reescrever URLs, entregar imagens responsivas e realizar A/B testing de forma global e sem servidores. O documento demonstra como Lambda@Edge pode melhorar a experiência do usuário final de forma escalável e com baixo custo.
Nesta sessão, pela voz do cliente e do parceiro, você irá conhecer um pouco da arquitetura do Advanced-Beer-as-a-Service, desenvolvido pela ChoppUp.com.br em parceria com br.Capgemini.com. A solução conta com AWS IoT, Step Functions, S3, Lambda e mais.
https://aws.amazon.com/pt/blogs/startups/internet-of-beer-introducing-simple-beer-service/
O documento fornece melhores práticas e lições aprendidas para aplicações serverless, incluindo: (1) entender o que é serverless e como funciona o ciclo de vida das funções Lambda, (2) monitorar aplicações com AWS X-Ray e manter a lógica de negócios separada, e (3) otimizar desempenho e recursos com alocação de memória correta e uso de VPC quando necessário.
Amazon EC2 oferece uma ampla seleção de tipos de instâncias para suportar diversos casos de uso. Nesta sessão, entregaremos uma visão geral da plataforma de instâncias do Amazon EC2, das características mais importantes da plataforma e do conceito de gerações de instâncias. Nos aprofundamos nas escolhas da geração atual para as diferentes famílias de instâncias, incluindo as famílias de Propósito Geral (General Purpose), as otimizadas para Computação, Otimizadas para Armazenamento, Otimizadas para Memória e as familias com Computação Acelerada (GPU e FPGA). Também detalharemos as melhores práticas e compartilhamos dicas de desempenho para obter o máximo de suas instâncias do Amazon EC2.
https://aws.amazon.com/pt/ec2/
"AWS Lambda e Amazon API Gateway mudaram a forma como aplicações e serviços são desenvolvidos. Porém, qual a melhor forma para executar tarefas como deployment, monitoramento e debugging em um mundo sem servidor? Nesta sessão, detalharemos as práticas recomendadas relacionadas a todo o ciclo de vida de uma aplicação serverless.
Discutiremos como você pode construir um pipeline CI/CD que automaticamente empacota (build), testa e faz deploy de aplicações serverless utilizando soluções como AWS CodePipeline, AWS CodeBuild e AWS CloudFormation. Além disso, apresentaremos recursos do AWS Lambda e Amazon API Gateway que auxiliam no processo de versionamento de funções e isolamento dos ambientes de execução de suas APIs. Por fim, vamos mostrar como o Amazon CloudWatch e o AWS X-Ray podem ser usados para auxiliar no processo de monitoramento e diagnóstico de seus serviços."
https://aws.amazon.com/pt/serverless/
A apresentação discute o Amazon QuickSight como uma ferramenta de business intelligence na nuvem da AWS que permite visualizar e analisar grandes volumes de dados de forma rápida e fácil. O QuickSight integra-se com diversos serviços de dados da AWS e possui recursos de administração de usuários, compartilhamento seguro de relatórios e preços acessíveis.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalável, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
O documento discute como obter valor comercial com big data. Resume os principais pontos do relatório de Matt Aslett da 451 Research sobre como seis empresas usam big data na nuvem para gerar valor. A nuvem permite introdução mais rápida no mercado, menor custo total de propriedade, redução de custos operacionais, maior agilidade dos desenvolvedores e novas oportunidades de receita.
O documento apresenta vários serviços da AWS relacionados à inteligência artificial, incluindo Amazon Rekognition para reconhecimento de imagens, Amazon Polly para conversão de texto em voz, e Apache MXNet para deep learning. Exemplos demonstram como utilizar essas ferramentas para aplicações como análise de imagens e geração de voz.
O quesito segurança é primordial na AWS. O intuito dessa apresentação será expor padrões de seguranças, assim como, boas práticas, desde da proteção da sua conta, até aos serviços utilizados.
Nesta sessão, gerentes e profissionais de TI receberão dicas importantes de como implementar uma Lean Enterprise como uma ferramenta poderosa para alavancar inovação em escala nas empresas, mas de forma tão efetiva e rápida quanto uma startup. Este tópico se torna cada vez mais relevante, à medida que as empresas se deparam com uma competição crescente, e ameaças surgem de todos os lados. Deve haver um balanço entre, proteger seu core business e inovar ao mesmo tempo: inovar tão rápido quanto uma startup e, ao mesmo tempo, minimizar o desperdício de tempo e recursos causado por falhas. Como isso é possível?
https://aws.amazon.com/pt/enterprise/
A visualização de dados é um desafio que muitas organizações enfrentam hoje. Criar dashboards, alertas, fazer previsões e agir rapidamente de acordo com os insights dos dados é uma necessidade de todas as empresas. Junte-se aos nossos arquitetos para aprender como o Amazon QuickSight o ajudará a adicionar BI aos seus aplicativos. O Amazon Quicksight é um serviço de BI escalável e serverless criado para a nuvem. Com ele, você pode explorar seus dados para obter insights e tomar decisões embasadas em seus negócios, sem se preocupar em gerenciar e dimensionar servidores e manter a disponibilidade de sua infraestrutura.
Este documento resume os principais serviços da AWS para desenvolvimento móvel em 3 frases:
A AWS oferece diversos serviços para identidade, armazenamento de dados, backend serverless, engajamento de usuários e testes em dispositivos reais. O Mobile Hub e os SDKs facilitam a integração com serviços como Cognito, DynamoDB, Lambda e Pinpoint. O documento apresenta casos de uso desses serviços e como eles podem suportar diferentes tipos de aplicativos móveis.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalavel, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
1) O documento discute como construir um Data Lake na AWS utilizando várias tecnologias da AWS.
2) É apresentada uma agenda com conceitos de Data Lake, simplificando o Data Lake e quais tecnologias utilizar.
3) Uma arquitetura de referência e design patterns são discutidos.
Empresas de ponta possuem ciclos de entrega de software medido em dias ao invés de meses. Essa agilidade é alcançada através de práticas de DevOps como entrega contínua, da qual permite automatizar a construção, testes e deploy mudanças no código da aplicação. Essa automação permite reconhecer problemas antecipadamente e aumentando a produtividade dos desenvolvedores.
Nesse webinar, vamos compartilhar os processos que os engenheiros da Amazon utilizam na prática de DevOps e discutir como você pode levar estes processos para sua empresa utilizando uma série de serviços (AWS CodePipeline e AWS CodeDeploy). Estes por sua vez, foram inspirados pela nossas ferramentas de desenvolvimento internos e cultura DevOps.
O documento discute arquiteturas serverless usando AWS Lambda. Ele descreve como Lambda permite executar código sem se preocupar com servidores, dimensionamento, deployments ou outros detalhes de infraestrutura. Também apresenta uma arquitetura de exemplo para um sistema de upload, transcodificação e armazenamento de vídeos de forma serverless.
O documento descreve como a Amazon Web Services (AWS) pode ser usada para construir uma infraestrutura de vídeo e conteúdo na nuvem de forma escalável, segura e flexível. A AWS fornece ferramentas como Amazon S3 para armazenamento, Amazon Elastic Compute Cloud (EC2) para processamento, Amazon Elastic Transcoder para transcodificação e Amazon CloudFront para entrega que permitem aos clientes se concentrarem em criar conteúdo de melhor qualidade de forma mais fácil. Casos de sucesso de empresas como Videolog, OTT Networks e
O documento discute como o DynamoDB da AWS pode ser usado para construir aplicações serverless escaláveis com armazenamento não relacional. Ele resume como o DynamoDB oferece desempenho previsível e alta disponibilidade para casos de uso como MLBAM e Duolingo, e como ele pode integrar-se com outros serviços da AWS como Lambda e API Gateway para criar aplicações baseadas em eventos.
1) O documento discute DevOps na AWS, incluindo o que é DevOps, a história de DevOps na Amazon, e serviços da AWS para DevOps.
2) Serviços como o AWS CodeBuild, AWS CodeDeploy e AWS CodePipeline podem automatizar o processo de build, teste e deploy de aplicações.
3) A AWS fornece diversas ferramentas para implementar práticas DevOps como entrega contínua e infraestrutura como código.
DevOps na AWS: Construindo Sistemas para Entregas Rápidas - DEV301 - Sao Pau...Amazon Web Services
Ciclos de lançamento de software agora são medidos em dias em vez de meses. Empresas de ponta estão continuamente fornecendo software de alta qualidade em um ritmo acelerado. Nesta sessão, abordaremos como você pode começar sua jornada de DevOps compartilhando melhores práticas e ferramentas usadas pelas equipes de engenharia na Amazon. Nós mostraremos como você pode acelerar a produtividade do desenvolvedor, implementando fluxos de trabalho contínuos de integração e entrega. Além disso, apresentamos o AWS CodeStar, o AWS CodeCommit, o AWS CodeBuild, o AWS CodePipeline, o AWS CodeDeploy e o AWS X-Ray, os serviços inspirados nas ferramentas de desenvolvedor internas e nas práticas DevOps da Amazon.
Neste webinar, você aprenderá como as empresas podem se valer da nuvem da AWS para automatizar os pipelines de desenvolvimento de software. Essa abordagem permite que sua equipe seja mais ágil, melhorando sua capacidade para entregar aplicações e serviços mais rapidamente.
O documento discute técnicas de Continuous Integration, Continuous Deployment e DevOps utilizando serviços da AWS. Ele explica como a infraestrutura pode ser tratada como código e automatizada usando ferramentas como CloudFormation, Elastic Beanstalk e OpsWorks para criar ambientes de desenvolvimento, teste e produção semelhantes. Também recomenda utilizar modelos de custo como On Demand, Reserved Instances e Spot Instances da AWS para economizar nos custos com a infraestrutura.
Para obter o máximo da agilidade proporcionada por aplicações modernas, é essencial construir práticas de CI/CD que ajudem as equipes a iterar no código e liberar recursos rapidamente. Neste webinar, compartilharemos as práticas recomendadas para criar fluxos de trabalho de lançamento de CI/CD eficazes para gerenciar suas implantações serverless ou em containers na AWS.
O documento discute como implementar um processo de entrega contínua automatizado usando ferramentas como Elastic Beanstalk, CodeDeploy e AWS CodePipeline para implantar aplicações na nuvem de forma escalável e sem downtime.
Quebrando barreiras entre desenvolvimento e operação de software com DevOpsJosé Alexandre Macedo
Apresentado para o Pop-ES e NPD da Ufes. Conheça o significado de DevOps e como ele pode apoiar entregas mais rápidas de software por meio da mudança de cultura, automatização entre outras...
O documento discute como o DevOps e o Azure Pipelines melhoraram o processo de entrega em uma empresa. Ele explica o que é DevOps, Integração Contínua, Entrega Contínua e automação. Também descreve como o Azure DevOps, Azure Pipelines, Azure Boards e outros serviços do Azure podem ser usados para habilitar práticas DevOps como planejamento, CI/CD e implantação.
O documento discute como containers Docker podem ser usados para facilitar o deploy de aplicações e garantir que o ambiente de desenvolvimento seja idêntico ao de produção. Ele explica os benefícios dos containers sobre máquinas virtuais em termos de performance e escalabilidade e demonstra passo a passo como criar e implantar containers Docker na AWS usando o Elastic Beanstalk.
O documento discute as melhores práticas de CI/CD para desenvolvimento moderno de aplicações, incluindo integração contínua, entrega contínua e deploy contínuo utilizando ferramentas AWS como CodeCommit, CodeBuild, CodePipeline e CodeDeploy.
O que é DevOps? Como a AWS usa DevOps para inovar continuamente? Como a VTEX usa DevOps para ser o maior provedor de eCommerce do Brasil? Estas e outras respostas, nesta apresentação...
ALM Open Source Ponta a Ponta - Minicurso Globalcode MC-122Bruno Souza
Slides do Minicurso ministrado pela ToolsCloud na Globalcode. Para se inscrever nas proximas turmas, acesse:
http://www.globalcode.com.br/gratuitos/minicursos/minicurso-introducao-a-alm-open-source
Para experimentar as ferramentas apresentadas no minicurso, você pode utilizar o ambiente de demonstração da ToolsCloud:
https://demo.toolscloud.net
User: toolscloud
Password: toolscloud
ToolsCloud -- As ferramentas que os desenvolvedores adoram, na nuvem!
Solução complete de ALM, open source e sem stress. Começe a usar no seu projeto hoje!
http://www.toolscloud.com
JHipster - Produtividade e Maturidade em suas mãosThiago Soares
O documento apresenta uma palestra sobre produtividade e maturidade usando a ferramenta JHipster. Apresenta os objetivos de gerar uma aplicação completa com JHipster em 1 hora para atender aos requisitos de um cliente. Explica o que é JHipster, Spring Boot e como eles automatizam a criação de código, permitindo focar na lógica de negócio. Demonstra o uso de JHipster para gerar CRUDs, deploy na nuvem e personalizar o código.
I. O documento discute os princípios do Twelve-Factor App para construção de aplicações SaaS escaláveis e portáveis. II. Doze princípios são apresentados, incluindo código versionado, dependências declaradas, configurações como variáveis de ambiente e logs como fluxos de eventos. III. Seguindo esses princípios, aplicações podem ser desenvolvidas para fácil implantação contínua e escalabilidade.
Palestra apresentada no TDC Recife 2019, na trilha de DevOps.
Apresento uma ferramenta de CI/CD da Microsoft, o Azure Pipelines, serviço que é parte do Azure DevOps, do ponto de vista de um time com quase nenhuma experiência montando um CI/CD. Mostrei algumas funcionalidades que tornaram nossa experiência com a ferramenta mais tranquila e que contribuíram com que a curva de aprendizado fosse a menor possível.
Azure Bootcamp 2018 - DevOps para profissionais de Infra - Infomach / GoiâniaRodrigo Marques Teixeira
Apresentação no Azure Bootcamp 2018, edição Goiânia. Evento realizado no espaço físico da empresa Infomach. Tema: DevOps para profissionais de TI. Introdução sobre a cultura DevOps e sua importância na atualidade.
1. O documento apresenta um fluxo de CI/CD utilizando ferramentas do Google Cloud como Cloud Build, Cloud Run e Cloud Storage.
2. É demonstrado como configurar triggers no Cloud Build para disparar builds em diferentes ambientes e como publicar containers no Cloud Run.
3. Também é mostrado um caso de uso em IoT para fazer over-the-air updates de dispositivos de forma automatizada utilizando essas mesmas ferramentas.
TDC2018SP | Trilha Testes - Guia de sobrevivência do QA em DevOpstdc-globalcode
Este guia discute como a abordagem DevOps afeta o trabalho de QA e como os testes podem ser automatizados para permitir a entrega contínua de software. A automação de testes unitários, funcionais e de integração é essencial para entregas mais rápidas e confiáveis na abordagem DevOps. A mentalidade de colaboração entre equipes de desenvolvimento e operações é fundamental para o sucesso do QA nesse modelo.
1) Docker é uma plataforma que permite empacotar aplicações e suas dependências para serem executadas de forma isolada em containers leves.
2) Os containers Docker podem rodar aplicações de forma consistente em diversos ambientes como desenvolvimento, teste, produção sem se preocupar com dependências.
3) Isso traz benefícios como facilidade de implantação, portabilidade entre plataformas, reprodutibilidade de ambientes e isolamento entre aplicações.
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento descreve várias soluções de segurança da nuvem da AWS, incluindo ferramentas para gestão de acessos e identidade, detecção, segurança de infraestrutura, resposta a incidentes e proteção de dados. A AWS oferece 203 certificações de segurança e mais de 2.600 controles auditados anualmente para ajudar clientes a manterem a conformidade e segurança na nuvem.
En este webinar, aprenderá cómo las empresas pueden aprovechar la nube de AWS para automatizar los pipelines de desarrollo de software. Este enfoque permite que su equipo sea más ágil, mejorando su capacidad para entregar aplicaciones y servicios rápidamente.
Las tecnologías como los contenedores y kubernetes pueden hacer que sus procesos de entrega de software sean más fáciles y más rápidos. En este webinar, hablaremos sobre cómo usar el Amazon Kubernetes Service (EKS) para construir aplicaciones modernas con grupos Kubernetes totalmente administrados.
Tecnologias como containers e Kubernetes podem tornar seus processos de entrega de software mais fáceis e rápidos. Neste webinar, falaremos sobre como usar o Amazon Elastic Kubernetes Service (EKS) para criar aplicativos modernos com clusters de Kubernetes totalmente gerenciados.
Ransomware é uma das ameaças de crescimento mais rápido para qualquer organização. Nenhuma empresa, grande ou pequena, está imune a ataques de cibercriminosos. Nesta sessão, mostramos como você pode aproveitar os serviços e recursos da nuvem AWS para proteger seus dados mais valiosos de ataques cibernéticos e acelerar a restauração de operações.
El ransomware es una de las amenazas de más rápido crecimiento para cualquier organización. Ninguna empresa, grande o pequeña, es inmune a los ataques de los ciberdelincuentes. En esta sesión, mostramos cómo puede aprovechar los servicios y las capacidades de la nube AWS para proteger sus datos más valiosos de los ataques cibernéticos y acelerar la restauración de las operaciones.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
El ransomware es una práctica maliciosa que se ha popularizado en los últimos años. En esta sesión les mostraremos cómo desde Amazon Web Services nuestros clientes pueden desarrollar una estrategia proactiva de mitigación frente a ataques de ransomware, tanto en escenarios on-premises, como operando en la nube.
Al mover datos a la nube, los clientes deben comprender los métodos óptimos para los diferentes casos de uso, los tipos de datos que están moviendo y los recursos disponibles en la red, entre otros. Las soluciones de migración y transferencia de AWS contemplan desde la migración de datos con conectividad limitada, almacenamiento en la nube híbrida, transferencias frecuentes de archivos B2B, hasta transferencias de datos en línea y sin conexión. En esta sesión, le mostramos cómo puede acelerar la migración y transferencia de datos de manera simplificada desde y hacia la nube de AWS.
O documento discute estratégias para migração de dados para a AWS, incluindo serviços como AWS Transfer Family para transferência de arquivos, AWS DataSync para mover dados entre ambientes on-premises e AWS, e AWS Snow Family para transferência offline de grandes quantidades de dados.
El almacenamiento de archivos tiene diversos casos de uso; como directorios de usuarios, datos de aplicaciones, archivos multimedia y almacenamiento compartido para cargas de trabajo de alto rendimiento. La administración del almacenamiento de archivos en instalaciones propias suele ser un trabajo pesado, indiferenciado, con altos costos de adquisición, carga operativa para configurar y administra, lo que conlleva a desafíos de escalabilidad. En esta sesión, le mostramos cómo puede aprovechar las soluciones de archivos totalmente administradas de AWS para dejar de preocuparse por la sobrecarga administrativa de configurar, proteger, mantener y realizar copias de seguridad de su infraestructura de archivos.
La visualización de datos analíticos es un reto al que se enfrentan muchas organizaciones, el poder crear tableros, alertas, agregar predicciones a sus datos y actuar de acuerdo a estas de manera rápida es una necesidad de todos los negocios actuales. Únase a nuestros arquitectos para aprender como Amazon QuickSight le permite agregar inteligencia de negocios a sus aplicaciones y crear predicciones a futuro de sus datos. Amazon QuickSight es un servicio de inteligencia de negocios escalable y serverless creado para la nube, a través del cual podrá explotar sus datos de negocio para convertirlos en insights para hacer decisiones informadas sobre su negocio sin preocuparse de la gestión, escalamiento y la disponibilidad de la infraestructura de cómputo.
1) O documento discute os benefícios de migrar workloads de Big Data para a AWS, incluindo tornar mais fácil construir data lakes e analytics, oferecer maior abrangência de serviços e fornecer infraestrutura mais segura e escalável.
2) É apresentada a plataforma Amazon EMR para executar aplicativos de Big Data de forma gerenciada na AWS, proporcionando melhor desempenho a menor custo em comparação a clusters on-premises.
3) A separação de computação e armazenamento no Amazon EMR permite
Ejecutar proyectos de Big Data nunca ha sido más sencillo. Con AWS, puede ejecutar Hadoop, Spark, Hive, Flink y marcos similares de forma más rápida y rentable. En este seminario web, aprenderá cómo mejorar el rendimiento del procesamiento de datos y reducir los costos, especialmente en comparación con un entorno local.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
5. E o que DevOps tem a ver com isso?
30xmais deploys
intervalo entre deploys
200xmenor
60xmenos falhas
recuperação
168xmais rápida
(source: puppet labs 2015 State of Devops Report)
https://puppetlabs.com/sites/default/files/2015-state-of-devops-report.pdf
6. Então… O que é DevOps?
• Cultura
• Práticas
• Ferramentas
7. Cultura DevOps
• Dev & Ops caminhando juntos
• ”um só time”
• Responsabilidade Compartilhada
• ”código, script, docs, infra”
• Sentimento de propriedade
• ”o PRD também é meu"
• Visibilidade e comunicação
• ”feedback contínuo de todos para todos”
11. Práticas DevOps
Log e Monitoramento Proativo:
• Rastreie e analise métricas e registros de log
• Saiba em tempo real a performance de sua
aplicação e de sua infraestrutura
17. Na maior parte do tempo estávamos esperando...
…Codi
ficar …Empa
cotar …Deploy
p/ QA
Deploy
p/PRD
18. Na maior parte do tempo estávamos esperando…
…Codi
ficar …Empa
cotar …Deploy
p/ QA
Deploy
p/PRD
Mins Dias Mins Dias Mins Dias Mins
19. …Codi
ficar …Empa
cotar …Deploy
p/ QA
Deploy
p/PRD
Na maior parte do tempo estávamos esperando…
Semanas
Mins Dias Mins Dias Mins Dias Mins
20. …Codi
ficar …Empa
cotar …Deploy
p/ QA
Deploy
p/PRD
Na maior parte do tempo estávamos esperando…
Weeks
Mins Days Mins Days Mins Days Mins
21. E assim construímos
ferramentas para
automatizar nosso
processo de release
https://secure.flickr.com/photos/lindseygee/5894617854/
22. Ações automatizadas e
transições: do check-in
a produção
Benefícios:
• + rápido
• + seguro
• simplificação e
padronização
• visibilidade do
processo
Pipelines
23. Essa abordagem funcionou muito bem.
Em 2014:
• milhares de times de serviço
• orientação a microserviços
• prática de entrega contínua
• ambientes diversos (staging, beta, produção)
50 milhões de deploys
24. E continua funcionando.
Anualmente, realizamos uma pesquisa na Amazon com
todos os nossos desenvolvedores.
Em 2014 encontramos a ferramenta que podia ser
correlacionada estatisticamente com a felicidade dos
desenvolvedores: Nosso serviço de pipelines!
Entrega contínua == desenvolvedores felizes
25.
26. • Integrado
• De Carga
• De Interface
• De Penetração
Fases de um processo de release
Fonte Build Teste Produção
• Código Fonte
(.php, .js, .java)
• Revisão de
código
• Compilação
• Teste Unitário
• Métricas
• Criação de
imagens
• Entrega para
produção
27. Níveis de um processo de release
Fonte Build Teste Produção
Integração Contínua
Entrega Contínua
Deploy Contínuo
38. Serviço gerenciado para
compilar,
testar e
empacotar software
Processa builds em paralelo
e escala automaticamente
Crie ambientes customizados de build
a partir de suas imagens Docker
Pagamento por minuto
Integrações com CodePipeline e Jenkins
AWS CodeBuild
39. Como o CodeBuild funciona?
1. Obtém código fonte
2. Executa os comandos definidos no buildspec
(containers Docker criados a cada build)
3. Envia saída em tempo real para o CloudWatch Logs
4. Submete o artefato gerado para um bucket do S3
41. buildspec.yml
version: 0.1
environment_variables:
plaintext:
JAVA_HOME: "/usr/lib/jvm/java-8-openjdk-amd64"
phases:
install:
commands:
- apt-get update -y
- apt-get install -y maven
pre_build:
commands:
- echo Nothing to do in the pre_build phase...
build:
commands:
- echo Build started on `date`
- mvn install
post_build:
commands:
- echo Build completed on `date`
artifacts:
type: zip
files:
- target/messageUtil-1.0.jar
discard-paths: yes
• Variáveis de ambiente
• Fases de um processo de build:
• Instale pacotes
• Configure o ambiente
• Verifique/Valide sintaxe
• Compile seu código
• Teste sua aplicação
• Envie imagens docker para um
repositório
• Armazene artefatos no S3
44. Faça deploy de suas
aplicações
https://secure.flickr.com/photos/simononly/15386966677
45. Automatize o deploy para qualquer servidor,
mesmo on-premises
Instale e/ou atualize suas aplicações
Evite downtime durante deploys
Rollback automático em caso de falha
Faça o deploy de qualquer tecnologia,
linguagem ou sistema operacional
AWS CodeDeploy
47. appspec.yml
version: 0.0
os: linux
files:
- source: /
destination: /var/www/html
permissions:
- object: /var/www/html
pattern: “*.html”
owner: root
group: root
mode: 755
hooks:
ApplicationStop:
- location: scripts/deregister_from_elb.sh
BeforeInstall:
- location: scripts/install_dependencies.sh
ApplicationStart:
- location: scripts/start_httpd.sh
ValidateService:
- location: scripts/test_site.sh
- location: scripts/register_with_elb.sh
• (de)registre instâncias no ELB
• Instale dependências
• Inicie apache httpd
• Verifique sucesso do deploy
• Copie artefatos e arquivos de
configuração para o destino
• Defina o permissionamento
de arquivos e diretórios
48. v2 v2 v2 v2 v2 v2
um por vez
metade por vez
todos de uma vez
v2 v2 v2 v1 v1 v1
v2 v1 v1 v1 v1 v1 Agent Agent
Deployment group: DEV
OU
Deployment group: PRD
Agent
AgentAgent
Agent Agent
Agent
Escolha velocidade e agrupamento
49. Orquestre os passos de
release com um pipeline
https://www.flickr.com/photos/seattlemunicipalarchives/12504672623/
50. Serviço gerenciado para
integração
entrega
deploy contínuo
Modele visualmente seu processo de release
Build, teste e faca deploy de seu código
sempre que houver uma mudança
Múltiplas integrações com
ferramentas de parceiros
AWS CodePipeline
55. Controle de código fonte GIT
seguro, escalável e gerenciado
Ferramental git padrão
Durabilidade, disponibilidade e escalabilidade
do Amazon S3
Dados criptografados em descanso
com chaves fornecidas pelo cliente
Sem limites de repositório
Web-hooks através de ações com SNS/Lambda
AWS CodeCommit
57. Precificação
CodeCommit
$1 por usuário ativo por mês (primeiros 5 usuários grátis)
CodePipeline
$1 por pipeline ativo por mês (1 grátis)
CodeDeploy
Grátis para deploy em Amazon EC2
$0.02 por atualização de servidores on-premisse
CodeBuild
Compute Instance
Type
Memory(GB) vCPU Price per build minute
($)
Small 3 2 0.005
Medium 7 4 0.010
Large 15 8 0.020
59. Demo:
1. Clone um repositório
github.com/awslabs/aws-codedeploy-sample-tomcat
2. Crie um buildspec.yml
3. Crie um pipeline com os estágios Source e Build
4. Execute um Build
5. Adicione um estágio de deploy
6. Execute o pipeline
60. Demo:
1. Clone um repositório
github.com/awslabs/aws-codedeploy-sample-tomcat
2. Crie um buildspec.yml
3. Crie um pipeline com os estágios Source e Build
4. Execute um Build
5. Adicione um estágio de deploy
6. Execute o pipeline
61. Demo:
1. Clone um repositório
github.com/awslabs/aws-codedeploy-sample-tomcat
2. Crie um buildspec.yml
3. Crie um pipeline com os estágios Source e Build
4. Execute um Build
5. Adicione um estágio de deploy
6. Execute o pipeline
62. AWS CodeStar
Comece a desenvolver em minutos
Integre e colabore com seu time
com segurança
Gerencie a entrega de software
Escolha templates e aceleradores
NEW!NEW!
- this talk is broken into 2 sections
- first, I'll start with the backstory about Amazon's own DevOps transformation, and the changes that we made to become more agile with our product delivery
after covering this history, we're going to switch back to the present
- I'm going to introduce 3 new AWS services that give you the same type of tools that we use internally at Amazon
- You should walk away with a high level understanding of the different parts involved with a DevOps transformation, and an idea of how you could use our AWS Code services in your own DevOps processes
DevOps is the combination of cultural philosophies, practices, and tools that increases an organization’s ability to deliver applications and services at high velocity: evolving and improving products at a faster pace than organizations using traditional software development and infrastructure management processes. This speed enables organizations to better serve their customers and compete more effectively in the market.
combination of microservices and increased release frequency more deployments and operational challenges
Need ways to release software safely and reliably
Treat infrastructure like you treat application code
Innovations of the cloud – you can treat your entire infrastructure like code. You can access it programmatically using APIs
We have a service that lets you use templates – declare the aws resources you want provisioned and how you want them provisioned
Then you can check these templates into github and version control them
You can easily replicate environments and share them with others
You save time
Monitor logs and metrics to improve application performance and infrastructure performance
When trying to move quickly, you need to understand how changes are impacting your performance
Services need to be on 24/7, so real time monitoring and analysis becomes rly important
You can set automation (alerts, automatic changes, etc.)
Teams work more efficiently and effectively, more nimble and agile
Using automation to work efficiently and release software more rapidly
You bake reliability and security into your automated practices to ensure your service is always running and infrastructure is in compliance
When you’re growing quickly and moving fast, you need IaC to help you manage your infrastructure at scale. Repeatable processes
Ultimately helps your organization increase its speed and velocity. The end goal is to innovate for your customers faster and become a better business
So we conducted a study. “Understanding Amazon’s Software Development Process Through Data” in 2009 by John Rauser
We wanted to find out how long it takes to go from code check-in through to code being available in production. This included the time it took to build, test and deploy our software.
We learned that this was taking a long time. In the order of weeks. And we didn’t want it take weeks to get a code change out to production.
What we did discover was our processes had lot of human, manual work in them which were taking most of the time. Developers would use tickets or emails to track their release process. Developers would ticket or email other developers to run a build at which point a bunch of requests would batch up before being run. Once the build was done, new tickets were cut to deploy their software. Those requests may also batch up, increasing the time it took for a change to reach production.
What we did discover was our processes had lot of human, manual work in them which were taking most of the time. Developers would use tickets or emails to track their release process. Developers would ticket or email other developers to run a build at which point a bunch of requests would batch up before being run. Once the build was done, new tickets were cut to deploy their software. Those requests may also batch up, increasing the time it took for a change to reach production.
This was the problem we needed to solve. We needed to automate the production line of developer work so that humans were not longer causing developers to wait, when that work could be automated away.
This was the problem we needed to solve. We needed to automate the production line of developer work so that humans were not longer causing developers to wait, when that work could be automated away.
https://www.flickr.com/photos/stevendepolo/5749192025/
- after we tell customers the story of our DevOps transformation, they typically ask us how they can do the same
- I'm not going to over-simplify this, because it is a very complex answer
- this can involve organizational changes, cultural changes, and process changes
- plus there's no one right answer for these
- every company is going to tweak their approach to optimize for their own environment
- but there is one standard thing that every DevOps transformation needs, and that's an efficient and reliable continuous delivery pipeline
- that's the focus for the rest of this talk
I want to take a moment to talk about different release processes.
Each team’s release process takes a different shape to accommodate the needs of each team.
Nearly all release processes can be simplified down to four stages – source, build, test and production. Each phase of the process provides increase confidence that the code being made available to customers will work in the way that was intended.
During the source phase, developers check changes into a source code repository. Many teams require peer feedback on code changes before shipping code into production. Some teams use code reviews to provide peer feedback on the quality of code change. Others use pair programming as a way to provide real time peer feedback.
During the Build phase an application’s source code is built and the quality of the code is tested on the build machine. The most common type of quality check are automated tests that do not require a server in order to execute and can be initiated from a test harness. Some teams extend their quality tests to include code metrics and style checks. There is an opportunity for automation any time a human is needed to make a decision on the code.
The goal of the test phase is to perform tests that cannot be done on during the build phase and require the software to be deployed to a production like stages. Often these tests include testing integration with other live systems, load testing, UI testing and penetration testing. At Amazon we have many different pre-production stages we deploy to. A common pattern is for engineers to deploy builds to a personal development stage where an engineer can poke and prod their software running in a mini prod like stage to check that their automated tests are working correctly. Teams deploy to pre-production stages where their application interacts with other systems to ensure that the newly changed software work in an integrated environment.
Finally code gets deployed to production. Different teams have different deployment strategies though we all share a goal of reducing risk when deploying new changes and minimizing the impact if a bad change does get out to production.
Each of these steps can be automated without the entire release process being automated. There are several levels of release automation that I’ll step through.
Continuous Integration
Continuous Integration is the practice of checking in your code to the continuously and verifying each change with an automated build and test process. Over the past 10 years Continuous Integration has gained popularity in the software community. In the past developers were working in isolation for an extended period of time and only attempting to merge their changes into the mainline of their code once their feature was completed. Batching up changes to merge back into the mainline made not only merging the business logic hard, but it also made merging the test logic difficult. Continuous Integration practices have made teams more productive and allowed them to develop new features faster. Continuous Integration requires teams to write automated tests which, as we learned, improve the quality of the software being released and reduce the time it takes to validate that the new version of the software is good.
There are different definitions of Continuous Integration, but the one we hear from our customers is that CI stops at the build stage, so I’m going to use that definition.
Continuous Delivery
Continuous Delivery extends Continuous Integration to include testing out to production-like stages and running verification testing against those deployments. Continuous Delivery may extend all the way to a production deployment, but they have some form of manual intervention between a code check-in and when that code is available for customers to use.
Continuous Delivery is a big step forward over Continuous Integration allowing teams to be gain a greater level of certainty that their software will work in production.
Continuous Deployment
Continuous Deployment extends continuous delivery and is the automated release of software to customers from check in through to production without human intervention. Many of the teams at Amazon have reached a state of continuous deployment. Continuous Deployment reduces the time for your customers to get value from the code your team has just written, with the team getting faster feedback on the changes you’ve made. This fast customer feedback loop allow you to iterate quickly, allowing you to deliver more valuable software to your customers, quicker.
The effort you put into the testing triangle should not be evenly distributed! Many experts in the industry recommend a 70,20,10 mix. (will need sources)
The effort you put into the testing triangle should not be evenly distributed! Many experts in the industry recommend a 70,20,10 mix. (will need sources)
Let’s take a look at an example Pipeline. I’ve created a simple 3 stage Pipeline to talk though my example.
Source actions are special actions. They continuously poll the source providers, such as GitHub and S3, in order to detect changes. Once a change is detected, the new pipeline run is created and the new pipeline begins its run. The source actions retrieve a copy of the source information and place it into a customer owned S3 bucket.
Once the source action is completed, the Source stage is marked as successful and we transition to the Build stage.
In the Build Stage we have one action, Jenkins. Jenkins was integrated into CodePipeline as a CustomAction and has the same lifecycle as all custom actions. Talk through interaction
Once the build action is completed, the Build stage is marked as successful and we transition to the Deploy stage
The Deploy stage contains one action, an AWS Elastic Beanstalk deployment action. The Beanstalk action retrieves the build artifact from the customer’s S3 bucket and deploys it to the Elastic Beanstalk web container.
Let’s take a look at an example Pipeline. I’ve created a simple 3 stage Pipeline to talk though my example.
Source actions are special actions. They continuously poll the source providers, such as GitHub and S3, in order to detect changes. Once a change is detected, the new pipeline run is created and the new pipeline begins its run. The source actions retrieve a copy of the source information and place it into a customer owned S3 bucket.
Once the source action is completed, the Source stage is marked as successful and we transition to the Build stage.
In the Build Stage we have one action, Jenkins. Jenkins was integrated into CodePipeline as a CustomAction and has the same lifecycle as all custom actions. Talk through interaction
Once the build action is completed, the Build stage is marked as successful and we transition to the Deploy stage
The Deploy stage contains one action, an AWS Elastic Beanstalk deployment action. The Beanstalk action retrieves the build artifact from the customer’s S3 bucket and deploys it to the Elastic Beanstalk web container.
Let’s take a look at an example Pipeline. I’ve created a simple 3 stage Pipeline to talk though my example.
Source actions are special actions. They continuously poll the source providers, such as GitHub and S3, in order to detect changes. Once a change is detected, the new pipeline run is created and the new pipeline begins its run. The source actions retrieve a copy of the source information and place it into a customer owned S3 bucket.
Once the source action is completed, the Source stage is marked as successful and we transition to the Build stage.
In the Build Stage we have one action, Jenkins. Jenkins was integrated into CodePipeline as a CustomAction and has the same lifecycle as all custom actions. Talk through interaction
Once the build action is completed, the Build stage is marked as successful and we transition to the Deploy stage
The Deploy stage contains one action, an AWS Elastic Beanstalk deployment action. The Beanstalk action retrieves the build artifact from the customer’s S3 bucket and deploys it to the Elastic Beanstalk web container.
Let’s take a look at an example Pipeline. I’ve created a simple 3 stage Pipeline to talk though my example.
Source actions are special actions. They continuously poll the source providers, such as GitHub and S3, in order to detect changes. Once a change is detected, the new pipeline run is created and the new pipeline begins its run. The source actions retrieve a copy of the source information and place it into a customer owned S3 bucket.
Once the source action is completed, the Source stage is marked as successful and we transition to the Build stage.
In the Build Stage we have one action, Jenkins. Jenkins was integrated into CodePipeline as a CustomAction and has the same lifecycle as all custom actions. Talk through interaction
Once the build action is completed, the Build stage is marked as successful and we transition to the Deploy stage
The Deploy stage contains one action, an AWS Elastic Beanstalk deployment action. The Beanstalk action retrieves the build artifact from the customer’s S3 bucket and deploys it to the Elastic Beanstalk web container.