O documento discute os desafios de segurança na nuvem durante a transformação digital e apresenta demos do Vault para autenticação e gerenciamento de segredos na nuvem. A agenda inclui transformação digital, desafios de segurança na nuvem, autenticação segura na nuvem com Vault, acesso seguro aos serviços na nuvem com segredos dinâmicos do Vault e próximos passos.
A LGPD exige que empresas mapeiem dados pessoais, estabeleçam uma base jurídica para protegê-los e implementem governança interna nomeando um DPO. O documento discute como o Vault da HashiCorp pode ajudar empresas a atender aos requisitos da LGPD em três casos: privacidade por design, separação de responsabilidades e transferência internacional de dados.
Escalando do Zero aos seus Primeiros 10 Milhões de Usuários - ARC203 - Sao P...Amazon Web Services
O documento fornece uma visão geral de como escalar uma aplicação da AWS de zero a 10 milhões de usuários, discutindo princípios e serviços importantes da AWS para alcançar escalabilidade e disponibilidade, como balanceamento de carga, banco de dados relacional e não relacional, cache, armazenamento e entrega de conteúdo. O documento também discute considerações de arquitetura à medida que o número de usuários aumenta.
O documento discute aplicações Cloud Native e como desenvolver aplicações escaláveis em ambientes dinâmicos de nuvem. Algumas características importantes discutidas incluem empacotamento de aplicações usando containers, uso de recursos em nuvem e monitoramento observável. O documento também fornece um exemplo demostrativo de uma aplicação ponta a ponta construída usando essas técnicas.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
A AWS oferece maior segurança do que datacenters tradicionais devido à sua infraestrutura global distribuída, modelos de segurança compartilhada e controles de segurança como gerenciamento de identidade e acesso, detecção de ameaças, criptografia de dados e resposta a incidentes. O documento também fornece as melhores práticas de segurança da AWS como atribuir privilégios mínimos, habilitar auditoria e autenticação multifator.
1) O documento apresenta os principais serviços e benefícios da AWS para empresas. 2) É destacado que a AWS oferece mais de 100 serviços em 16 regiões globais, com foco em segurança, facilidade de uso e economia. 3) Clientes como Netflix, Airbnb e Time Inc. relatam como migraram para a AWS e tiveram ganhos em inovação, agilidade e redução de custos.
Segurança - 10 regras que você deve saber antes de migrar sua infraestrutura ...Amazon Web Services LATAM
O documento discute 10 regras de segurança para migrar a infraestrutura para a nuvem. Ele aborda tópicos como modelo de responsabilidade compartilhada, gerenciamento de acesso e identidades, criptografia, detecção e correção de vulnerabilidades, monitoramento de configuração e auditoria, e implementação de segurança em camadas.
A computação na nuvem oferece benefícios como redução de custos e escalabilidade, mas também levanta questões de segurança, privacidade e conformidade. A segurança da informação depende de fatores como criptografia robusta, controle de acesso, localização de dados e capacidade de recuperação. Acordos claros sobre níveis de serviço com provedores confiáveis são essenciais para uma adoção responsável da nuvem.
A LGPD exige que empresas mapeiem dados pessoais, estabeleçam uma base jurídica para protegê-los e implementem governança interna nomeando um DPO. O documento discute como o Vault da HashiCorp pode ajudar empresas a atender aos requisitos da LGPD em três casos: privacidade por design, separação de responsabilidades e transferência internacional de dados.
Escalando do Zero aos seus Primeiros 10 Milhões de Usuários - ARC203 - Sao P...Amazon Web Services
O documento fornece uma visão geral de como escalar uma aplicação da AWS de zero a 10 milhões de usuários, discutindo princípios e serviços importantes da AWS para alcançar escalabilidade e disponibilidade, como balanceamento de carga, banco de dados relacional e não relacional, cache, armazenamento e entrega de conteúdo. O documento também discute considerações de arquitetura à medida que o número de usuários aumenta.
O documento discute aplicações Cloud Native e como desenvolver aplicações escaláveis em ambientes dinâmicos de nuvem. Algumas características importantes discutidas incluem empacotamento de aplicações usando containers, uso de recursos em nuvem e monitoramento observável. O documento também fornece um exemplo demostrativo de uma aplicação ponta a ponta construída usando essas técnicas.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
A AWS oferece maior segurança do que datacenters tradicionais devido à sua infraestrutura global distribuída, modelos de segurança compartilhada e controles de segurança como gerenciamento de identidade e acesso, detecção de ameaças, criptografia de dados e resposta a incidentes. O documento também fornece as melhores práticas de segurança da AWS como atribuir privilégios mínimos, habilitar auditoria e autenticação multifator.
1) O documento apresenta os principais serviços e benefícios da AWS para empresas. 2) É destacado que a AWS oferece mais de 100 serviços em 16 regiões globais, com foco em segurança, facilidade de uso e economia. 3) Clientes como Netflix, Airbnb e Time Inc. relatam como migraram para a AWS e tiveram ganhos em inovação, agilidade e redução de custos.
Segurança - 10 regras que você deve saber antes de migrar sua infraestrutura ...Amazon Web Services LATAM
O documento discute 10 regras de segurança para migrar a infraestrutura para a nuvem. Ele aborda tópicos como modelo de responsabilidade compartilhada, gerenciamento de acesso e identidades, criptografia, detecção e correção de vulnerabilidades, monitoramento de configuração e auditoria, e implementação de segurança em camadas.
A computação na nuvem oferece benefícios como redução de custos e escalabilidade, mas também levanta questões de segurança, privacidade e conformidade. A segurança da informação depende de fatores como criptografia robusta, controle de acesso, localização de dados e capacidade de recuperação. Acordos claros sobre níveis de serviço com provedores confiáveis são essenciais para uma adoção responsável da nuvem.
O documento discute as preocupações e desejos de um Chief Security Officer (CSO) em relação à segurança na nuvem. O CSO deseja ter garantias de segurança total e não se preocupar com violações, além de ser visto como facilitador e não como empecilho. O documento também resume os papéis do CSO e como ele pode ter sucesso na era da nuvem trabalhando de forma coordenada com o provedor de nuvem.
Sessão Avançada: Armazenamento Híbrido na Nuvem com AWS Storage Gateway - CM...Amazon Web Services
O documento apresenta os diferentes tipos de AWS Storage Gateway, incluindo Gateway de Fita, Gateway de Volume e Gateway de Arquivo. O documento também descreve como a Fundação IDI migrou 160 TB de dados para a AWS usando o AWS Storage Gateway.
O documento discute o desenvolvimento de aplicações em container com AWS Fargate. Ele explica como o AWS Fargate fornece computação para containers sem a necessidade de gerenciar servidores, pagando apenas pelo uso. Também aborda como integrar aplicações em container com serviços AWS como VPC, ECS, ECR e ELB.
Princípios para Proteger a Nuvem
Quais ferramentas de segurança podem ser contratadas em Nuvem Pública sem grandes riscos e com redução de custos
Como otimizar os custos de Gestão de Segurança na infraestrutura de Nuvem Privada
Detecção e Mitigação de Ameaças - SID301 - Sao Paulo SummitAmazon Web Services
O documento discute a detecção e remediação de ameaças cibernéticas usando o Amazon GuardDuty. O GuardDuty é um serviço gerenciado de detecção de ameaças que monitora continuamente o comportamento mal-intencionado ou não autorizado para proteger contas e cargas de trabalho da AWS. Ele detecta ameaças com base em dados de fontes como VPC Flow Logs, DNS Logs e CloudTrail usando machine learning e feeds de inteligência.
AWS Storage Day - Novidades em Nuvem Híbrida, Edge Computing e Transferência ...Amazon Web Services LATAM
O documento discute as novidades em serviços da AWS relacionados a nuvem híbrida, edge computing e transferência de dados. É apresentado o AWS Storage Gateway com melhorias como maior cache local e limitação de largura de banda. Também são descritos o AWS DataSync para transferência de dados e a família AWS Transfer e AWS Snow para movimentação de dados na borda e entre locais.
Sessão Avançada: Otimizando Bancos de Dados Relacionais na AWS com Amazon RDS...Amazon Web Services
O documento discute como otimizar bancos de dados relacionais na AWS usando o Amazon RDS. Ele explica o que é o Amazon RDS, os benefícios de seu uso, como configurar instâncias, escolher mecanismos, tipos de instância e armazenamento, gerenciar alta disponibilidade e segurança, e monitorar bancos de dados no RDS.
Criando Aplicações Serverless - ARC302 - Sao Paulo SummitAmazon Web Services
Nesta sessão, exploramos como os desenvolvedores podem projetar, desenvolver, entregar e monitorar aplicações na nuvem e como eles tiram o melhor proveito da plataforma serverless e o conjunto de ferramentas para desenvolvidores da AWS. Compartilharemos informações técnicas que os desenvolvedores podem usar para otimizar o fluxo de trabalho e o uso de recursos na nuvem, o que, por sua vez, pode melhorar a segurança, escalabilidade e disponibilidade. Ainda discutiremos padrões comuns serverless usados pelas empresas e aprofundaremos nos recursos operacionais e de segurança usados por grandes e maduras corporações.
O documento discute práticas para aumentar o nível de segurança na AWS. Ele apresenta um modelo de responsabilidade compartilhada e aborda etapas para melhorar a gestão de identidade e acesso, visibilidade e controle, e automação, incluindo o uso de ferramentas como IAM, GuardDuty e Security Hub.
O documento resume uma masterclass sobre cloud computing. Apresenta conceitos básicos como o que é cloud computing e seus benefícios em relação ao modelo tradicional de TI. Também descreve a Amazon Web Services, incluindo sua história, serviços, cultura de inovação e clientes. Por fim, discute a jornada para adoção da nuvem e novas tecnologias como inteligência artificial e internet das coisas.
Construindo Data Lakes e Analytics na AWS - BDA301 - Sao Paulo SummitAmazon Web Services
Mais de 90% dos dados de hoje foram gerados nos últimos dois anos e a taxa de crescimento dos dados não dá sinais de desaquecimento. Nesta sessão, abordaremos os desafios e melhores práticas para capturar todos os dados que estão gerados, entender quais dados você possue, inspirar insights e prever o futuro usando os serviços da AWS. Criamos a sessão e as demonstrações com base em armadilhas comuns na construção de data lakes e abordamos como direcionar analytics e insights úteis a partir dos dados. Discutiremos também os padrões de arquitetura, combinando os principais serviços da AWS em vez de aprofundar em um único serviço. Mostraremos como serviços como Amazon S3, AWS Glue, Amazon Redshift, Amazon Athena, Amazon EMR, Amazon Kinesis e Amazon Machine Learning podem ser combinados para criar um data lake bem sucedido para diversas funções, incluindo cientistas de dados e usuários de negócios.
O documento discute as várias camadas de segurança oferecidas pela AWS, incluindo pessoas, processos, sistemas, rede e infraestrutura física. Ele também descreve como a AWS acelera o processo de conformidade dos clientes e fornece ferramentas de segurança como detecção de ameaças, proteção de dados e gestão de identidade e acessos.
O documento discute as responsabilidades de segurança na nuvem entre o cliente e a AWS. A AWS é responsável pela segurança da infraestrutura na nuvem, enquanto o cliente é responsável pela segurança dos dados, aplicações e configurações na nuvem. O documento também fornece detalhes sobre como os clientes podem proteger seus dados na AWS usando criptografia, políticas e outros controles de segurança.
Sessão Avançada: Amazon Aurora - DAT302 - Sao Paulo SummitAmazon Web Services
O documento descreve as principais características e benefícios do banco de dados Amazon Aurora, incluindo seu alto desempenho, disponibilidade e simplicidade operacional em comparação com bancos de dados tradicionais.
Aplicando uma Estratégia de Banco de Dados AWS Personalizada: Encontre o Banc...Amazon Web Services
O documento discute as soluções de banco de dados da AWS e quando cada uma é apropriada. Ele fornece uma visão geral dos tipos de banco de dados relacionais e não relacionais da AWS, incluindo seus casos de uso, como escalar e suas principais características. O documento também apresenta casos reais de uso de banco de dados na Hotmart.
O documento discute a construção de um data warehouse moderno com o Amazon Redshift. Apresenta a evolução dos modelos de data warehouse tradicionais para os modernos, como funciona o Amazon Redshift e casos de clientes como a Amazon.com.
Levando Serverless para o Edge - ARC301 - Sao Paulo SummitAmazon Web Services
O documento discute o uso de serverless na borda (edge computing) com o Lambda@Edge da AWS. Em três pontos:
1) O Lambda@Edge permite executar funções Lambda em locações globais e próximas aos usuários finais.
2) Isso melhora a experiência do usuário ao trazer código para a borda da rede de distribuição de conteúdo CloudFront.
3) Funções podem ser usadas para gerar respostas, rotear solicitações e modificar cabeçalhos de resposta na borda global.
Este documento descreve um workshop sobre datacenters na nuvem. O workshop inclui introduções sobre conceitos-chave, administração de datacenters, AWS EC2, VPN, automação e privacidade. Os participantes terão experiência prática criando um datacenter completo na AWS com subredes, VPN e implantação de uma aplicação web usando Ansible.
O documento discute conceitos e implementações de segurança para integrações entre Salesforce e Mule, incluindo autenticação HTTP básica, HTTPS usando certificados, e criptografia de dados.
Criando uma nuvem híbrida com Agilidade e Rapidez Utilizando Controladores de...Kemp
O documento discute como implementar aplicativos em uma nuvem híbrida utilizando Controladores de Entrega de Aplicativos (ADCs) para fornecer alta disponibilidade, escalabilidade e redundância entre ambientes on-premise e off-premise. Os ADCs permitem balancear carga e direcionar tráfego entre instâncias de aplicativos em diferentes plataformas de forma unificada.
O documento apresenta uma introdução sobre microserviços e como utilizar o Spring Cloud e as bibliotecas do Netflix para desenvolver aplicações baseadas em microserviços de forma auto-curável. É apresentada uma agenda com os principais tópicos como balanceamento de carga, tolerância a falhas, roteamento e segurança. São demonstrados exemplos práticos utilizando Spring Cloud Config, Eureka, Ribbon, Hystrix e Zuul.
O documento discute as preocupações e desejos de um Chief Security Officer (CSO) em relação à segurança na nuvem. O CSO deseja ter garantias de segurança total e não se preocupar com violações, além de ser visto como facilitador e não como empecilho. O documento também resume os papéis do CSO e como ele pode ter sucesso na era da nuvem trabalhando de forma coordenada com o provedor de nuvem.
Sessão Avançada: Armazenamento Híbrido na Nuvem com AWS Storage Gateway - CM...Amazon Web Services
O documento apresenta os diferentes tipos de AWS Storage Gateway, incluindo Gateway de Fita, Gateway de Volume e Gateway de Arquivo. O documento também descreve como a Fundação IDI migrou 160 TB de dados para a AWS usando o AWS Storage Gateway.
O documento discute o desenvolvimento de aplicações em container com AWS Fargate. Ele explica como o AWS Fargate fornece computação para containers sem a necessidade de gerenciar servidores, pagando apenas pelo uso. Também aborda como integrar aplicações em container com serviços AWS como VPC, ECS, ECR e ELB.
Princípios para Proteger a Nuvem
Quais ferramentas de segurança podem ser contratadas em Nuvem Pública sem grandes riscos e com redução de custos
Como otimizar os custos de Gestão de Segurança na infraestrutura de Nuvem Privada
Detecção e Mitigação de Ameaças - SID301 - Sao Paulo SummitAmazon Web Services
O documento discute a detecção e remediação de ameaças cibernéticas usando o Amazon GuardDuty. O GuardDuty é um serviço gerenciado de detecção de ameaças que monitora continuamente o comportamento mal-intencionado ou não autorizado para proteger contas e cargas de trabalho da AWS. Ele detecta ameaças com base em dados de fontes como VPC Flow Logs, DNS Logs e CloudTrail usando machine learning e feeds de inteligência.
AWS Storage Day - Novidades em Nuvem Híbrida, Edge Computing e Transferência ...Amazon Web Services LATAM
O documento discute as novidades em serviços da AWS relacionados a nuvem híbrida, edge computing e transferência de dados. É apresentado o AWS Storage Gateway com melhorias como maior cache local e limitação de largura de banda. Também são descritos o AWS DataSync para transferência de dados e a família AWS Transfer e AWS Snow para movimentação de dados na borda e entre locais.
Sessão Avançada: Otimizando Bancos de Dados Relacionais na AWS com Amazon RDS...Amazon Web Services
O documento discute como otimizar bancos de dados relacionais na AWS usando o Amazon RDS. Ele explica o que é o Amazon RDS, os benefícios de seu uso, como configurar instâncias, escolher mecanismos, tipos de instância e armazenamento, gerenciar alta disponibilidade e segurança, e monitorar bancos de dados no RDS.
Criando Aplicações Serverless - ARC302 - Sao Paulo SummitAmazon Web Services
Nesta sessão, exploramos como os desenvolvedores podem projetar, desenvolver, entregar e monitorar aplicações na nuvem e como eles tiram o melhor proveito da plataforma serverless e o conjunto de ferramentas para desenvolvidores da AWS. Compartilharemos informações técnicas que os desenvolvedores podem usar para otimizar o fluxo de trabalho e o uso de recursos na nuvem, o que, por sua vez, pode melhorar a segurança, escalabilidade e disponibilidade. Ainda discutiremos padrões comuns serverless usados pelas empresas e aprofundaremos nos recursos operacionais e de segurança usados por grandes e maduras corporações.
O documento discute práticas para aumentar o nível de segurança na AWS. Ele apresenta um modelo de responsabilidade compartilhada e aborda etapas para melhorar a gestão de identidade e acesso, visibilidade e controle, e automação, incluindo o uso de ferramentas como IAM, GuardDuty e Security Hub.
O documento resume uma masterclass sobre cloud computing. Apresenta conceitos básicos como o que é cloud computing e seus benefícios em relação ao modelo tradicional de TI. Também descreve a Amazon Web Services, incluindo sua história, serviços, cultura de inovação e clientes. Por fim, discute a jornada para adoção da nuvem e novas tecnologias como inteligência artificial e internet das coisas.
Construindo Data Lakes e Analytics na AWS - BDA301 - Sao Paulo SummitAmazon Web Services
Mais de 90% dos dados de hoje foram gerados nos últimos dois anos e a taxa de crescimento dos dados não dá sinais de desaquecimento. Nesta sessão, abordaremos os desafios e melhores práticas para capturar todos os dados que estão gerados, entender quais dados você possue, inspirar insights e prever o futuro usando os serviços da AWS. Criamos a sessão e as demonstrações com base em armadilhas comuns na construção de data lakes e abordamos como direcionar analytics e insights úteis a partir dos dados. Discutiremos também os padrões de arquitetura, combinando os principais serviços da AWS em vez de aprofundar em um único serviço. Mostraremos como serviços como Amazon S3, AWS Glue, Amazon Redshift, Amazon Athena, Amazon EMR, Amazon Kinesis e Amazon Machine Learning podem ser combinados para criar um data lake bem sucedido para diversas funções, incluindo cientistas de dados e usuários de negócios.
O documento discute as várias camadas de segurança oferecidas pela AWS, incluindo pessoas, processos, sistemas, rede e infraestrutura física. Ele também descreve como a AWS acelera o processo de conformidade dos clientes e fornece ferramentas de segurança como detecção de ameaças, proteção de dados e gestão de identidade e acessos.
O documento discute as responsabilidades de segurança na nuvem entre o cliente e a AWS. A AWS é responsável pela segurança da infraestrutura na nuvem, enquanto o cliente é responsável pela segurança dos dados, aplicações e configurações na nuvem. O documento também fornece detalhes sobre como os clientes podem proteger seus dados na AWS usando criptografia, políticas e outros controles de segurança.
Sessão Avançada: Amazon Aurora - DAT302 - Sao Paulo SummitAmazon Web Services
O documento descreve as principais características e benefícios do banco de dados Amazon Aurora, incluindo seu alto desempenho, disponibilidade e simplicidade operacional em comparação com bancos de dados tradicionais.
Aplicando uma Estratégia de Banco de Dados AWS Personalizada: Encontre o Banc...Amazon Web Services
O documento discute as soluções de banco de dados da AWS e quando cada uma é apropriada. Ele fornece uma visão geral dos tipos de banco de dados relacionais e não relacionais da AWS, incluindo seus casos de uso, como escalar e suas principais características. O documento também apresenta casos reais de uso de banco de dados na Hotmart.
O documento discute a construção de um data warehouse moderno com o Amazon Redshift. Apresenta a evolução dos modelos de data warehouse tradicionais para os modernos, como funciona o Amazon Redshift e casos de clientes como a Amazon.com.
Levando Serverless para o Edge - ARC301 - Sao Paulo SummitAmazon Web Services
O documento discute o uso de serverless na borda (edge computing) com o Lambda@Edge da AWS. Em três pontos:
1) O Lambda@Edge permite executar funções Lambda em locações globais e próximas aos usuários finais.
2) Isso melhora a experiência do usuário ao trazer código para a borda da rede de distribuição de conteúdo CloudFront.
3) Funções podem ser usadas para gerar respostas, rotear solicitações e modificar cabeçalhos de resposta na borda global.
Este documento descreve um workshop sobre datacenters na nuvem. O workshop inclui introduções sobre conceitos-chave, administração de datacenters, AWS EC2, VPN, automação e privacidade. Os participantes terão experiência prática criando um datacenter completo na AWS com subredes, VPN e implantação de uma aplicação web usando Ansible.
O documento discute conceitos e implementações de segurança para integrações entre Salesforce e Mule, incluindo autenticação HTTP básica, HTTPS usando certificados, e criptografia de dados.
Criando uma nuvem híbrida com Agilidade e Rapidez Utilizando Controladores de...Kemp
O documento discute como implementar aplicativos em uma nuvem híbrida utilizando Controladores de Entrega de Aplicativos (ADCs) para fornecer alta disponibilidade, escalabilidade e redundância entre ambientes on-premise e off-premise. Os ADCs permitem balancear carga e direcionar tráfego entre instâncias de aplicativos em diferentes plataformas de forma unificada.
O documento apresenta uma introdução sobre microserviços e como utilizar o Spring Cloud e as bibliotecas do Netflix para desenvolver aplicações baseadas em microserviços de forma auto-curável. É apresentada uma agenda com os principais tópicos como balanceamento de carga, tolerância a falhas, roteamento e segurança. São demonstrados exemplos práticos utilizando Spring Cloud Config, Eureka, Ribbon, Hystrix e Zuul.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalável, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
O documento apresenta o serviço AWS Lambda e Amazon API Gateway. AWS Lambda permite executar código sem servidores em resposta a eventos, enquanto API Gateway permite criar, publicar, monitorar e proteger APIs. Juntos, eles permitem construir aplicações serverless escaláveis e seguras. O documento também fornece exemplos de uso e demonstrações das funcionalidades.
O documento apresenta o serviço AWS Lambda e Amazon API Gateway. AWS Lambda permite executar código sem servidores enquanto Amazon API Gateway facilita a criação e gestão de APIs RESTful que podem integrar-se com AWS Lambda para processamento sem servidores. O documento demonstra como construir aplicações serverless utilizando esses serviços da AWS.
Melhores práticas para Arquitetura em Cloud ComputingDaniel Checchia
A nuvem reforça alguns conceitos antigos de criação de arquiteturas da Internet altamente escaláveis e introduz alguns novos conceitos que mudam completamente o modo pelo qual os aplicativos são criados e implantados.
Para usufruir do benefício completo de Nuvem, incluindo a sua flexibilidade e escalabilidade, é importante compreender os serviços, recursos e melhores práticas em Cloud Computing. Esta palestra fornece uma visão geral técnica e destaca melhores práticas arquiteturais para ajudá-lo a projetar arquiteturas eficientes e escaláveis.
Visão geral dos novos produtos da CloudflareCloudflare
Estamos trabalhando muito no desenvolvimento de novos recursos e produtos que podem melhorar a segurança e o desempenho de suas aplicações. Um de nossos especialistas apresentará uma visão geral dos produtos enquanto compartilha casos de uso e melhores práticas.
O documento discute a integração entre as plataformas de gerenciamento de ativos KACE e Zabbix para melhor gerenciar ativos, monitorar e resolver problemas de forma mais eficiente. Ele apresenta os desafios de monitorar e gerenciar ativos, os benefícios de integrar Zabbix e KACE, como a integração funciona e exemplos de cenários de integração.
QCon SP 2016 - Construindo Microservices Auto-curáveis com Spring Cloud e Net...Rodrigo Cândido da Silva
Os microservices tornaram-se o tema mais quente na arquitetura de software, e muito se pode dizer sobre os seus benefícios. Mas é importante compreender que ao começar a decompor o monolito entramos no reino de sistemas distribuídos. Precisamos lidar com cenários de transparência de localização, recuperação de falhas, escalabilidade, autonomia, facilidade de atualização e outros aspectos. Por outro lado, quando tratamos toda essa complexidade, conseguimos definir aplicações que rodam “eternamente” – tornando-se auto-curáveis (self-healing) e muito escaláveis.
O projeto Spring Cloud traz ferramentas para facilitar a aplicação desses conceitos na prática, definindo padrões de implementação para sistemas distribuídos com suporte a gerenciamento de configuração, descoberta de serviços, circuit breakers, roteamento, distribuição de sessões, barramento de controle, dentre outras técnicas. Pode também ser combinado com a plataforma Netflix OSS, que oferece componentes especialmente úteis em um ambiente de microservices, como Eureka (registro), Ribbon (localização), Hystrix (tolerância a falhas), Zulu (roteamento).
Nesta palestra será demonstrado como usar na prática essas ferramentas, bem como os desafios e lições aprendidas – tudo com base em casos reais de uso de uma arquitetura de microservices implementada com Spring Cloud e Netflix OSS.
2016/08/19 - Uma visão geral da AWS para desenvolvedoresJardel Weyrich
O documento fornece uma visão geral de ferramentas e serviços da AWS para desenvolvedores, incluindo CLI, SDK, Elastic Beanstalk, API Gateway, Lambda, SNS, SQS, CodeCommit, CodeDeploy e CodePipeline.
Palestra de Cloud para Universidade de São Caetano do Sul - USCSThiago Viola
1. Thiago Viola é um especialista em nuvem com 13 anos de experiência na IBM e certificações em nuvens;
2. Ele atua como líder de vendas de nuvem para mercado médio e é especialista em SoftLayer;
3. Sua apresentação descreve os benefícios da computação em nuvem como pagamento por uso, escalabilidade e segurança.
A apresentação discute a arquitetura serverless para microserviços com AWS. Apresenta a evolução da arquitetura de nuvem pública para containers e serverless. Detalha os serviços AWS Lambda, API Gateway, S3 e DynamoDB e mostra um exemplo de chat zombie implementado com esses serviços.
Implantando modelos Deep Learning em cluster Kubernetes com GPU AtivadaThaissa Bueno Sanches
Um dos principais desafios que os cientistas de dados e engenheiros de ML e DL enfrentam com frequência é que, depois de terem treinado o modelo, eles precisam implantá-lo em escala de produção, para realizar o treinamento de modelos é amplamente aceito e muitas vezes necessário o uso de GPU, porem para realizar inferência nem sempre precisa de uma GPU, porem a mesma poderia acelerar e muito o desempenho na inferência, vamos testar uma modelo de deep learning com Keras e com o Tensorflow como backend, e analisar o desempenho na inferência em GPU e CPU e como colocar em produção e expor um modelo como uma API Rest, para ser consumido por qualquer aplicação.
O documento discute como implementar um processo de entrega contínua automatizado usando ferramentas como Elastic Beanstalk, CodeDeploy e AWS CodePipeline para implantar aplicações na nuvem de forma escalável e sem downtime.
Secure your data lake- A Financial industry perspective - SVC203 - São Paulo ...Amazon Web Services
For anyone wanting to build a secure data lake on AWS, we cover the best practices, services, and details of implementation for doing so in this session. Additionally, during this session, we discuss the use of available AWS services to address data access and control.
CI CD best practices for building modern applications - MAD301 - São Paulo AW...Amazon Web Services
Continuous-integration and continuous-delivery (CI/CD) techniques enable teams to increase agility and quickly release high-quality products. In this talk, we walk you through best practices for building CI/CD workflows for managing serverless and containerized applications. We cover Infrastructure-as-Code application models such as the AWS Serverless Application Model (AWS SAM), as well as how to set up CI/CD release pipelines with AWS CodePipeline and AWS CodeBuild. We also show you how to automate safer deployments with AWS CodeDeploy.
Nomad es una herramienta de orquestación que permite la implementación y administración simplificadas de contenedores y aplicaciones tradicionales en cualquier escala. Nomad reduce el tiempo de inactividad mediante estrategias de implementación modernas como actualizaciones por lotes, implementaciones azul/verde y pruebas canarias. También mejora la utilización de recursos al programar aplicaciones de forma densa en recursos infrautilizados y proporciona mayor resiliencia de aplicaciones.
This document discusses HashiCorp Vault, a tool for secrets management. It was founded in 2012 and enables provisioning, securing, connecting, and running infrastructure for applications across clouds. The document outlines how Vault provides centralized management of dynamic secrets, encryption as a service, and secure storage of secrets. It also describes Vault Enterprise features like replication, team tools for access control and multi-factor authentication, and governance/compliance features like Sentinel rules. An example case study of Adobe using Vault is also provided.
Este documento presenta una introducción a la seguridad en la nube con Vault de HashiCorp. Explica los desafíos de seguridad como el manejo de secretos, autenticación y autorización durante la transformación digital. Luego demuestra cómo Vault puede abordar estos desafíos a través de la autenticación basada en plataforma y los secretos dinámicos. Finalmente, proporciona recursos adicionales y próximos pasos para mejorar la seguridad.
Este documento presenta el modelo operativo en la nube de HashiCorp y sus herramientas. Explica cómo Terraform permite el aprovisionamiento multi-nube, Vault gestiona secretos de forma segura, Consul proporciona servicios de red y descubrimiento, y Nomad orquesta cargas de trabajo. También incluye estudios de caso de cómo EllieMae, Adobe, Bloomberg y Target usan estas herramientas para habilitar aplicaciones en múltiples nubes y regiones de forma más segura y automatizada.
This document provides an overview of Hashicorp Vault and how it can be used for securing secrets and sensitive data in modern, dynamic cloud environments. It discusses the challenges of digital transformation and how Vault addresses them through secret management workflows. The basic Vault workflow is described along with examples for Kubernetes and legacy applications. Finally, Vault Enterprise features for replication, access control, multi-factor authentication and compliance are covered.
This document provides an overview of Terraform 0.12, including improvements to the HashiCorp Configuration Language (HCL). Key updates include first class expressions, for expressions, generalized splat operators, improved conditionals, dynamic blocks, rich value types, improved template syntax, and more reliable JSON syntax. The presentation agenda includes a company overview, digital transformation trends, products overview, and focuses on demystifying changes in Terraform 0.12.
This document provides an overview of a presentation about HashiCorp's cloud infrastructure automation tools. It includes an agenda, background on the presenter, and sections on HashiCorp as a company, digital transformation and the transition to multi-cloud, an overview of the HashiCorp suite of tools including Terraform, Vault, Consul, and Nomad, and two case studies on how EllieMae and Adobe have used Terraform and Vault respectively.
Hashicorp Terraform Open Source vs EnterpriseStenio Ferreira
This document compares Terraform Open Source to Terraform Enterprise. Terraform Open Source has limitations in version control, sharing state easily, and lack of automation pipelines. Terraform Enterprise addresses these limitations with solutions like centralized workflows through version control and automation, controlling access to workspaces and secrets, and using Sentinel for policy enforcement and governance. The document then outlines key features of Terraform Enterprise like private module registry, remote runs, variables, audit logs, and SAML integration.
The document compares Vault Open Source and Vault Enterprise. Vault Open Source provides centralized secrets management and dynamic secrets within a single datacenter. Vault Enterprise adds replication across datacenters for disaster recovery, team tools like namespaces and control groups, and governance/compliance features like Sentinel policy enforcement and FIPS compliance.
HashiCorp is a company founded in 2012 that provides open source tools for automating infrastructure and application deployment. Their suite of tools, including Terraform, Vault, Consul, and Nomad, enable users to provision, secure, connect, and run any infrastructure and applications across public and private clouds through a common operating model. This allows for increased scalability, repeatability, security, and portability compared to traditional static datacenter models.
Secure and Convenient Workflows: Integrating HashiCorp Vault with Pivotal Clo...Stenio Ferreira
The document discusses using Vault to securely manage secrets for applications deployed to Pivotal Cloud Foundry (PCF). It describes the typical Vault workflow, how Spring Cloud Vault can integrate Vault with PCF applications, and challenges with this approach. It then introduces the Vault PCF Service Broker, which solves issues by binding applications to Vault upon deployment, generating unique policies and tokens, and injecting credentials as environment variables. It demonstrates the service broker configuration and usage, and discusses limitations including that apps are still responsible for interacting with Vault and bootstrapping secrets.
Chicago Hashicorp User Group - Terraform Public Module RegistryStenio Ferreira
The document discusses an introduction to Terraform best practices. It covers using modules to organize infrastructure code, setting infrastructure variables, formatting code, and improving outputs. The document also discusses Terraform's extensible provider model and public module registry. Examples are provided on deploying infrastructure on AWS and Azure using Terraform.
Slalom: Introduction to Containers and AWS ECSStenio Ferreira
This document provides an overview of containers, Docker, Amazon ECS, and Fargate. It defines containers as lightweight executable packages that include all dependencies to run an application. Containers isolate software and provide consistency across environments. ECS is Amazon's container management service, while Fargate is a serverless compute engine for running containers. The document also outlines Docker's workflow and provides an example CI/CD pipeline.
This document discusses VPC networking concepts in AWS including public and private subnets, internet gateways, NAT gateways, routing, and security. It also provides an overview of establishing IPSec VPN tunnels between VPCs including the phases of IKE negotiation and establishing matching security associations. Troubleshooting tips are included for checking VPN status and network traffic using tcpdump and ipsec commands.
The document discusses recommendations for improving security when secrets are stored in plain text. It provides an overview of different tools that can be used to encrypt and manage secrets, including Git-crypt, KeyBase, AWS KMS, Azure Key Management, and HashiCorp Vault. The document compares different approaches to securing secrets from limited access in plain text to limited access with encryption and encryption with centralized management. It also outlines some common questions around rotating, auditing, and accessing secrets securely across different environments.
Like Ruby on Rails for Node - the Sails js frameworkStenio Ferreira
The document discusses Sails.js, a web framework for Node.js. It describes Sails.js as a framework that provides conventions and tools for building custom RESTful APIs and web applications using Node.js. The document outlines features of Sails.js like blueprints, templates, database integration, websockets, and routes. It also discusses how Sails.js compares to other Node.js frameworks and common questions around using Sails.js for user management, deployment, and testing.
<note to presenter> frame the discussion to indicate that there are really three pictures that matter
#1 is the transition in infrastructure
#2 is how we think about them in layers
#3 is what success looks like in terms of core Terraform, Vault and Consul as a shared service
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
<note to presenter> frame the discussion to indicate that there are really three pictures that matter
#1 is the transition in infrastructure
#2 is how we think about them in layers
#3 is what success looks like in terms of core Terraform, Vault and Consul as a shared service
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
<note to presenter> frame the discussion to indicate that there are really three pictures that matter
#1 is the transition in infrastructure
#2 is how we think about them in layers
#3 is what success looks like in terms of core Terraform, Vault and Consul as a shared service
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
<note to presenter> frame the discussion to indicate that there are really three pictures that matter
#1 is the transition in infrastructure
#2 is how we think about them in layers
#3 is what success looks like in terms of core Terraform, Vault and Consul as a shared service
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.
Talk about what’s happening in the world of infrastructure where we are going through a transition that happens in our industry every 20 years: this time from one which is largely dedicated servers in a private datacenter to a pool of compute capacity available on demand. In simple terms, this is a shift from “static” infrastructure to ‘dynamic infrastructure’ which is the reality of cloud.
And while the first cloud provider was AWS, it is clear that it will be a multi-cloud world. Each of these platforms have their own key advantages and so it is inevitable that most G2K organizations will use more than one. This is not about moving applications around (since data gravity is a constraint) but rather creates a need for a common operating model across these distinct platforms that allows different teams to leverage the platform for their choice.