O documento discute o desenvolvimento de aplicações Android na nuvem usando serviços da AWS como EC2, S3, DynamoDB e CloudFront. Ele fornece exemplos de código para armazenar dados em bancos de dados NoSQL na nuvem e carregar arquivos em buckets S3. O documento defende que a nuvem traz liberdade e democratização ao permitir o desenvolvimento de aplicações móveis escaláveis de forma elástica e on-demand.
Enquanto muitas organizações já começaram a automatizar o seu processo de desenvolvimento de software, muitas ainda criam a sua infraestrutura manualmente. Tratando a sua infraestrutura como um pedaço de código permite a criação de uma infraestrutura de forma programável.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Para executar aplicações do Microsoft Windows Server, SQL Server, Exchange, SharePoint e Lync, bem como aplicações .NET personalizadas, você pode contar com a infraestrutura global segura da Amazon Web Services para executar facilmente aplicações com base no Windows Server na nuvem.
Você lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalavel, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
Em caso de desastres, você deve ser capaz de recuperar-se de forma rápida, para garantir a contiuidade do negócio. Na AWS existem diversas estratégias de implementação de DR (Disaster Recovery), que vai de encontro, as necessidades de cada negócio.
Bancos de dados NoSQL são bastante importantes na estratégia de Big Data. Nessa sessão será abordado como o Amazon DynamoDB se encaixa nesse ecossistema, para por exemplo, realização da persistencia de processamentos batches e ETL e as integrações com EMR.
Existe uma vasta gama de banco de dados gerenciados além daqueles que rodam no Amazon EC2 por conta própria. Bancos de dados gerenciados diminuem os esforços de implementar, administrar e manter o seu banco de dados e permite que possa focar na suas aplicações. Entenda as opções e suas diferenças, além das melhores práticas para escolha de uma ou mais delas.
Enquanto muitas organizações já começaram a automatizar o seu processo de desenvolvimento de software, muitas ainda criam a sua infraestrutura manualmente. Tratando a sua infraestrutura como um pedaço de código permite a criação de uma infraestrutura de forma programável.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Você está pensando em disponibilizar workloads Microsoft na AWS? Precisa entender mais como funciona o licenciamento na nuvem? Essa sessão tem como objetivo de expor sobre questões de arquitetura, boas práticas de implementações.
Para executar aplicações do Microsoft Windows Server, SQL Server, Exchange, SharePoint e Lync, bem como aplicações .NET personalizadas, você pode contar com a infraestrutura global segura da Amazon Web Services para executar facilmente aplicações com base no Windows Server na nuvem.
Você lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalavel, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
Em caso de desastres, você deve ser capaz de recuperar-se de forma rápida, para garantir a contiuidade do negócio. Na AWS existem diversas estratégias de implementação de DR (Disaster Recovery), que vai de encontro, as necessidades de cada negócio.
Bancos de dados NoSQL são bastante importantes na estratégia de Big Data. Nessa sessão será abordado como o Amazon DynamoDB se encaixa nesse ecossistema, para por exemplo, realização da persistencia de processamentos batches e ETL e as integrações com EMR.
Existe uma vasta gama de banco de dados gerenciados além daqueles que rodam no Amazon EC2 por conta própria. Bancos de dados gerenciados diminuem os esforços de implementar, administrar e manter o seu banco de dados e permite que possa focar na suas aplicações. Entenda as opções e suas diferenças, além das melhores práticas para escolha de uma ou mais delas.
As inovações em Big Data estão acontecendo cada vez mais rapidamente. Enquanto isso a demanda por profissionais com habilidades gerenciais focadas em análise de dados continua aumentando. Sendo assim, como você pode acompanhar esta tendência? Conheça as principais arquiteturas de Big Data e aprenda a lançar uma aplicação de Big Data.
"Varios clientes estão migrando suas aplicações analíticas, processamento de dados (ETL) e aplicações de data science rodando com Apache Hadoop, Spark e data warehouse a partir de ambientes em datacenter local para o Amazon EMR com o objetivo de economia, maior disponibilidade e melhoria de desempenho.
Amazon EMR é um serviço gerenciado que permite com que você analise uma quantidade imensa de dados usando as ultimas versões de mais de 15 ferramentas open-source presentes no ecossistema Apache Hadoop e Spark. Essa sessão permitirá idenficar os componentes, aplicações e tarefas presentes no seu atual ambiente e demonstrar as melhores práticas para migrar esses componentes para o Amazon EMR. Nos iremos expliar como mover seus HDFS para o Amazon S3, um serviço de armazenamento altamente durável e como os baixos custos de instâncias EC2 Spot e auto-scaling podem ajudá-lo a ter mais eficiência com baixo custo. Também iremos explicar os fundamentos de segurança e dicas de ajustes para acelerar a migração de sua aplicação de produção."
https://aws.amazon.com/pt/emr/
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalável, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
Arquiteturas serverless permitem que você possa construir e executar aplicativos e serviços sem a necessidade de gerenciar a infra-estrutura que necessita. Com arquiteturas serverless na AWS sua aplicação é executada mas toda a administração é da AWS.
Neste webinar, você vai aprender a construir aplicações e serviços que utilizam a arquitetura serverless ou "sem servidor". Discutiremos como utilizar AWS Lambda para a execução de código de qualquer aplicação ou serviço de back-end, utilizar o Amazon DynamoDB para armazenar os dados com escalabilidade e redundância e usar Amazon API Gateway para criar e gerenciar pontos de conexão de API com segurança. Também vamos ver uma demonstração de como construir uma arquitetura serverless e discutir as melhores práticas e padrões utilizados por nossos clientes para executar servidores de aplicativos.
Objetivos de aprendizagem:
• Compreender as noções básicas de arquiteturas serverless
• Aprenda a usar Lambda, API Gateway e DynamoDB para executar aplicativos
A AWS fornece diversos serviços os quais você pode construir o seu data lake. Com base nessa diversidade de serviço, será apresentado, conceitos, melhores práticas e formas de utilização.
"O aumento das demandas para coleta, armazenamento e análise de grandes quantidades de dados muitas vezes significa que as mesmas ferramentas e abordagens que funcionaram no passado, não irão funcionar mais. É por isso que muitas organizações estão mudando para uma arquitetura de data lake.
Um data lake é uma abordagem de arquitetura que permite armazenar enormes quantidades de dados em um local central, sendo prontamente disponível para ser categorizado, processado, analisado e consumido por diversos grupos dentro de uma organização.
Nesta apresentação introduziremos os conceitos-chave de um data lake e apresentaremos os aspectos relacionados à sua implementação. Destacaremos os principais componentes de data lake, tais como armazenamento, computação, analytics, bancos de dados, processamento de streams de dados, gerenciamento de dados e segurança. Discutiremos como escolher as tecnologias certas para cada componente do data lake, com base em critérios como estrutura de dados, latência de consulta, custo, taxa de requisição, tamanho do item, volume de dados, durabilidade e assim por diante. Também forneceremos uma arquitetura de referência e recomendações para começar com uma implementação de data lake na AWS.
Objetivos de aprendizado:
• Compreender os conceitos-chave e componentes de uma arquitetura de data lake
• Descrever como e quando usar um amplo conjunto de ferramentas analíticas e de gerenciamento de dados em uma arquitetura de data lake
• Obter insights sobre como começar com uma implementação de data lake na AWS"
https://aws.amazon.com/pt/blogs/big-data/introducing-the-data-lake-solution-on-aws/
Montar uma nova arquitetura para a nuvem pode ser disruptivo para soluções on-premises. Uma maneira de facilitar o processo é utilizar uma estratégia híbrida. Saiba como relacionar seu armazenamento on-premises com a nuvem e conheça as melhores práticas.
O serviço AWS Mobile Hub permite que você desenvolva de forma fácil e rápida aplicativos moveis. O intuito dessa sessão é mostrar serviços, os quais ajudarão nesse desenvolvimento, como serviços de autenticação, push, armanzenamento, backend, assim como testes em dispositivos reais.
O Amazon Cloudfront é o nosso serviço de CDN. Com a utilização desse serviço, é possível aumentar a performance, disponibilidade e segurança das suas aplicações, nessa apresentação, também será exposto formas de utilização e boas práticas.
O Amazon CloudFront se integra a outros produtos da Amazon Web Services para oferecer aos desenvolvedores e às empresas uma maneira fácil de distribuir conteúdo aos usuários finais com baixa latência, altas velocidades de transferência de dados e sem compromisso mínimo de utilização.
Path to the future #5 - Melhores práticas de data warehouse no Amazon RedshiftAmazon Web Services LATAM
O Amazon Redshift usa uma variedade de inovações para obter um desempenho de consulta muito elevado em conjuntos de dados com tamanhos variando de centenas de gigabytes a um petabyte ou mais.
Nessa sessão será exposto boas práticas do Amazon Redshift, o dataware da AWS. Tem como intuito de expor de formas efetivas de migração, cargas de dados, realizar tunnings nas suas consultas.
O Amazon Aurora é um banco de dados relacional que combina a velocidade e a confiabilidade de bancos de dados comerciais avançados com a simplicidade e a economia de bancos de dados de código aberto. Nesta sessão apresentaremos o Amazon Aurora, explicaremos os casos de usos comuns para o serviço, e ajudaremos você a iniciar a construção da sua primeira aplicação suportada pelo Amazon Aurora.
https://aws.amazon.com/pt/rds/aurora/
O AWS IoT permite dispositivos conectados interagirem com aplicações na nuvem ou outros dispositivos de maneira simples e segura. Nesta sessão, discutiremos como estes dispositivos podem aproveitar o AWS IoT para enviar dados para a nuvem e reagir a eventos. Apresentaremos as principais funcionalidades deste serviço e as últimas melhorias lançadas.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
O Aurora é o banco de dados gerenciado da AWS que combina, peformance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter beneficio desse serviço.
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
As empresas estão usando a nuvem da AWS para possibilitar a rápida recuperação de desastres de seus sistemas críticos de TI, sem incorrer nos gastos de infraestrutura de um segundo local físico.
Em caso de desastres, você deve ser capaz de recuperar-se de forma rápida, para garantir a contiuidade do negócio. Na AWS existem diversas estratégias de implementação de DR (Disaster Recovery), que vai de encontro, as necessidades de cada negócio.
Essa sessão são para os interessados no melhor entendimento da otimização dos custos, assim como detalhes com utilização de TCO (Total Cost of Ownership) na AWS.
Raising the bar #2 - Explorando o poder do banco de dados com Amazon AuroraAmazon Web Services LATAM
O Amazon Relational Database Service (Amazon RDS) facilita a configuração, a operação e a escalabilidade de bancos de dados relacionais na nuvem. O Amazon RDS disponibiliza seis mecanismos de banco de dados conhecidos para sua escolha, que incluem Amazon Aurora, Oracle, Microsoft SQL Server, PostgreSQL, MySQL e MariaDB.
O Amazon Aurora é o banco de dados gerenciado da AWS que combina, performance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter benefício desse serviço.
Nessa sessão vamos tratar sobre como trabalhar com ‘requisitos’ e análise de negócios no novo mundo Ágil da experimentação e do fim das vantagens ciompetitivas sustentáveis. O objetivo é mostrar a analistas de negócio que devemos abolir a palavra requisitos e usar o termo hipóteses. Usaremos o Validation Board da Lean Startup Machine como base do processo de levantamento e validação de hipóteses. Na primeira parte vamos tratar sobre a importancia de sair do predio, entrevistar e observar usuarios. Falar sobre tecnicas uteis associadas a Design Thinking, Lean User Experience e tambem a disciplinas como antropologia e etnografia. Objetivo é mostrar aos analistas de negocio que podemos melhorar muito os produtos e apps atraves de técnicas orientadas de entrevistas e observação. Na segunda parte vamos dar ideias de como testar se uma hipótese (requisito) vale a pena ser construída antes de o ser. Vamos falar sobre Pretotyping e usar exemplos de várias empresas como amazon, DropBox, Netflix, entre outros
As inovações em Big Data estão acontecendo cada vez mais rapidamente. Enquanto isso a demanda por profissionais com habilidades gerenciais focadas em análise de dados continua aumentando. Sendo assim, como você pode acompanhar esta tendência? Conheça as principais arquiteturas de Big Data e aprenda a lançar uma aplicação de Big Data.
"Varios clientes estão migrando suas aplicações analíticas, processamento de dados (ETL) e aplicações de data science rodando com Apache Hadoop, Spark e data warehouse a partir de ambientes em datacenter local para o Amazon EMR com o objetivo de economia, maior disponibilidade e melhoria de desempenho.
Amazon EMR é um serviço gerenciado que permite com que você analise uma quantidade imensa de dados usando as ultimas versões de mais de 15 ferramentas open-source presentes no ecossistema Apache Hadoop e Spark. Essa sessão permitirá idenficar os componentes, aplicações e tarefas presentes no seu atual ambiente e demonstrar as melhores práticas para migrar esses componentes para o Amazon EMR. Nos iremos expliar como mover seus HDFS para o Amazon S3, um serviço de armazenamento altamente durável e como os baixos custos de instâncias EC2 Spot e auto-scaling podem ajudá-lo a ter mais eficiência com baixo custo. Também iremos explicar os fundamentos de segurança e dicas de ajustes para acelerar a migração de sua aplicação de produção."
https://aws.amazon.com/pt/emr/
Com o Amazon API Gateway e AWS Lambda é possível construir API de forma escalável, sem utilização de servidor. Nessa sessão será abordado arquiteturas, boas práticas e integrações entre os serviços.
Arquiteturas serverless permitem que você possa construir e executar aplicativos e serviços sem a necessidade de gerenciar a infra-estrutura que necessita. Com arquiteturas serverless na AWS sua aplicação é executada mas toda a administração é da AWS.
Neste webinar, você vai aprender a construir aplicações e serviços que utilizam a arquitetura serverless ou "sem servidor". Discutiremos como utilizar AWS Lambda para a execução de código de qualquer aplicação ou serviço de back-end, utilizar o Amazon DynamoDB para armazenar os dados com escalabilidade e redundância e usar Amazon API Gateway para criar e gerenciar pontos de conexão de API com segurança. Também vamos ver uma demonstração de como construir uma arquitetura serverless e discutir as melhores práticas e padrões utilizados por nossos clientes para executar servidores de aplicativos.
Objetivos de aprendizagem:
• Compreender as noções básicas de arquiteturas serverless
• Aprenda a usar Lambda, API Gateway e DynamoDB para executar aplicativos
A AWS fornece diversos serviços os quais você pode construir o seu data lake. Com base nessa diversidade de serviço, será apresentado, conceitos, melhores práticas e formas de utilização.
"O aumento das demandas para coleta, armazenamento e análise de grandes quantidades de dados muitas vezes significa que as mesmas ferramentas e abordagens que funcionaram no passado, não irão funcionar mais. É por isso que muitas organizações estão mudando para uma arquitetura de data lake.
Um data lake é uma abordagem de arquitetura que permite armazenar enormes quantidades de dados em um local central, sendo prontamente disponível para ser categorizado, processado, analisado e consumido por diversos grupos dentro de uma organização.
Nesta apresentação introduziremos os conceitos-chave de um data lake e apresentaremos os aspectos relacionados à sua implementação. Destacaremos os principais componentes de data lake, tais como armazenamento, computação, analytics, bancos de dados, processamento de streams de dados, gerenciamento de dados e segurança. Discutiremos como escolher as tecnologias certas para cada componente do data lake, com base em critérios como estrutura de dados, latência de consulta, custo, taxa de requisição, tamanho do item, volume de dados, durabilidade e assim por diante. Também forneceremos uma arquitetura de referência e recomendações para começar com uma implementação de data lake na AWS.
Objetivos de aprendizado:
• Compreender os conceitos-chave e componentes de uma arquitetura de data lake
• Descrever como e quando usar um amplo conjunto de ferramentas analíticas e de gerenciamento de dados em uma arquitetura de data lake
• Obter insights sobre como começar com uma implementação de data lake na AWS"
https://aws.amazon.com/pt/blogs/big-data/introducing-the-data-lake-solution-on-aws/
Montar uma nova arquitetura para a nuvem pode ser disruptivo para soluções on-premises. Uma maneira de facilitar o processo é utilizar uma estratégia híbrida. Saiba como relacionar seu armazenamento on-premises com a nuvem e conheça as melhores práticas.
O serviço AWS Mobile Hub permite que você desenvolva de forma fácil e rápida aplicativos moveis. O intuito dessa sessão é mostrar serviços, os quais ajudarão nesse desenvolvimento, como serviços de autenticação, push, armanzenamento, backend, assim como testes em dispositivos reais.
O Amazon Cloudfront é o nosso serviço de CDN. Com a utilização desse serviço, é possível aumentar a performance, disponibilidade e segurança das suas aplicações, nessa apresentação, também será exposto formas de utilização e boas práticas.
O Amazon CloudFront se integra a outros produtos da Amazon Web Services para oferecer aos desenvolvedores e às empresas uma maneira fácil de distribuir conteúdo aos usuários finais com baixa latência, altas velocidades de transferência de dados e sem compromisso mínimo de utilização.
Path to the future #5 - Melhores práticas de data warehouse no Amazon RedshiftAmazon Web Services LATAM
O Amazon Redshift usa uma variedade de inovações para obter um desempenho de consulta muito elevado em conjuntos de dados com tamanhos variando de centenas de gigabytes a um petabyte ou mais.
Nessa sessão será exposto boas práticas do Amazon Redshift, o dataware da AWS. Tem como intuito de expor de formas efetivas de migração, cargas de dados, realizar tunnings nas suas consultas.
O Amazon Aurora é um banco de dados relacional que combina a velocidade e a confiabilidade de bancos de dados comerciais avançados com a simplicidade e a economia de bancos de dados de código aberto. Nesta sessão apresentaremos o Amazon Aurora, explicaremos os casos de usos comuns para o serviço, e ajudaremos você a iniciar a construção da sua primeira aplicação suportada pelo Amazon Aurora.
https://aws.amazon.com/pt/rds/aurora/
O AWS IoT permite dispositivos conectados interagirem com aplicações na nuvem ou outros dispositivos de maneira simples e segura. Nesta sessão, discutiremos como estes dispositivos podem aproveitar o AWS IoT para enviar dados para a nuvem e reagir a eventos. Apresentaremos as principais funcionalidades deste serviço e as últimas melhorias lançadas.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
O Aurora é o banco de dados gerenciado da AWS que combina, peformance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter beneficio desse serviço.
"No caso de um desastre, sua empresa precisa ser capaz de recuperar dados perdidos rapidamente para garantir a continuidade do negócio. Para aplicações críticas, manter o tempo para recuperar e perda de dados a um mínimo, bem como otimizar custos pode ser um desafio.
Esta sessão apresentaremos recursos e serviços AWS e arquiteturas de recuperação de desastres que você pode utilizar para criar ambientes altamente disponíveis e com resiliência à desastres. Forneceremos recomendações sobre como melhorar seu plano de recuperação de desastres e discutiremos cenários com exemplos, demostrando como recuperar-se de um desastre com eficiência e custo aderente ao negócio."
https://aws.amazon.com/pt/disaster-recovery/
As empresas estão usando a nuvem da AWS para possibilitar a rápida recuperação de desastres de seus sistemas críticos de TI, sem incorrer nos gastos de infraestrutura de um segundo local físico.
Em caso de desastres, você deve ser capaz de recuperar-se de forma rápida, para garantir a contiuidade do negócio. Na AWS existem diversas estratégias de implementação de DR (Disaster Recovery), que vai de encontro, as necessidades de cada negócio.
Essa sessão são para os interessados no melhor entendimento da otimização dos custos, assim como detalhes com utilização de TCO (Total Cost of Ownership) na AWS.
Raising the bar #2 - Explorando o poder do banco de dados com Amazon AuroraAmazon Web Services LATAM
O Amazon Relational Database Service (Amazon RDS) facilita a configuração, a operação e a escalabilidade de bancos de dados relacionais na nuvem. O Amazon RDS disponibiliza seis mecanismos de banco de dados conhecidos para sua escolha, que incluem Amazon Aurora, Oracle, Microsoft SQL Server, PostgreSQL, MySQL e MariaDB.
O Amazon Aurora é o banco de dados gerenciado da AWS que combina, performance e disponibilidade. Nessa sessão, será apresentado, seus conceitos e como você pode obter benefício desse serviço.
Nessa sessão vamos tratar sobre como trabalhar com ‘requisitos’ e análise de negócios no novo mundo Ágil da experimentação e do fim das vantagens ciompetitivas sustentáveis. O objetivo é mostrar a analistas de negócio que devemos abolir a palavra requisitos e usar o termo hipóteses. Usaremos o Validation Board da Lean Startup Machine como base do processo de levantamento e validação de hipóteses. Na primeira parte vamos tratar sobre a importancia de sair do predio, entrevistar e observar usuarios. Falar sobre tecnicas uteis associadas a Design Thinking, Lean User Experience e tambem a disciplinas como antropologia e etnografia. Objetivo é mostrar aos analistas de negocio que podemos melhorar muito os produtos e apps atraves de técnicas orientadas de entrevistas e observação. Na segunda parte vamos dar ideias de como testar se uma hipótese (requisito) vale a pena ser construída antes de o ser. Vamos falar sobre Pretotyping e usar exemplos de várias empresas como amazon, DropBox, Netflix, entre outros
Acelerando sites e aplicações Web com uma CDNJose Papo, MSc
Esta apresentação mostra a importância da performance e da velocidade de uma aplicação do ponto de vista do usuário final e mostra dicas práticas de como acelerar seu site ou aplicação móvel
Oportunidades da Nuvem para a Educação, a Pesquisa e o GovernoJose Papo, MSc
Deck de slides da palestra realizada no Fórum RNP (Rede Nacional de Ensino e Pesquisa) para membros de instituições de pesquisa e universidades de todo o país
Amazon Web Services: Economia, Inovação e Revolução da NuvemJose Papo, MSc
Nesta apresentação falamos sobre Cloud Economics e mostramos que a análise para o uso de uma tecnologia de ruptura como a AWS pode se basear em dois fatores que apóiam a vantagem competitiva de uma empresa: preços baixos e diferenciação. A Nuvem ajuda em preços baixos devido à redução de TCO e ajuda na diferenciação através da agilidade no time to market e na redução de riscos.
TCO (Total Cost of Ownership) e a Nuvem: Como os clientes da AWS estão econom...Jose Papo, MSc
Apresentação que resume muito bem dados de análise de TCO, economias e benefícios financeiros tangíveis e intangíveis do uso de Cloud Computing. Apresenta exemplos e casos de clientes.
Desenvolvendo um buscador com PHP e Elasticsearch - Fernando Silva - Tchelinu...Tchelinux
Elasticsearch é uma ferramenta de busca e análise de dados em tempo real, de código aberto. Nesta apresentação será demostrada soluções utilizadas para desenvolver um buscador, focado em disponibilizar uma ferramenta que possibilite realizar busca por cursos de graduação aprovados pelo MEC. Para isso será abordado conceitos como Web Crawler, armazenamento de dados em banco não relacional utilizando Elasticsearch, e como tudo isso pode ser desenvolvido utilizando PHP.
Palestra de Fernando Silva, apresentada no Tchelinux Bento Gonçalves 2017.
* Link original do autor: https://speakerdeck.com/fernandodebrando/desenvolvendo-um-buscador-com-php-e-elasticsearch
* Link do perfil do autor no Speaker Deck: https://speakerdeck.com/fernandodebrando
Fernando Silva é Analista de Desenvolvimento na KingHost, graduado em Análise e Desenvolvimento de Sistemas (ADS) pela Faculdade Senac Porto Alegre, onde ganhou o Prêmio Keller de melhor trajetória acadêmica. Atualmente faz pós-graduação em Segurança Cibernética pela UFRGS, além disso, é um dos coordenadores da comunidade PHP-RS, é entusiasta Open Source e Software Livre.
Nesta apresentação introdutória, mostramos passo a passo, como criar soluções de Big Data, utilizando os serviços disponíveis na nuvem AWS - EMR, Redshift, Kinesis - e exemplificamos com casos práticos.
Migrando seu banco de dados para a AWS - Deep Dive em Amazon RDS e AWS Databa...Amazon Web Services LATAM
O serviço de banco de dados Amazon RDS permite que você disponibilize um ambiente de Banco de Dados seguro, pre-configurado e altamente disponível em alguns cliques. Ele permite uma capacidade com ótimo custo benefício e escalável, automatizando tarefas que consomem tempo do DBA, provendo seis motores de bancos de dados para escolha: Amazon Aurora, Oracle, MS SQLServer, PostegreSQL, MySQL and MariaDB. Nesta sessão nós vamos olhar com atenção para as funções do Amazon RDS e explicar como funcionam. Nós também vamos promover uma discussão sobre o AWS Database Migration Service e AWS Schema Conversion Tool, que vão ajudar a migrar seus bancos de dados e Data Warehouse com mínimo downtime, do ambiente on-premises para o Amazon RDS ou outros serviços da AWS. Você pode experimentar a Liberdade de rodar suas aplicações com alta performance, escalabilidade, alta disponibilidade e compatibilidade sem o alto custo de ambientes proprietários.
https://aws.amazon.com/pt/products/databases/
Agora é hora de dissecar o tema Big Data: como fazer ingestão de dados, armazenamento, tratamento e processamento, e finalmente, visualização dos resultados. A nuvem da AWS lhe resolve o problema de infraestrutura, e tambem o de ferramentas para Big Data. Venha conhecer o lado bom, após a solução dos problemas. Venha usar Big Data, com uma infraestrutura pronta para usar e solucionar problemas de negócios.
Já pensou em ter um aplicativo Mobile, e usar a infraestrutura para isso como um serviço? Sem necessidade de provisionar, configurar e administrar servidores? Venha ver como isto é possível com a AWS.
Neste caso de sucesso, os arquitetos nos apresentam como uma aplicação desenhada para milhões de usuários foi concebida, testada e implementada, atingindo a milhões de usuários durante a copa do mundo de futebol de 2014.
AWS Meetup - Processando dados em alta escala com Node.js e AWS LambdaDaniel Baptista Dias
Palestra dada em 15/05/2018 no AWS Meetup SP.
Desenvolver um sistema que suporte um grande número de dados por minuto pode ser der desafiador e complexo.
Irei mostrar um estudo de caso da Sprinklr onde processamos cerca de 500 mil de dados por minuto utilizando Node.js e AWS Lambda, mostrando quais são os pontos onde devemos nos preocupar e quais são os desafios encontrados para se suportar este volume de dados.
Do mapa mental para Serviços de Dados até APIsWSO2
Recording: http://wso2.com/library/webinars/2015/02/do-mapa-mental-para-servicos-de-dados-ate-apis/
Os participantes deste Webinar vão compreeder:
Como fazer modelagem ágil de dados usando mapas mentais
Usar a API REST do DSS como camada de persistência
Consumir a API REST do DSS usando uma aplicação HTML5 e AngularJS
Entender como a API gerada pode ser usada por outros aplicativos
Por que o Google Cloud Platform é diferenteJose Papo, MSc
Palestra realizada durante o evento Google Cloud OnBoard 2017. No keynoite eu falei sobre os diferenciais do Google cloud Platform e como o Google analisou a indústria de Nuvem para criar a oferta para seus clientes
O Firebase é o novo kit de ferramentas do Google para desenvolvedores de Apps. Possui uma série de SDKs importantes e suporta as principais plataformas do mercado como Android, iOS, Web, C++ e servidor. Assista ao vídeo relacionado a essa apresentação em https://youtu.be/YXmYpSNdtMY
As 8 características de um gestor e líder no "Estilo Google"Jose Papo, MSc
As 8 características de um gestor/líder "Estilo Google". Como aprendemos no Google a sermos bons líderes/gerentes de equipes e pessoas através dos atributos do projeto Oxygen
Apresentação sobre a Disrupção digital, Computação em Nuvem e os porquês de tendências como Cloud, Big Data, Machine Learning, DevOps, Micro-serviços e Agilidade em Escala.
2. 5 bilhões de celulares no mundo
Mais de 1 milhão de apps nas App Stores
32 bilhões de apps serão baixadas em 2012
50 bilhões de dólares em apps e músicas
21. RegisterDeviceRequest registerDeviceRequest = new RegisterDeviceRequest(
this.endpoint, this.useSSL, uid, key);
ResponseHandler handler = new ResponseHandler();
response = this.processRequest(registerDeviceRequest, handler);
if (response.requestWasSuccessful()) {
AmazonSharedPreferencesWrapper.registerDeviceId(
this.sharedPreferences, uid, key);
}
AmazonDynamoDBClient ddb = UserPreferenceDemoActivity.clientManager.ddb();
KeySchemaElement kse = new KeySchemaElement().withAttributeName(
"userNo").withAttributeType(ScalarAttributeType.N);
KeySchema ks = new KeySchema().withHashKeyElement(kse);
ProvisionedThroughput pt = new ProvisionedThroughput()
.withReadCapacityUnits(10l).withWriteCapacityUnits(5l);
CreateTableRequest request = new CreateTableRequest()
.withTableName(PropertyLoader.getInstance().getTestTableName())
.withKeySchema(ks).withProvisionedThroughput(pt);
ddb.createTable(request);
22.
23. Intent intent = new Intent(Intent.ACTION_GET_CONTENT);
intent.setType("image/*");
startActivityForResult(intent, PHOTO_SELECTED);
AmazonS3Client s3Client = new AmazonS3Client( new BasicAWSCredentials(
MY_ACCESS_KEY_ID, MY_SECRET_KEY ) );
PutObjectRequest por = new PutObjectRequest( Constants.getPictureBucket(),
Constants.PICTURE_NAME, new java.io.File( filePath) );
s3Client.putObject( por );