Quais são as melhores métricas para garantir uma API de sucesso? Confira 6 formas de definir os melhores indicadores, que te darão incríveis insights sobre sua Estratégia de APIs e permitirão que seus devs, clientes, parceiros e usuários finais amarem o seu serviço!
Spark and the Hadoop Ecosystem: Best Practices for Amazon EMRAmazon Web Services
by Dario Rivera, Solutions Architect, AWS
Amazon EMR is a managed service that lets you process and analyze extremely large data sets using the latest versions of over 15 open-source frameworks in the Apache Hadoop and Spark ecosystems. In this session, we introduce you to Amazon EMR design patterns such as using Amazon S3 instead of HDFS, taking advantage of both long and short-lived clusters, and other Amazon EMR architectural best practices. We talk about how to scale your cluster up or down dynamically and introduce you to ways you can fine-tune your cluster. We also share best practices to keep your Amazon EMR cluster cost-efficient. Finally, we dive into some of our recent launches to keep you current on our latest features. This session will feature Asurion, a provider of device protection and support services for over 280 million smartphones and other consumer electronics devices.
Real Time Recommendations Using WebSockets and Redis - Ninad Divadkar, InuitRedis Labs
WebSockets connect the browser to your app server. But what if the processing happens on some other server? In that case you need to connect the worker process to the app process via a messaging system. After experimenting with RabbitMQ, we settled on Redis as a great pub sub and a caching system. This presentation will describe the architecture of the system and how we use spring-websockets and spring-data-Redis to power the system. As a bonus, we will show a great way to find out in real time how many users are
currently using your system.
"API Design: From User Need to Finished Spec" by Andrew Jordan, ex-Product @T...TheFamily
Heard of Twilio? It's the $2.4B cloud communications company behind 2016's hottest IPO.
You use it everyday without knowing it. The text message saying your Uber arrived? Twilio sent it. When you lose your Netflix password? They have you covered.
Considered as one of the most innovative & developer-friendly company out there today, if there's something they got right it's the product!
We were glad to have Andrew Jordan, ex-Product Manager and early employee at Twilio share his experience on stage! In this talk, Jordan explains API design and principles, covering how to identify a good opportunity for an API, how to write a well defined API spec and how to gather user feedback and iterate on APIs.
Before quitting his job to travel, spent the last five years designing, building, and selling APIs at Twilio. The last product he shipped was a speech recognition API for the company's voice product. Once he's done traveling, he plans to look into new ideas around speech processing and insurance.
Quais são as melhores métricas para garantir uma API de sucesso? Confira 6 formas de definir os melhores indicadores, que te darão incríveis insights sobre sua Estratégia de APIs e permitirão que seus devs, clientes, parceiros e usuários finais amarem o seu serviço!
Spark and the Hadoop Ecosystem: Best Practices for Amazon EMRAmazon Web Services
by Dario Rivera, Solutions Architect, AWS
Amazon EMR is a managed service that lets you process and analyze extremely large data sets using the latest versions of over 15 open-source frameworks in the Apache Hadoop and Spark ecosystems. In this session, we introduce you to Amazon EMR design patterns such as using Amazon S3 instead of HDFS, taking advantage of both long and short-lived clusters, and other Amazon EMR architectural best practices. We talk about how to scale your cluster up or down dynamically and introduce you to ways you can fine-tune your cluster. We also share best practices to keep your Amazon EMR cluster cost-efficient. Finally, we dive into some of our recent launches to keep you current on our latest features. This session will feature Asurion, a provider of device protection and support services for over 280 million smartphones and other consumer electronics devices.
Real Time Recommendations Using WebSockets and Redis - Ninad Divadkar, InuitRedis Labs
WebSockets connect the browser to your app server. But what if the processing happens on some other server? In that case you need to connect the worker process to the app process via a messaging system. After experimenting with RabbitMQ, we settled on Redis as a great pub sub and a caching system. This presentation will describe the architecture of the system and how we use spring-websockets and spring-data-Redis to power the system. As a bonus, we will show a great way to find out in real time how many users are
currently using your system.
"API Design: From User Need to Finished Spec" by Andrew Jordan, ex-Product @T...TheFamily
Heard of Twilio? It's the $2.4B cloud communications company behind 2016's hottest IPO.
You use it everyday without knowing it. The text message saying your Uber arrived? Twilio sent it. When you lose your Netflix password? They have you covered.
Considered as one of the most innovative & developer-friendly company out there today, if there's something they got right it's the product!
We were glad to have Andrew Jordan, ex-Product Manager and early employee at Twilio share his experience on stage! In this talk, Jordan explains API design and principles, covering how to identify a good opportunity for an API, how to write a well defined API spec and how to gather user feedback and iterate on APIs.
Before quitting his job to travel, spent the last five years designing, building, and selling APIs at Twilio. The last product he shipped was a speech recognition API for the company's voice product. Once he's done traveling, he plans to look into new ideas around speech processing and insurance.
Deep Dive: Building external auth plugins for Gloo EnterpriseChristian Posta
Using the plugin framework for Ext. Auth Service in Gloo Enterprise, we can build any custom AuthN/AuthZ plugins to handle security requirements not provided out of the box.
Spark SQL: Another 16x Faster After Tungsten: Spark Summit East talk by Brad ...Spark Summit
Apache Spark 2.1.0 boosted the performance of Apache Spark SQL due to Project Tungsten software improvements. Another 16x times faster has been achieved by using Oracle’s innovations for Apache Spark SQL. This 16x improvement is made possible by using Oracle’s Software in Silicon accelerator offload technologies.
Apache Spark SQL In-memory performance is becoming more important due to many factors. Users are now performing more advanced SQL processing on multi-terabyte workloads. In addition on-prem and cloud servers are getting larger physical memory to enable storing these huge workloads be stored in memory. In this talk we will look at using Spark SQL in feature creation, feature generation within pipelines for Spark ML.
This presentation will explore workloads at scale and with complex interactions. We also provide best practices and tuning suggestion to support these kinds of workloads on real applications in cloud deployments. In addition ideas for next generation Tungsten project will also be discussed.
Keeping Spark on Track: Productionizing Spark for ETLDatabricks
ETL is the first phase when building a big data processing platform. Data is available from various sources and formats, and transforming the data into a compact binary format (Parquet, ORC, etc.) allows Apache Spark to process it in the most efficient manner. This talk will discuss common issues and best practices for speeding up your ETL workflows, handling dirty data, and debugging tips for identifying errors.
Speakers: Kyle Pistor & Miklos Christine
This talk was originally presented at Spark Summit East 2017.
Flexible, hybrid API-led software architectures with KongSven Bernhardt
Kong is a lightweight, cloud-native API solution that makes it easier and faster than ever to connect APIs and microservices in today’s hybrid, multi-cloud environments. With its agnostic, flexible deployment approach, Kong can be used in today’s heterogeneous IT system landscapes to integrate a wide variety of data and systems – even across company boundaries – using APIs. In addition to REST APIs, Kong also offers support for gRPC and GraphQL, which broadens the possibilities to implement modern application architectures.
In this presentation, we will discuss deployment patterns and use cases for Kong to demonstrate the flexibility of the platform. Using a practical example, aspects of the API development and deployment process as well as the integration in existing software development processes will be discussed.
Learning Objectives:
-Understand how to use a graph model and query languages to build applications over highly connected data
-Understand how the features of Amazon Neptune enable you to build production ready graph applications -Learn how to get started
Speaker: Alex Komyagin
MongoDB replica sets allow you to make the database highly available so that you can keep your applications running even when some of the database nodes are down. In a distributed system, local durability of writes with journaling is no longer enough to guarantee system-wide durability, as the node might go down just before any other node replicates new write operations from it. As such, we need a new concept of cluster-wide durability.
How do you make sure that your write operations are durable within a replica set? How do you make sure that your read operations do not see those writes that are not yet durable? This talk will cover the mechanics of ensuring durability of writes via write concern and how to prevent reading of stale data in MongoDB using read concern. We will discuss the decision flow for selecting an appropriate level of write concern, as well as associated tradeoffs and several practical use cases and examples."
Ini merupakan contoh powerpoin untuk menjelaskan portfolio projek saya dalam membuat aplikasi crud dengan framewrok php. Bisa disesuaikan dengan projek teman teman. Semoga membantu, terima kasih
This talk provides an in-depth overview of the key concepts of Apache Calcite. It explores the Calcite catalog, parsing, validation, and optimization with various planners.
Extending Flink SQL for stream processing use casesFlink Forward
Flink Forward San Francisco 2022.
Apache Flink is a powerful stream processing platform that enables users to build complex real time applications. Flink SQL provides a SQL interface that implements standard SQL. While the standard SQL provides a perfect interface for batch processing, in stream processing context, it can result is ambiguity and complex syntax. As an example, consider these three types of streams: Append-only stream, Retract stream and Upsert stream. Using standard SQL, we would represent all of these streams as Table along with the Table concept in batch processing. Such overloading of concepts can result in ambiguity in SQL statements in streaming context. In this talk, we will present extensions to the Flink SQL that simplify SQL statements in the context of stream processing. We will show how such extensions work in the context of a Flink application using different use cases. These extensions are only sugar syntax and users should be able to use Flink SQL as is if they desire.
by
Hojjat Jafarpour
Apache Spark Data Source V2 with Wenchen Fan and Gengliang WangDatabricks
As a general computing engine, Spark can process data from various data management/storage systems, including HDFS, Hive, Cassandra and Kafka. For flexibility and high throughput, Spark defines the Data Source API, which is an abstraction of the storage layer. The Data Source API has two requirements.
1) Generality: support reading/writing most data management/storage systems.
2) Flexibility: customize and optimize the read and write paths for different systems based on their capabilities.
Data Source API V2 is one of the most important features coming with Spark 2.3. This talk will dive into the design and implementation of Data Source API V2, with comparison to the Data Source API V1. We also demonstrate how to implement a file-based data source using the Data Source API V2 for showing its generality and flexibility.
Construindo Data Lakes e Analytics na AWS - BDA301 - Sao Paulo SummitAmazon Web Services
Mais de 90% dos dados de hoje foram gerados nos últimos dois anos e a taxa de crescimento dos dados não dá sinais de desaquecimento. Nesta sessão, abordaremos os desafios e melhores práticas para capturar todos os dados que estão gerados, entender quais dados você possue, inspirar insights e prever o futuro usando os serviços da AWS. Criamos a sessão e as demonstrações com base em armadilhas comuns na construção de data lakes e abordamos como direcionar analytics e insights úteis a partir dos dados. Discutiremos também os padrões de arquitetura, combinando os principais serviços da AWS em vez de aprofundar em um único serviço. Mostraremos como serviços como Amazon S3, AWS Glue, Amazon Redshift, Amazon Athena, Amazon EMR, Amazon Kinesis e Amazon Machine Learning podem ser combinados para criar um data lake bem sucedido para diversas funções, incluindo cientistas de dados e usuários de negócios.
Aplicando uma Estratégia de Banco de Dados AWS Personalizada: Encontre o Banc...Amazon Web Services
Nesta sessão, exploraremos quais bancos de dados devem ser usados para cada componente da sua aplicação. Saiba como avaliar uma nova carga de trabalho para encontrar a melhor opção de banco de dados gerenciado com base nas necessidades específicas da aplicação, como formato dos dados, limite de tamanho dos dados, exigências computacionais, programabilidade, produtividade, latência, etc. Nós explicaremos os casos de uso ideais para serviços de dados relacionais e não-relacionais, incluindo Amazon Aurora, Amazon DynamoDB, Amazon ElastiCache for Redis, Amazon Neptune e Amazon Redshift.
Deep Dive: Building external auth plugins for Gloo EnterpriseChristian Posta
Using the plugin framework for Ext. Auth Service in Gloo Enterprise, we can build any custom AuthN/AuthZ plugins to handle security requirements not provided out of the box.
Spark SQL: Another 16x Faster After Tungsten: Spark Summit East talk by Brad ...Spark Summit
Apache Spark 2.1.0 boosted the performance of Apache Spark SQL due to Project Tungsten software improvements. Another 16x times faster has been achieved by using Oracle’s innovations for Apache Spark SQL. This 16x improvement is made possible by using Oracle’s Software in Silicon accelerator offload technologies.
Apache Spark SQL In-memory performance is becoming more important due to many factors. Users are now performing more advanced SQL processing on multi-terabyte workloads. In addition on-prem and cloud servers are getting larger physical memory to enable storing these huge workloads be stored in memory. In this talk we will look at using Spark SQL in feature creation, feature generation within pipelines for Spark ML.
This presentation will explore workloads at scale and with complex interactions. We also provide best practices and tuning suggestion to support these kinds of workloads on real applications in cloud deployments. In addition ideas for next generation Tungsten project will also be discussed.
Keeping Spark on Track: Productionizing Spark for ETLDatabricks
ETL is the first phase when building a big data processing platform. Data is available from various sources and formats, and transforming the data into a compact binary format (Parquet, ORC, etc.) allows Apache Spark to process it in the most efficient manner. This talk will discuss common issues and best practices for speeding up your ETL workflows, handling dirty data, and debugging tips for identifying errors.
Speakers: Kyle Pistor & Miklos Christine
This talk was originally presented at Spark Summit East 2017.
Flexible, hybrid API-led software architectures with KongSven Bernhardt
Kong is a lightweight, cloud-native API solution that makes it easier and faster than ever to connect APIs and microservices in today’s hybrid, multi-cloud environments. With its agnostic, flexible deployment approach, Kong can be used in today’s heterogeneous IT system landscapes to integrate a wide variety of data and systems – even across company boundaries – using APIs. In addition to REST APIs, Kong also offers support for gRPC and GraphQL, which broadens the possibilities to implement modern application architectures.
In this presentation, we will discuss deployment patterns and use cases for Kong to demonstrate the flexibility of the platform. Using a practical example, aspects of the API development and deployment process as well as the integration in existing software development processes will be discussed.
Learning Objectives:
-Understand how to use a graph model and query languages to build applications over highly connected data
-Understand how the features of Amazon Neptune enable you to build production ready graph applications -Learn how to get started
Speaker: Alex Komyagin
MongoDB replica sets allow you to make the database highly available so that you can keep your applications running even when some of the database nodes are down. In a distributed system, local durability of writes with journaling is no longer enough to guarantee system-wide durability, as the node might go down just before any other node replicates new write operations from it. As such, we need a new concept of cluster-wide durability.
How do you make sure that your write operations are durable within a replica set? How do you make sure that your read operations do not see those writes that are not yet durable? This talk will cover the mechanics of ensuring durability of writes via write concern and how to prevent reading of stale data in MongoDB using read concern. We will discuss the decision flow for selecting an appropriate level of write concern, as well as associated tradeoffs and several practical use cases and examples."
Ini merupakan contoh powerpoin untuk menjelaskan portfolio projek saya dalam membuat aplikasi crud dengan framewrok php. Bisa disesuaikan dengan projek teman teman. Semoga membantu, terima kasih
This talk provides an in-depth overview of the key concepts of Apache Calcite. It explores the Calcite catalog, parsing, validation, and optimization with various planners.
Extending Flink SQL for stream processing use casesFlink Forward
Flink Forward San Francisco 2022.
Apache Flink is a powerful stream processing platform that enables users to build complex real time applications. Flink SQL provides a SQL interface that implements standard SQL. While the standard SQL provides a perfect interface for batch processing, in stream processing context, it can result is ambiguity and complex syntax. As an example, consider these three types of streams: Append-only stream, Retract stream and Upsert stream. Using standard SQL, we would represent all of these streams as Table along with the Table concept in batch processing. Such overloading of concepts can result in ambiguity in SQL statements in streaming context. In this talk, we will present extensions to the Flink SQL that simplify SQL statements in the context of stream processing. We will show how such extensions work in the context of a Flink application using different use cases. These extensions are only sugar syntax and users should be able to use Flink SQL as is if they desire.
by
Hojjat Jafarpour
Apache Spark Data Source V2 with Wenchen Fan and Gengliang WangDatabricks
As a general computing engine, Spark can process data from various data management/storage systems, including HDFS, Hive, Cassandra and Kafka. For flexibility and high throughput, Spark defines the Data Source API, which is an abstraction of the storage layer. The Data Source API has two requirements.
1) Generality: support reading/writing most data management/storage systems.
2) Flexibility: customize and optimize the read and write paths for different systems based on their capabilities.
Data Source API V2 is one of the most important features coming with Spark 2.3. This talk will dive into the design and implementation of Data Source API V2, with comparison to the Data Source API V1. We also demonstrate how to implement a file-based data source using the Data Source API V2 for showing its generality and flexibility.
Construindo Data Lakes e Analytics na AWS - BDA301 - Sao Paulo SummitAmazon Web Services
Mais de 90% dos dados de hoje foram gerados nos últimos dois anos e a taxa de crescimento dos dados não dá sinais de desaquecimento. Nesta sessão, abordaremos os desafios e melhores práticas para capturar todos os dados que estão gerados, entender quais dados você possue, inspirar insights e prever o futuro usando os serviços da AWS. Criamos a sessão e as demonstrações com base em armadilhas comuns na construção de data lakes e abordamos como direcionar analytics e insights úteis a partir dos dados. Discutiremos também os padrões de arquitetura, combinando os principais serviços da AWS em vez de aprofundar em um único serviço. Mostraremos como serviços como Amazon S3, AWS Glue, Amazon Redshift, Amazon Athena, Amazon EMR, Amazon Kinesis e Amazon Machine Learning podem ser combinados para criar um data lake bem sucedido para diversas funções, incluindo cientistas de dados e usuários de negócios.
Aplicando uma Estratégia de Banco de Dados AWS Personalizada: Encontre o Banc...Amazon Web Services
Nesta sessão, exploraremos quais bancos de dados devem ser usados para cada componente da sua aplicação. Saiba como avaliar uma nova carga de trabalho para encontrar a melhor opção de banco de dados gerenciado com base nas necessidades específicas da aplicação, como formato dos dados, limite de tamanho dos dados, exigências computacionais, programabilidade, produtividade, latência, etc. Nós explicaremos os casos de uso ideais para serviços de dados relacionais e não-relacionais, incluindo Amazon Aurora, Amazon DynamoDB, Amazon ElastiCache for Redis, Amazon Neptune e Amazon Redshift.
Sessão Avançada: Construindo um Data Warehouse Moderno com Amazon Redshift - ...Amazon Web Services
Nesta sessão, nos aprofundamos na arquitetura do Amazon Redshift e nos aprimoramentos de desempenho mais recentes que fornecem informaçõe mais rápidas sobre seus dados. Também abordamos o Amazon Redshift Spectrum, o recurso do Amazon Redshift que permite analisar dados no Amazon Redshift e no data lake do Amazon S3 para que você possa fornecer insights únicos que não são possíveis analisando silos de dados independentes. Um cliente se juntará a nós para compartilhar como ampliou seu data warehouse para seu data lake para abranger várias fontes de dados e formatos de dados. Essa arquitetura moderna os ajuda a unir as fontes de dados para obter insights acionáveis em todas as unidades de negócios.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
Com a AWS, não é necessário fazer grandes investimentos adiantados de tempo e dinheiro para criar e manter a infraestrutura. Em vez disso, você pode provisionar o tipo e o tamanho exatos dos recursos necessários para comportar aplicativos de análise de big data.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
Você quer lançar a sua primeira aplicação em Big Data e não sabe como? Junte-se a nós nessa jornada e vamos construir aplicação utilizando Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon DynamoDB e Amazon S3.
A AWS fornece diversos serviços os quais você pode construir o seu data lake. Com base nessa diversidade de serviço, será apresentado, conceitos, melhores práticas e formas de utilização.
Nesta sessão, nos concentraremos na arquitetura de dados de uma aplicação, o que permite que diferentes pessoas com distintas funções em uma organização acesses pontos de dados relevantes e produzam insights valiosos. Explicaremos os conceitos chave e os componentes de uma arquitetura de data lake, assim como de que forma devemos construir fluxos de processamento de dados de camadas de velocidade e de lote.
Agora é hora de dissecar o tema Big Data: como fazer ingestão de dados, armazenamento, tratamento e processamento, e finalmente, visualização dos resultados. A nuvem da AWS lhe resolve o problema de infraestrutura, e tambem o de ferramentas para Big Data. Venha conhecer o lado bom, após a solução dos problemas. Venha usar Big Data, com uma infraestrutura pronta para usar e solucionar problemas de negócios.
"O aumento das demandas para coleta, armazenamento e análise de grandes quantidades de dados muitas vezes significa que as mesmas ferramentas e abordagens que funcionaram no passado, não irão funcionar mais. É por isso que muitas organizações estão mudando para uma arquitetura de data lake.
Um data lake é uma abordagem de arquitetura que permite armazenar enormes quantidades de dados em um local central, sendo prontamente disponível para ser categorizado, processado, analisado e consumido por diversos grupos dentro de uma organização.
Nesta apresentação introduziremos os conceitos-chave de um data lake e apresentaremos os aspectos relacionados à sua implementação. Destacaremos os principais componentes de data lake, tais como armazenamento, computação, analytics, bancos de dados, processamento de streams de dados, gerenciamento de dados e segurança. Discutiremos como escolher as tecnologias certas para cada componente do data lake, com base em critérios como estrutura de dados, latência de consulta, custo, taxa de requisição, tamanho do item, volume de dados, durabilidade e assim por diante. Também forneceremos uma arquitetura de referência e recomendações para começar com uma implementação de data lake na AWS.
Objetivos de aprendizado:
• Compreender os conceitos-chave e componentes de uma arquitetura de data lake
• Descrever como e quando usar um amplo conjunto de ferramentas analíticas e de gerenciamento de dados em uma arquitetura de data lake
• Obter insights sobre como começar com uma implementação de data lake na AWS"
https://aws.amazon.com/pt/blogs/big-data/introducing-the-data-lake-solution-on-aws/
A AWS oferece uma ampla variedade de bancos de dados, criados especialmente para casos de uso de aplicativos específicos. Nossos serviços de banco de dados totalmente gerenciados incluem bancos de dados relacionais para aplicativos transacionais, bancos de dados não transacionais para aplicativos na escala da Internet, um data warehouse para análises, um datastore na memória para cargas de trabalho de cache e em tempo real e um banco de dados gráfico para criar aplicativos com dados altamente conectados. Se você quer migrar bancos de dados existentes para a AWS, o AWS Database Migration Service permite fazer isso com facilidade e economia .
https://aws.amazon.com/pt/products/databases/
Liberte-se dos bancos de dados comerciais para economizar, crescer e inovarAmazon Web Services LATAM
Frustradas com o alto custo, baixa escalabilidade e outros problemas de desempenho, as empresas estão buscando migrar para bancos de dados em nuvem totalmente gerenciados ou se libertar da natureza restritiva dos bancos de dados legados para economizar, crescer e inovar.
Imagine um serviço de Banco de Dados, onde replicação, alta disponibilidade, backup, e a administração dos servidores é feita transparentemente. Pare de imaginar, e conheçao o Amazon RDS - Relational Database Service, disponível para MS SQL, Oracle, MySQL e o Aurora.
Semelhante a Construindo um Data Warehouse moderno com Amazon Redshift (20)
En este webinar, aprenderá cómo las empresas pueden aprovechar la nube de AWS para automatizar los pipelines de desarrollo de software. Este enfoque permite que su equipo sea más ágil, mejorando su capacidad para entregar aplicaciones y servicios rápidamente.
Neste webinar, você aprenderá como as empresas podem se valer da nuvem da AWS para automatizar os pipelines de desenvolvimento de software. Essa abordagem permite que sua equipe seja mais ágil, melhorando sua capacidade para entregar aplicações e serviços mais rapidamente.
Las tecnologías como los contenedores y kubernetes pueden hacer que sus procesos de entrega de software sean más fáciles y más rápidos. En este webinar, hablaremos sobre cómo usar el Amazon Kubernetes Service (EKS) para construir aplicaciones modernas con grupos Kubernetes totalmente administrados.
Tecnologias como containers e Kubernetes podem tornar seus processos de entrega de software mais fáceis e rápidos. Neste webinar, falaremos sobre como usar o Amazon Elastic Kubernetes Service (EKS) para criar aplicativos modernos com clusters de Kubernetes totalmente gerenciados.
Ransomware é uma das ameaças de crescimento mais rápido para qualquer organização. Nenhuma empresa, grande ou pequena, está imune a ataques de cibercriminosos. Nesta sessão, mostramos como você pode aproveitar os serviços e recursos da nuvem AWS para proteger seus dados mais valiosos de ataques cibernéticos e acelerar a restauração de operações.
El ransomware es una de las amenazas de más rápido crecimiento para cualquier organización. Ninguna empresa, grande o pequeña, es inmune a los ataques de los ciberdelincuentes. En esta sesión, mostramos cómo puede aprovechar los servicios y las capacidades de la nube AWS para proteger sus datos más valiosos de los ataques cibernéticos y acelerar la restauración de las operaciones.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
El ransomware es una práctica maliciosa que se ha popularizado en los últimos años. En esta sesión les mostraremos cómo desde Amazon Web Services nuestros clientes pueden desarrollar una estrategia proactiva de mitigación frente a ataques de ransomware, tanto en escenarios on-premises, como operando en la nube.
Al mover datos a la nube, los clientes deben comprender los métodos óptimos para los diferentes casos de uso, los tipos de datos que están moviendo y los recursos disponibles en la red, entre otros. Las soluciones de migración y transferencia de AWS contemplan desde la migración de datos con conectividad limitada, almacenamiento en la nube híbrida, transferencias frecuentes de archivos B2B, hasta transferencias de datos en línea y sin conexión. En esta sesión, le mostramos cómo puede acelerar la migración y transferencia de datos de manera simplificada desde y hacia la nube de AWS.
Ao mover dados para a nuvem, os clientes precisam entender os métodos ideais de movê-los para diferentes casos de uso, os tipos de dados que estão movendo e os recursos de rede disponíveis, entre outras considerações. As soluções de migração e transferência da AWS atendem desde a migração de dados com conectividade limitada, armazenamento em nuvem híbrida, transferências frequentes de arquivos B2B até transferências de dados online e offline. Nessa sessão, mostraremos como você pode simplificar e acelerar sua migração e transferência de dados de e para a nuvem AWS.
El almacenamiento de archivos tiene diversos casos de uso; como directorios de usuarios, datos de aplicaciones, archivos multimedia y almacenamiento compartido para cargas de trabajo de alto rendimiento. La administración del almacenamiento de archivos en instalaciones propias suele ser un trabajo pesado, indiferenciado, con altos costos de adquisición, carga operativa para configurar y administra, lo que conlleva a desafíos de escalabilidad. En esta sesión, le mostramos cómo puede aprovechar las soluciones de archivos totalmente administradas de AWS para dejar de preocuparse por la sobrecarga administrativa de configurar, proteger, mantener y realizar copias de seguridad de su infraestructura de archivos.
La visualización de datos analíticos es un reto al que se enfrentan muchas organizaciones, el poder crear tableros, alertas, agregar predicciones a sus datos y actuar de acuerdo a estas de manera rápida es una necesidad de todos los negocios actuales. Únase a nuestros arquitectos para aprender como Amazon QuickSight le permite agregar inteligencia de negocios a sus aplicaciones y crear predicciones a futuro de sus datos. Amazon QuickSight es un servicio de inteligencia de negocios escalable y serverless creado para la nube, a través del cual podrá explotar sus datos de negocio para convertirlos en insights para hacer decisiones informadas sobre su negocio sin preocuparse de la gestión, escalamiento y la disponibilidad de la infraestructura de cómputo.
A visualização de dados é um desafio que muitas organizações enfrentam hoje. Criar dashboards, alertas, fazer previsões e agir rapidamente de acordo com os insights dos dados é uma necessidade de todas as empresas. Junte-se aos nossos arquitetos para aprender como o Amazon QuickSight o ajudará a adicionar BI aos seus aplicativos. O Amazon Quicksight é um serviço de BI escalável e serverless criado para a nuvem. Com ele, você pode explorar seus dados para obter insights e tomar decisões embasadas em seus negócios, sem se preocupar em gerenciar e dimensionar servidores e manter a disponibilidade de sua infraestrutura.
Executar projetos de Big Data nunca foi tão simples. Com a AWS, você pode executar Hadoop, Spark, Hive, Flink e frameworks semelhantes de maneira mais rápida e econômica. Neste webinar, você aprenderá como melhorar o desempenho do processamento de seus dados e reduzir custos, especialmente quando comparado a um ambiente on-premises.
6. Evolução das plataformas tecnológicas de análise de
dados
Appliances de
Data warehouse
1985 2006
Clusters
Hadoop
2009
Clusters EMR
desacoplados
2012
Cloud DWH
Redshift
Today
Clusterless
Athena Glue
9. OLTP ERP CRM LOB
Data Warehouse
Business Intelligence • Dados relacionais
• Escala de TBs–PBs
• Esquema on-write
• Relatórios operacionais e ad hoc
• Investimentos iniciais
Tradicionalmente, Analytics parecia-se com isso
10. Data Lake amplia a abordagem tradicional
Data Warehouse
Business Intelligence
OLTP ERP CRM LOB
• Dados relacionais e não-relacionais
• Escala de TBs–EBs
• Diversidade de engines de análise
• Baixo custo de storage e processamento
Devices Web Sensors Social
Big Data processing,
real-time, Machine Learning
Data Lake
11. Amazon S3
Amazon Glacier
AWS Glue
Armazene os dados em diversos formatos
• Arquivos texto como CSV
• Colunares como Apache Parquet e Apache ORC
• Logstash como Grok
• JSON (simple, nested), AVRO
• E mais…
CSV
ORC
Grok
Avro
Parquet
JSON
12. Data lake com Amazon S3 e AWS Glue
On premises data
Web app data
Amazon RDS
Other databases
Streaming data
Your data
AMAZON
QUICKSIGHT
AWS GLUE ETL
14. Speed (Processamento em Real-time)
Ingestão Camada de entregaData
sources
Scale (Processamento em Batch)
Usuários de negócio
Solução de ETL
ETL
Amazon
QuickSight
BI Clásico com processamento batch
Banco Relacional
Tradicional
ERP Sist1
Outros
Sistemas
15. Speed (Processamento em Real-time)
Ingestão Camada de entregaData
sources
Scale (Processamento em Batch)
Data Warehouse
Amazon Redshift
Queries Interativas
Amazon Athena
EMR com PrestoStaged Data
(Data Lake)
Amazon S3
Raw Data
(Data Lake)
Amazon S3
ETL/Processamento
Amazon EMR
Ingestão de
Databases
AWS DMS
Evoluindo o cenário atual – Processamento Batch com EMR
Usuários de negócio
Cientistas de Dados
Analistas de Dados
ERP Sist1
Outros
Sistemas
Ingestão
Apache Flume
Apache Sqoop
Amazon
QuickSight
16. Speed (Processamento em Real-time)
Ingestão Camada de entregaData
sources
Scale (Processamento em Batch)
Data Warehouse
Amazon Redshift
Queries Interativas
Amazon Athena
EMR com PrestoStaged Data
(Data Lake)
Amazon S3
Raw Data
(Data Lake)
Amazon S3
ETL/Processamento
Amazon EMR
Deep Learning
AI Frameworks
Advanced Analytics
Amazon EMR
Ingestão de
Databases
AWS DMS
Evolução – Novas capacidades analíticas para novos usuários (IA e ML)
Usuários de negócio
Cientistas de Dados
Analistas de Dados
ERP Sist1
Outros
Sistemas Modelagem analítica/AI
Amazon EMRIngestão
Apache Flume
Apache Sqoop
Amazon
QuickSight
17. Speed (Processamento em Real-time)
Ingestão Camada de entregaData
sources
Scale (Processamento em Batch)
Web logs /
cookies
Dispositivos
conectados
Midias sociais
Data Warehouse
Amazon Redshift
Real-time Dashboards
Amazon ElasticSearch
Queries Interativas
Amazon Athena
EMR com Presto
Near-Zero Latency
Amazon DynamoDB
Staged Data
(Data Lake)
Amazon S3
Raw Data
(Data Lake)
Amazon S3
ETL/Processamento
Amazon EMR
Deep Learning
AI Frameworks
Advanced Analytics
Amazon EMR
Processamento
de eventos
AWS Lambda
Ingestão de
Databases
AWS DMS
Captura de
Eventos
Amazon Kinesis
Processamento em
tempo real
EMR Spark Streaming
Cenário Futuro – Incluindo Processamento em Tempo Real com IA e ML
Captura de
Eventos
Apache Kafka Amazon AI
Services
Usuários de negócio
Plataformas de
engajamento
Automação / Eventos
Cientistas de Dados
Analistas de Dados
ERP Sist1
Outros
Sistemas Modelagem analítica/AI
Amazon EMRIngestão
Apache Flume
Apache Sqoop
Amazon
QuickSight
29. Amazon.com tem a visão de ser
a empresa com mais foco no
cliente do mundo, em que
pessoas podem encontrar o
que quiserem e comprar online
Challenge:
Carregar alto volume de e
queries/extrações todos os dias
(Amazon.com, Amazon Prime, Amazon
Music, Amazon Alexa, Amazon Video,
and Twitch).
Solution:
• Data lake no S3
• Usa Redshift para análises baseadas
em SQL por usuários de negócio,
EMR e Machine Learning
30. • DynamoDB capturando
todas as transações da
Amazon.com
• Dados do DynamoDB, RDS
PostgreSQL e Kinesis
alimentam o data lake no
S3
• Glue usado como catálogo
de meta dados
• Redshift usado para queries
baseadas em SQL e EMR
para machine learning e
processamento big data
• Usuários usam QuickSight
para visualizações
AWS Glue
Catálogo
QuickSight
S3 Athena
EMR
DynamoDB
PostgreSQL
Kinesis
Redshift
Machine
Learning
Amazon.com Data Lake e Analytics