A apresentação discute o Amazon QuickSight como uma ferramenta de business intelligence na nuvem da AWS que permite visualizar e analisar grandes volumes de dados de forma rápida e fácil. O QuickSight integra-se com diversos serviços de dados da AWS e possui recursos de administração de usuários, compartilhamento seguro de relatórios e preços acessíveis.
Disaster Recovery using AWS -Architecture blueprintsHarish Ganesan
This presentation explores various ways of architecting Disaster Recovery using Amazon Web services (AWS) Cloud The sample architecture element contains Managed DNS servers , Load Balancers and Data replicators , Amazon EC2 , MySQL M-M , AWS EBS ,AWS Elastic Load Balancing, AWS Auto Scaling , AWS CloudWatch and AWS S3
This webinar is designed as an easy-to-follow tutorial on DNSSEC signing a zone for DNS admins. Our focus will be on DNSSEC zone signing automation with the Knot DNS Server and BIND 9.
The document provides an overview of open-source networking. It discusses key topics like SDN, NFV, cloud-native networking, and 5G core architectures. It also examines various open-source networking projects from organizations like the Linux Foundation and how major cloud and hardware vendors are adopting open-source networking technologies in their hybrid cloud and multi-cloud solutions.
NEW LAUNCH! Amazon EC2 Bare Metal Instances - CMP330 - re:Invent 2017Amazon Web Services
When Amazon EC2 launched in 2006 there was a single instance size: m1.small. Over the past eleven years EC2 has evolved to provide an extensive selection of compute resources to customers including specialized resources such as NVMe SSDs, GPUs, and FPGAs. Under the hood, the servers used to host EC2 instances have transformed from off the shelf designs running virtualization software on the host CPUs to purpose built servers with AWS network and storage components implemented in hardware. Now we are happy to announce a new category of EC2 instances: Amazon EC2 Bare Metal Instances. These instances provide customers access to the physical compute resources of the host processors along with the security, scale, and services of EC2. This session will provide an overview of Bare Metal instances, how VMware used EC2 Bare Metal instances to build VMware Cloud on AWS, and other customer use cases for this new EC2 capability.
Learning Objectives:
- Learn the common use-cases for using Athena, AWS' interactive query service on S3
- Learn best practices for creating tables and partitions and performance optimizations
- Learn how Athena handles security, authorization, and authentication
AWS re:Invent 2016: Workshop: Secure Your Web Application with AWS WAF and Am...Amazon Web Services
In this workshop, we help you understand how you can help protect your web applications from threats cost effectively by using AWS WAF and Amazon CloudFront. As attacks and attempts to exploit vulnerabilities in web applications become more sophisticated and automated, having an effective web request filtering solution becomes key to keeping your users' data safe. We will cover common attack vectors and what you can do to mitigate them. You will learn how to leverage AWS WAF in conjunction with Amazon CloudFront to detect unwanted traffic and block it using simple configurations and automations.
Prerequisites:
Participants should have an AWS account established and available for use during the workshop.
Please bring your own laptop.
Disaster Recovery using AWS -Architecture blueprintsHarish Ganesan
This presentation explores various ways of architecting Disaster Recovery using Amazon Web services (AWS) Cloud The sample architecture element contains Managed DNS servers , Load Balancers and Data replicators , Amazon EC2 , MySQL M-M , AWS EBS ,AWS Elastic Load Balancing, AWS Auto Scaling , AWS CloudWatch and AWS S3
This webinar is designed as an easy-to-follow tutorial on DNSSEC signing a zone for DNS admins. Our focus will be on DNSSEC zone signing automation with the Knot DNS Server and BIND 9.
The document provides an overview of open-source networking. It discusses key topics like SDN, NFV, cloud-native networking, and 5G core architectures. It also examines various open-source networking projects from organizations like the Linux Foundation and how major cloud and hardware vendors are adopting open-source networking technologies in their hybrid cloud and multi-cloud solutions.
NEW LAUNCH! Amazon EC2 Bare Metal Instances - CMP330 - re:Invent 2017Amazon Web Services
When Amazon EC2 launched in 2006 there was a single instance size: m1.small. Over the past eleven years EC2 has evolved to provide an extensive selection of compute resources to customers including specialized resources such as NVMe SSDs, GPUs, and FPGAs. Under the hood, the servers used to host EC2 instances have transformed from off the shelf designs running virtualization software on the host CPUs to purpose built servers with AWS network and storage components implemented in hardware. Now we are happy to announce a new category of EC2 instances: Amazon EC2 Bare Metal Instances. These instances provide customers access to the physical compute resources of the host processors along with the security, scale, and services of EC2. This session will provide an overview of Bare Metal instances, how VMware used EC2 Bare Metal instances to build VMware Cloud on AWS, and other customer use cases for this new EC2 capability.
Learning Objectives:
- Learn the common use-cases for using Athena, AWS' interactive query service on S3
- Learn best practices for creating tables and partitions and performance optimizations
- Learn how Athena handles security, authorization, and authentication
AWS re:Invent 2016: Workshop: Secure Your Web Application with AWS WAF and Am...Amazon Web Services
In this workshop, we help you understand how you can help protect your web applications from threats cost effectively by using AWS WAF and Amazon CloudFront. As attacks and attempts to exploit vulnerabilities in web applications become more sophisticated and automated, having an effective web request filtering solution becomes key to keeping your users' data safe. We will cover common attack vectors and what you can do to mitigate them. You will learn how to leverage AWS WAF in conjunction with Amazon CloudFront to detect unwanted traffic and block it using simple configurations and automations.
Prerequisites:
Participants should have an AWS account established and available for use during the workshop.
Please bring your own laptop.
2018년 12월 12일에 촬영한 한국어 웨비나입니다. Cloudflare는 적용이 빠르고 DDoS 방어에 효과적이라는 이점이 있어 소위 Under Attack이라고 불리는, DDoS 공격을 실시간으로 받고 있어 빠르게 방어책을 적용해야 하는 고객사를 많이 받는 편입니다. 이 페이지를 통해 많이 sign up 하십니다. 반면에 이미 Cloudflare를 사용하고 있어도, 오리진 서버를 전체공개 하셨다든지 필요한 설정이 정확하게 되어 있지 않으면 공격자에게 취약한 부분을 감지당해 Cloudflare를 적용하고도 공격을 받으시는 경우가 발생하기도 합니다. 이 웨비나는 어떤 Plan이든 Cloudflare를 사용하시는 고객께서 정확한 설정으로 DDoS 방어 효과를 잘 누리셨으면 해서 촬영했습니다.
VMware Cloud on AWS provides a VMware software-defined data center delivered as a service on AWS infrastructure. It allows customers to run applications using VMware technologies like vSphere, vSAN and NSX in AWS without having to manage underlying hardware. Key features include dynamic capacity, software-defined data center capabilities, and integration with AWS services. The document discusses the architecture, account structure, connectivity options, use cases and resources for VMware Cloud on AWS.
The Webinar takes participants through the entire cloud migration life-cycle – from initial analysis to final migration. We evaluate the leading cloud DBMS offerings from Amazon, Microsoft and Oracle. We also compare IaaS and DBaaS to better understand the two architectures and identify the most appropriate use case for each platform.
We finish by providing RDX’s recommended database migration procedures and the vendor utilities you can leverage to ensure trouble-free cloud transitions. Learn from experts who have migrated dozens of on-premises systems to the cloud!
BDA302 Deep Dive on Migrating Big Data Workloads to Amazon EMRAmazon Web Services
Customers are migrating their analytics, data processing (ETL), and data science workloads running on Apache Hadoop, Spark, and data warehouse appliances from on-premise deployments to Amazon EMR in order to save costs, increase availability, and improve performance. Amazon EMR is a managed service that lets you process and analyze extremely large data sets using the latest versions of over 15 open-source frameworks in the Apache Hadoop and Spark ecosystems. This session will focus on identifying the components and workflows in your current environment and providing the best practices to migrate these workloads to Amazon EMR. We will explain how to move from HDFS to Amazon S3 as a durable storage layer, and how to lower costs with Amazon EC2 Spot instances and Auto Scaling. Additionally, we will go over common security recommendations and tuning tips to accelerate the time to production.
In part one you will learn about benefits of moving Oracle Database Workloads to AWS, licensing and key aspects to consider. Part two is about understanding how to execute migrations, key success factors, and demonstration.
Migrate and Modernize Hadoop-Based Security Policies for DatabricksDatabricks
Data teams are faced with a variety of tasks when migrating Hadoop-based platforms to Databricks. A common pitfall happens during the migration step where often overlooked access control policies can block adoption. This session will focus on the best practices to migrate and modernize Hadoop-based policies to govern data access (such as those in Apache Ranger or Apache Sentry). Data architects must consider new, fine-grained access control requirements when migrating from Hadoop architectures to Databricks in order to deliver secure access to as many data sets and data consumers as possible. This session will provide guidance across open source, AWS, Azure and partner tools, such as Immuta, on how to scale existing Hadoop-based policies to dynamically support more classes of users, implement fine-grained access control and leverage automation to protect sensitive data while maximizing utility — without manual effort
글로벌 향 서비스 구축 시, 네이버 클라우드 플랫폼에서 사용할 수 있는 서비스들과 인프라단에서 고려해야 할 사항들에 대해서 자세히 소개해 드립니다 | Let me introduce you in detail the services available on the Naver cloud platform and what the infrastructure needs to consider when building a global service.
AWS Builders - Industry Edition: AWS가 추천하는 'App개발 및 데이터 관리, 분석 소프트웨어 서비스'_Tma...Amazon Web Services Korea
AWS에서 실행되거나 AWS와 통합되는 소프트웨어 솔루션을 제공하는 기업 중 시장의 관심을 많이 받고 있는 IGAWorks, Quintet Systems, TmaxData와 함께 합니다. 어떤 솔루션을 갖고 있으며, 빠르게 변화하고 있는 비즈니스 환경에서 어떻게 고객의 성공을 지원해왔는지 구체적인 사례와 데모 시연을 선보입니다.
Infrastructure as Code: AWS Best Practices (DEV411-R3) - AWS re:Invent 2018Amazon Web Services
When you consider your DevOps practice, infrastructure as code (IaC) is invaluable. IaC provides an automated way to quickly and reliably deploy the resources required by your applications. IaC gives you the ability to version control your infrastructure, and it simplifies the process of manually installing and configuring infrastructure every time your application changes. In this chalk talk, we show you how to use IaC to implement AWS best practices, such as least privilege permissions, monitoring, and automating the CI/CD pipeline. We show you how to define and deploy cloud infrastructure using aws-cdk (currently in developer preview on GitHub), which enables you to use object-oriented concepts to define and deploy AWS infrastructure. Finally, we demonstrate how to refactor, preview, and deploy your infrastructure code to ensure it all works as expected. Come build with us!
AWS 네트워크 보안을 위한 계층별 보안 구성 모범 사례 – 조이정, AWS 솔루션즈 아키텍트:: AWS 온라인 이벤트 – 클라우드 보안 특집Amazon Web Services Korea
* 발표 동영상: https://youtu.be/r84IuPv_4TI
AWS 서비스 환경을 대상으로 하는 각종 보안 위협에 대응하기 위해 인터넷에서 유입되는 트래픽에 대한 안전한 보호와 VPC 내부에서 발생할 수 있는 다양한 네트워크 트래픽을 보다 효율적이고 안전하게 보호할 수 있는 네트워크 보안 구성 방안과 모범 사례에 대해 소개합니다.
Snowball and Snowball Edge devices can be used to transfer large amounts of data into and out of AWS cost effectively. Snowball supports offline data transfers of up to 80TB while Snowball Edge provides up to 100TB of storage along with local compute and storage capabilities. The seminar covered how to set up and use Snowball and Snowball Edge devices including creating jobs, transferring and processing data, and networking options when used with services like S3, EC2, and Lambda.
This document provides an overview and summary of a session on working with Amazon ElastiCache for Redis. The session covers an introduction to Amazon ElastiCache and Redis, best practices and caching strategies when using ElastiCache, and hands-on workshops on performance testing and using ElastiCache for Redis. It also discusses Redis cluster mode, resizing and failure recovery strategies for ElastiCache clusters, and common usage patterns such as caching, processing streaming data, and powering mobile and IoT applications with ElastiCache.
The document describes a presentation on Amazon Athena, a serverless interactive query service that allows users to analyze data directly from Amazon S3 using standard SQL. The presentation will introduce Athena and demonstrate how it can be used to query data in S3 without having to load it into a database first. It will also discuss how Athena uses Presto and the Glue Data Catalog under the hood and show some customer use cases for log analysis, ETL workflows, and analytics reporting using Athena with other AWS services.
AWS Transit Gateway를 통한 Multi-VPC 아키텍처 패턴 - 강동환 솔루션즈 아키텍트, AWS :: AWS Summit ...Amazon Web Services Korea
AWS Transit Gateway를 통한 Multi-VPC 아키텍처 패턴
강동환 솔루션즈 아키텍트, AWS
고객의 조직, 서비스 구조에 따라 함께 늘어나는 VPC를 효과적으로 통합, 관리, 운영하기 위한 서비스와 아키텍처 패턴을 소개합니다. Peering의 한계를 넘어 VPC간 자유로운 연동을 제공하는 Transit Gateway(TGW), 조직내 다양한 Account간의 VPC 공유를 위한 Multi-Account VPC(MAVPC), 그리고 AWS 자원의 안전한 공유를 제공하기 위한 Resource Access Manager(RAM)를 활용하는 다양한 아키텍처 패턴을 살펴봅니다.
1. Organizações que implementam data lakes e capacidades analíticas na nuvem podem obter vantagens competitivas por meio de insights gerados a partir de dados.
2. A AWS oferece uma variedade de serviços para construir data lakes e habilitar análises, incluindo machine learning e analytics em tempo real, armazenados com segurança e governança na nuvem da AWS.
3. O portfólio integrado de serviços da AWS para data lakes permite que as organizações armazenem, processem e analisem dados na escala de exabytes para
O documento discute a construção de data lakes para o governo usando a AWS. Ele descreve como data lakes estendem a abordagem tradicional de arquitetura de dados corporativos para lidar com o crescimento e diversidade de dados. Também apresenta casos de uso de vários serviços da AWS como Amazon S3, Amazon Athena, Amazon QuickSight e Amazon SageMaker para armazenar, explorar, visualizar e analisar dados em data lakes governamentais.
2018년 12월 12일에 촬영한 한국어 웨비나입니다. Cloudflare는 적용이 빠르고 DDoS 방어에 효과적이라는 이점이 있어 소위 Under Attack이라고 불리는, DDoS 공격을 실시간으로 받고 있어 빠르게 방어책을 적용해야 하는 고객사를 많이 받는 편입니다. 이 페이지를 통해 많이 sign up 하십니다. 반면에 이미 Cloudflare를 사용하고 있어도, 오리진 서버를 전체공개 하셨다든지 필요한 설정이 정확하게 되어 있지 않으면 공격자에게 취약한 부분을 감지당해 Cloudflare를 적용하고도 공격을 받으시는 경우가 발생하기도 합니다. 이 웨비나는 어떤 Plan이든 Cloudflare를 사용하시는 고객께서 정확한 설정으로 DDoS 방어 효과를 잘 누리셨으면 해서 촬영했습니다.
VMware Cloud on AWS provides a VMware software-defined data center delivered as a service on AWS infrastructure. It allows customers to run applications using VMware technologies like vSphere, vSAN and NSX in AWS without having to manage underlying hardware. Key features include dynamic capacity, software-defined data center capabilities, and integration with AWS services. The document discusses the architecture, account structure, connectivity options, use cases and resources for VMware Cloud on AWS.
The Webinar takes participants through the entire cloud migration life-cycle – from initial analysis to final migration. We evaluate the leading cloud DBMS offerings from Amazon, Microsoft and Oracle. We also compare IaaS and DBaaS to better understand the two architectures and identify the most appropriate use case for each platform.
We finish by providing RDX’s recommended database migration procedures and the vendor utilities you can leverage to ensure trouble-free cloud transitions. Learn from experts who have migrated dozens of on-premises systems to the cloud!
BDA302 Deep Dive on Migrating Big Data Workloads to Amazon EMRAmazon Web Services
Customers are migrating their analytics, data processing (ETL), and data science workloads running on Apache Hadoop, Spark, and data warehouse appliances from on-premise deployments to Amazon EMR in order to save costs, increase availability, and improve performance. Amazon EMR is a managed service that lets you process and analyze extremely large data sets using the latest versions of over 15 open-source frameworks in the Apache Hadoop and Spark ecosystems. This session will focus on identifying the components and workflows in your current environment and providing the best practices to migrate these workloads to Amazon EMR. We will explain how to move from HDFS to Amazon S3 as a durable storage layer, and how to lower costs with Amazon EC2 Spot instances and Auto Scaling. Additionally, we will go over common security recommendations and tuning tips to accelerate the time to production.
In part one you will learn about benefits of moving Oracle Database Workloads to AWS, licensing and key aspects to consider. Part two is about understanding how to execute migrations, key success factors, and demonstration.
Migrate and Modernize Hadoop-Based Security Policies for DatabricksDatabricks
Data teams are faced with a variety of tasks when migrating Hadoop-based platforms to Databricks. A common pitfall happens during the migration step where often overlooked access control policies can block adoption. This session will focus on the best practices to migrate and modernize Hadoop-based policies to govern data access (such as those in Apache Ranger or Apache Sentry). Data architects must consider new, fine-grained access control requirements when migrating from Hadoop architectures to Databricks in order to deliver secure access to as many data sets and data consumers as possible. This session will provide guidance across open source, AWS, Azure and partner tools, such as Immuta, on how to scale existing Hadoop-based policies to dynamically support more classes of users, implement fine-grained access control and leverage automation to protect sensitive data while maximizing utility — without manual effort
글로벌 향 서비스 구축 시, 네이버 클라우드 플랫폼에서 사용할 수 있는 서비스들과 인프라단에서 고려해야 할 사항들에 대해서 자세히 소개해 드립니다 | Let me introduce you in detail the services available on the Naver cloud platform and what the infrastructure needs to consider when building a global service.
AWS Builders - Industry Edition: AWS가 추천하는 'App개발 및 데이터 관리, 분석 소프트웨어 서비스'_Tma...Amazon Web Services Korea
AWS에서 실행되거나 AWS와 통합되는 소프트웨어 솔루션을 제공하는 기업 중 시장의 관심을 많이 받고 있는 IGAWorks, Quintet Systems, TmaxData와 함께 합니다. 어떤 솔루션을 갖고 있으며, 빠르게 변화하고 있는 비즈니스 환경에서 어떻게 고객의 성공을 지원해왔는지 구체적인 사례와 데모 시연을 선보입니다.
Infrastructure as Code: AWS Best Practices (DEV411-R3) - AWS re:Invent 2018Amazon Web Services
When you consider your DevOps practice, infrastructure as code (IaC) is invaluable. IaC provides an automated way to quickly and reliably deploy the resources required by your applications. IaC gives you the ability to version control your infrastructure, and it simplifies the process of manually installing and configuring infrastructure every time your application changes. In this chalk talk, we show you how to use IaC to implement AWS best practices, such as least privilege permissions, monitoring, and automating the CI/CD pipeline. We show you how to define and deploy cloud infrastructure using aws-cdk (currently in developer preview on GitHub), which enables you to use object-oriented concepts to define and deploy AWS infrastructure. Finally, we demonstrate how to refactor, preview, and deploy your infrastructure code to ensure it all works as expected. Come build with us!
AWS 네트워크 보안을 위한 계층별 보안 구성 모범 사례 – 조이정, AWS 솔루션즈 아키텍트:: AWS 온라인 이벤트 – 클라우드 보안 특집Amazon Web Services Korea
* 발표 동영상: https://youtu.be/r84IuPv_4TI
AWS 서비스 환경을 대상으로 하는 각종 보안 위협에 대응하기 위해 인터넷에서 유입되는 트래픽에 대한 안전한 보호와 VPC 내부에서 발생할 수 있는 다양한 네트워크 트래픽을 보다 효율적이고 안전하게 보호할 수 있는 네트워크 보안 구성 방안과 모범 사례에 대해 소개합니다.
Snowball and Snowball Edge devices can be used to transfer large amounts of data into and out of AWS cost effectively. Snowball supports offline data transfers of up to 80TB while Snowball Edge provides up to 100TB of storage along with local compute and storage capabilities. The seminar covered how to set up and use Snowball and Snowball Edge devices including creating jobs, transferring and processing data, and networking options when used with services like S3, EC2, and Lambda.
This document provides an overview and summary of a session on working with Amazon ElastiCache for Redis. The session covers an introduction to Amazon ElastiCache and Redis, best practices and caching strategies when using ElastiCache, and hands-on workshops on performance testing and using ElastiCache for Redis. It also discusses Redis cluster mode, resizing and failure recovery strategies for ElastiCache clusters, and common usage patterns such as caching, processing streaming data, and powering mobile and IoT applications with ElastiCache.
The document describes a presentation on Amazon Athena, a serverless interactive query service that allows users to analyze data directly from Amazon S3 using standard SQL. The presentation will introduce Athena and demonstrate how it can be used to query data in S3 without having to load it into a database first. It will also discuss how Athena uses Presto and the Glue Data Catalog under the hood and show some customer use cases for log analysis, ETL workflows, and analytics reporting using Athena with other AWS services.
AWS Transit Gateway를 통한 Multi-VPC 아키텍처 패턴 - 강동환 솔루션즈 아키텍트, AWS :: AWS Summit ...Amazon Web Services Korea
AWS Transit Gateway를 통한 Multi-VPC 아키텍처 패턴
강동환 솔루션즈 아키텍트, AWS
고객의 조직, 서비스 구조에 따라 함께 늘어나는 VPC를 효과적으로 통합, 관리, 운영하기 위한 서비스와 아키텍처 패턴을 소개합니다. Peering의 한계를 넘어 VPC간 자유로운 연동을 제공하는 Transit Gateway(TGW), 조직내 다양한 Account간의 VPC 공유를 위한 Multi-Account VPC(MAVPC), 그리고 AWS 자원의 안전한 공유를 제공하기 위한 Resource Access Manager(RAM)를 활용하는 다양한 아키텍처 패턴을 살펴봅니다.
1. Organizações que implementam data lakes e capacidades analíticas na nuvem podem obter vantagens competitivas por meio de insights gerados a partir de dados.
2. A AWS oferece uma variedade de serviços para construir data lakes e habilitar análises, incluindo machine learning e analytics em tempo real, armazenados com segurança e governança na nuvem da AWS.
3. O portfólio integrado de serviços da AWS para data lakes permite que as organizações armazenem, processem e analisem dados na escala de exabytes para
O documento discute a construção de data lakes para o governo usando a AWS. Ele descreve como data lakes estendem a abordagem tradicional de arquitetura de dados corporativos para lidar com o crescimento e diversidade de dados. Também apresenta casos de uso de vários serviços da AWS como Amazon S3, Amazon Athena, Amazon QuickSight e Amazon SageMaker para armazenar, explorar, visualizar e analisar dados em data lakes governamentais.
O documento apresenta o AWS Lake Formation como uma solução gerenciada para construir data lakes limpos e seguros na nuvem AWS de forma rápida. O Lake Formation permite registrar dados existentes no Amazon S3, importar dados de fontes variadas usando crawlers e blueprints, e fornece ferramentas de governança e segurança para controlar o acesso aos dados.
AWS Data Immersion Webinar Week - Planeje e entenda como criar um repositório...Amazon Web Services LATAM
O documento discute a construção de data lakes de maneira segura seguindo boas práticas. Ele explica o que é um data lake e como a AWS Lake Formation facilita a criação, ingestão de dados, governança e segurança em data lakes na nuvem da AWS de maneira gerenciada. O documento também aborda desafios comuns na construção de data lakes e como a solução da AWS ajuda a superá-los de forma escalonável.
Construindo Data Lakes e Analytics na AWS - BDA301 - Sao Paulo SummitAmazon Web Services
Mais de 90% dos dados de hoje foram gerados nos últimos dois anos e a taxa de crescimento dos dados não dá sinais de desaquecimento. Nesta sessão, abordaremos os desafios e melhores práticas para capturar todos os dados que estão gerados, entender quais dados você possue, inspirar insights e prever o futuro usando os serviços da AWS. Criamos a sessão e as demonstrações com base em armadilhas comuns na construção de data lakes e abordamos como direcionar analytics e insights úteis a partir dos dados. Discutiremos também os padrões de arquitetura, combinando os principais serviços da AWS em vez de aprofundar em um único serviço. Mostraremos como serviços como Amazon S3, AWS Glue, Amazon Redshift, Amazon Athena, Amazon EMR, Amazon Kinesis e Amazon Machine Learning podem ser combinados para criar um data lake bem sucedido para diversas funções, incluindo cientistas de dados e usuários de negócios.
O documento discute como empresas podem usar data lakes na AWS para gerar valor dos dados. Ele descreve como a AWS oferece armazenamento escalável e analíticas para capturar e analisar vários tipos de dados. Além disso, discute como a AWS fornece recursos de segurança, governança e compliance para proteger dados em data lakes.
O documento descreve como criar um data lake na AWS para armazenar e analisar dados de forma flexível e de baixo custo. Os principais componentes discutidos incluem armazenamento em larga escala na AWS S3, processamento de dados em streaming com Kinesis, catálogo e busca de metadados com DynamoDB e Lambda, e sistema de permissões com IAM."
Escalabilidade para sua solução na Nuvem da AWS de um para centenas de milhõe...Amazon Web Services LATAM
O documento discute estratégias para escalabilidade na nuvem AWS, começando com uma única instância EC2 e evoluindo para arquiteturas capazes de suportar milhões de usuários. É recomendado usar redundância, balanceamento de carga, auto-escalonamento, arquitetura orientada a serviços e serviços gerenciados como S3, DynamoDB e ElastiCache. Ferramentas de automação e monitoramento também são importantes para gerenciar a infraestrutura em larga escala.
O documento discute a construção de um data warehouse moderno com o Amazon Redshift. Apresenta a evolução dos modelos de data warehouse tradicionais para os modernos, como funciona o Amazon Redshift e casos de clientes como a Amazon.com.
O documento fornece uma visão geral dos recursos de treinamento e certificação da AWS. Ele descreve vários cursos presenciais de 1 a 3 dias que cobrem tópicos como arquitetura na AWS, desenvolvimento na AWS, operações de sistemas na AWS e segurança na AWS. O documento também discute as certificações da AWS, como AWS Certified Solutions Architect - Associate, e fornece orientações sobre como se preparar para as certificações.
Secure your data lake- A Financial industry perspective - SVC203 - São Paulo ...Amazon Web Services
For anyone wanting to build a secure data lake on AWS, we cover the best practices, services, and details of implementation for doing so in this session. Additionally, during this session, we discuss the use of available AWS services to address data access and control.
Já pensou em ter um aplicativo Mobile, e usar a infraestrutura para isso como um serviço? Sem necessidade de provisionar, configurar e administrar servidores? Venha ver como isto é possível com a AWS.
A visualização de dados é um desafio que muitas organizações enfrentam hoje. Criar dashboards, alertas, fazer previsões e agir rapidamente de acordo com os insights dos dados é uma necessidade de todas as empresas. Junte-se aos nossos arquitetos para aprender como o Amazon QuickSight o ajudará a adicionar BI aos seus aplicativos. O Amazon Quicksight é um serviço de BI escalável e serverless criado para a nuvem. Com ele, você pode explorar seus dados para obter insights e tomar decisões embasadas em seus negócios, sem se preocupar em gerenciar e dimensionar servidores e manter a disponibilidade de sua infraestrutura.
O documento discute estratégias para migração de dados para a AWS, incluindo serviços como AWS Transfer Family para transferência de arquivos, AWS DataSync para mover dados entre ambientes on-premises e AWS, e AWS Snow Family para transferência offline de grandes quantidades de dados.
Liberte-se dos bancos de dados comerciais para economizar, crescer e inovarAmazon Web Services LATAM
Frustradas com o alto custo, baixa escalabilidade e outros problemas de desempenho, as empresas estão buscando migrar para bancos de dados em nuvem totalmente gerenciados ou se libertar da natureza restritiva dos bancos de dados legados para economizar, crescer e inovar.
Este documento discute as vantagens de usar a Amazon Web Services (AWS) como plataforma de nuvem. A AWS oferece escala global, preços baixos, ferramentas para inovação e agilidade corporativa, além de segurança e confiabilidade. A AWS investe continuamente em novas funcionalidades e reduções de preços para ajudar os clientes a economizar.
O documento resume um evento sobre nuvem computacional e análise de big data. Ele inclui a agenda do evento com palestras sobre benefícios da AWS, casos de uso e arquiteturas de software para o século 21. Também discute conceitos como big data, análise de dados na nuvem e o ecossistema relacionado à big data.
1) O documento discute como construir um Data Lake na AWS utilizando várias tecnologias da AWS.
2) É apresentada uma agenda com conceitos de Data Lake, simplificando o Data Lake e quais tecnologias utilizar.
3) Uma arquitetura de referência e design patterns são discutidos.
Nesta sessão, nos concentraremos na arquitetura de dados de uma aplicação, o que permite que diferentes pessoas com distintas funções em uma organização acesses pontos de dados relevantes e produzam insights valiosos. Explicaremos os conceitos chave e os componentes de uma arquitetura de data lake, assim como de que forma devemos construir fluxos de processamento de dados de camadas de velocidade e de lote.
Um provedor de nuvem é uma empresa que oferece serviços de computação em nuvem, como infraestrutura, plataforma e software como serviço. Os principais provedores de nuvem discutidos são Amazon Web Services, Microsoft Azure, Google Cloud Platform, IBM Cloud e Oracle Cloud. Cada um oferece diferentes serviços de nuvem, como computação, armazenamento, bancos de dados e ferramentas para desenvolvedores, em várias regiões ao redor do mundo.
Semelhante a Visualizando dados de Big Data com Amazon QuickSight (20)
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento discute opções para Disaster Recovery na nuvem AWS, incluindo Backup e Restore, Pilot Light, Warm Standby e Multi-Site. A AWS oferece várias soluções para atender a diferentes requisitos de RTO e RPO a um custo variável. A nuvem permite testes fáceis e dimensionamento flexível dos recursos de recuperação de desastres.
O documento descreve várias soluções de segurança da nuvem da AWS, incluindo ferramentas para gestão de acessos e identidade, detecção, segurança de infraestrutura, resposta a incidentes e proteção de dados. A AWS oferece 203 certificações de segurança e mais de 2.600 controles auditados anualmente para ajudar clientes a manterem a conformidade e segurança na nuvem.
En este webinar, aprenderá cómo las empresas pueden aprovechar la nube de AWS para automatizar los pipelines de desarrollo de software. Este enfoque permite que su equipo sea más ágil, mejorando su capacidad para entregar aplicaciones y servicios rápidamente.
Neste webinar, você aprenderá como as empresas podem se valer da nuvem da AWS para automatizar os pipelines de desenvolvimento de software. Essa abordagem permite que sua equipe seja mais ágil, melhorando sua capacidade para entregar aplicações e serviços mais rapidamente.
Las tecnologías como los contenedores y kubernetes pueden hacer que sus procesos de entrega de software sean más fáciles y más rápidos. En este webinar, hablaremos sobre cómo usar el Amazon Kubernetes Service (EKS) para construir aplicaciones modernas con grupos Kubernetes totalmente administrados.
Tecnologias como containers e Kubernetes podem tornar seus processos de entrega de software mais fáceis e rápidos. Neste webinar, falaremos sobre como usar o Amazon Elastic Kubernetes Service (EKS) para criar aplicativos modernos com clusters de Kubernetes totalmente gerenciados.
Ransomware é uma das ameaças de crescimento mais rápido para qualquer organização. Nenhuma empresa, grande ou pequena, está imune a ataques de cibercriminosos. Nesta sessão, mostramos como você pode aproveitar os serviços e recursos da nuvem AWS para proteger seus dados mais valiosos de ataques cibernéticos e acelerar a restauração de operações.
El ransomware es una de las amenazas de más rápido crecimiento para cualquier organización. Ninguna empresa, grande o pequeña, es inmune a los ataques de los ciberdelincuentes. En esta sesión, mostramos cómo puede aprovechar los servicios y las capacidades de la nube AWS para proteger sus datos más valiosos de los ataques cibernéticos y acelerar la restauración de las operaciones.
Ransomware é uma prática maliciosa que tem se popularizado nos últimos anos. Nessa sessão, mostraremos como através da Amazon Web Services nossos clientes podem desenvolver uma estratégia pró-ativa de mitigação a ataques de ransomware, tanto em cenários on-premises como operando na nuvem.
El ransomware es una práctica maliciosa que se ha popularizado en los últimos años. En esta sesión les mostraremos cómo desde Amazon Web Services nuestros clientes pueden desarrollar una estrategia proactiva de mitigación frente a ataques de ransomware, tanto en escenarios on-premises, como operando en la nube.
Al mover datos a la nube, los clientes deben comprender los métodos óptimos para los diferentes casos de uso, los tipos de datos que están moviendo y los recursos disponibles en la red, entre otros. Las soluciones de migración y transferencia de AWS contemplan desde la migración de datos con conectividad limitada, almacenamiento en la nube híbrida, transferencias frecuentes de archivos B2B, hasta transferencias de datos en línea y sin conexión. En esta sesión, le mostramos cómo puede acelerar la migración y transferencia de datos de manera simplificada desde y hacia la nube de AWS.
El almacenamiento de archivos tiene diversos casos de uso; como directorios de usuarios, datos de aplicaciones, archivos multimedia y almacenamiento compartido para cargas de trabajo de alto rendimiento. La administración del almacenamiento de archivos en instalaciones propias suele ser un trabajo pesado, indiferenciado, con altos costos de adquisición, carga operativa para configurar y administra, lo que conlleva a desafíos de escalabilidad. En esta sesión, le mostramos cómo puede aprovechar las soluciones de archivos totalmente administradas de AWS para dejar de preocuparse por la sobrecarga administrativa de configurar, proteger, mantener y realizar copias de seguridad de su infraestructura de archivos.
La visualización de datos analíticos es un reto al que se enfrentan muchas organizaciones, el poder crear tableros, alertas, agregar predicciones a sus datos y actuar de acuerdo a estas de manera rápida es una necesidad de todos los negocios actuales. Únase a nuestros arquitectos para aprender como Amazon QuickSight le permite agregar inteligencia de negocios a sus aplicaciones y crear predicciones a futuro de sus datos. Amazon QuickSight es un servicio de inteligencia de negocios escalable y serverless creado para la nube, a través del cual podrá explotar sus datos de negocio para convertirlos en insights para hacer decisiones informadas sobre su negocio sin preocuparse de la gestión, escalamiento y la disponibilidad de la infraestructura de cómputo.
1) O documento discute os benefícios de migrar workloads de Big Data para a AWS, incluindo tornar mais fácil construir data lakes e analytics, oferecer maior abrangência de serviços e fornecer infraestrutura mais segura e escalável.
2) É apresentada a plataforma Amazon EMR para executar aplicativos de Big Data de forma gerenciada na AWS, proporcionando melhor desempenho a menor custo em comparação a clusters on-premises.
3) A separação de computação e armazenamento no Amazon EMR permite
Ejecutar proyectos de Big Data nunca ha sido más sencillo. Con AWS, puede ejecutar Hadoop, Spark, Hive, Flink y marcos similares de forma más rápida y rentable. En este seminario web, aprenderá cómo mejorar el rendimiento del procesamiento de datos y reducir los costos, especialmente en comparación con un entorno local.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
2. Agenda
O portfólio em Dados e Analytics da AWS
Amazon QuickSight e os Serviços de Dados da AWS
Amazon QuickSight
Administração e Gerenciamento
Precificação
Demonstração
3. O portfólio em Dados e Analytics da AWS
Amazon Kinesis
Firehose
AWS Direct
Connect
Amazon
Snowball
Amazon Kinesis
Streams
Amazon S3 Amazon Glacier
Amazon
CloudSearch
Amazon RDS,
Amazon Aurora
Amazon
Dynamo DB
Amazon
Elasticsearch
Amazon EMR
Amazon EC2Amazon
Redshift
AWS Data PipelineAWS Database Migration Service AWS Glue
Amazon
Athena
Amazon Kinesis
Analytics
Coleta Armazenamento Processamento/Análise
4. Business Inteligence na Nuvem
Amazon S3
Amazon Redshift
AWS Glue
Amazon Kinesis
Firehose
Amazon RDS,
Amazon Aurora
Aplicações
Operational Data Sources
(ODS)
Coleta Armazenamento Processamento/Análise
5. AWS Data PipelineAWS Database Migration Service AWS Glue
Amazon Kinesis
Firehose
AWS Direct
Connect
Amazon
Snowball
Amazon Kinesis
Streams
Amazon S3 Amazon Glacier
Amazon
CloudSearch
Amazon RDS,
Amazon Aurora
Amazon
Dynamo DB
Amazon
Elasticsearch
Amazon EMR
Amazon EC2Amazon
Redshift
Amazon
Athena
Amazon Kinesis
Analytics
Coleta Armazenamento Processamento/Análise Visualização e Análise
?
O portfólio em Dados e Analytics da AWS
6. Amazon QuickSight é um serviço de Business Analytics fácil de usar que
permite a você visualizar, explorar e compartilhar insights sobre seus dados.
7. ✓ Nativo em nuvem, totalmente gerenciado
✓ Super rápido e fácil de usar
✓ Escalabilidade tanto para dados quanto
para usuários
✓ Baixo custo
Por que a AWS criou o
QuickSight?
8. QuickSight é desenhado para
permitir que usuários em sua
organização consumam dados e
realizem análises ad-hoc de
maneira fácil e com custo efetivo.
Para quem o QuickSight é
indicado?
Profissionais de Negócio
Consumidores de
Dados
Profissionais
de dados
9. QuickSight é amplamente
integrado com fontes de dados da
AWS como Redshift, RDS, S3,
Athena entre outros.
Mas também com fontes de
terceiros como Excel, Salesforce e
mais.
Grande integração com
Fontes de dados da AWS
Amazon RDS,
Aurora
Amazon
Redshift
Amazon
Athena
Amazon S3
Flat Files
10. O QuickSight é otimizado pelo SPICE,
um motor de cálculo super rápido que
entrega alta performance e escala,
provendo insights na velocidade do
pensamento.
Performance Super rápida
com SPICE
SPICE
16. O QuickSight possui perfis para
administrador e usuário para
viabilizar o controle que você
precisa em sua conta.
O QuickSight Enterprise Edition
permite conexão com Active
Directories tanto em seu Data
Center quanto na nuvem via AWS
Directory Services.
Gerenciamento de usuários
e integração com AD
Microsoft
Active Directory
17. Compartilhamento seguro
Conteúdo criado no QuickSight
compartilhado através de links seguros
prevenindo vazamento de arquivos e
também a circulação de relatórios e
dashboards desatualizados.
18. Flexibilidade para usuário final
com controle centralizado
QuickSight permite que usuários finais facilmente
realizem de maneira autônoma a descoberta dos
dados com o controle centralizado que as empresas
precisam para garantir a integridade da ”fonte única
da verdade”.
• Crie e distribua Data Sets gerenciados.
• Atribua e revogue acesso aos Data Sets.
• Governança das fontes de dados (em breve).
20. Conceitos Básicos
DATA SETS
Fontes
DATA SOURCES Análises
DASHBOARDS
& Histórias
Dados de Vendas
Dados de Operações
Dados de Marketing
Bases relacionais Arquivos
Mais fontes em
breve!
22. Individual Standard Edition
(60 dias de uso gratuito)
Enterprise Edition
(60 dias de uso gratuito)
Preço por usuário por mês Gratuito $9
(Anual)
$12
(Mês a mês)
$18
(Anual)
$24
(mês a mês)
Número de Usuários 1 2+ 2+ 2+ 2+
Capacidade de SPICE (GB)* 1 10 10 10 10
Capacidade adicional de
SPICE - GB-mês
$0.25 $0.25 $0.38
Como um serviço da AWS, o QuickSight é uma solução com
custo efetivo tanto para 10 users quanto para 10,000
usuários.
23. Como um serviço de nuvem nativo, o QuickSight combina a velocidade, a escalabilidade, e a segurança
que nossos clientes precisam com o custo efetivo que você espera da AWS.
Serviço nativo da AWS
Escalável, Rápido, Fácil
Sem esforço de instalação
Sem licenciamento ou custo de manutenção
Pague conforme seu uso
Teste gratuitamente @
Quicksight.AWS
The main goal of this slide is to show platform completeness
Key talking points:
1/ Any big data application has a data acquisition phase, a storage need, and an analytics need
2/ Quick Service overviews. Go fast; especially on ones we talk about later.
Collect
Direct Connect – private, low latency connections between your data centers and ours. Most customers use a pair for redundancy and availability
Import/Export – for moving large volumes of data, fedex is your highest bandwidth option. With Snowball, we’ll ship you a ruggedized case, load it up, send it back
Kinesis – real time streaming data; has streams for custom apps, firehose for easy Redshift/s3 integration,
AWS IoT platform – complete suite for IoT devices to make it easy to manage them and get telemetry data into AWS
Store
S3 is the foundation of any big data app on AWS. Scalable, low cost, default landing zone for data ($0.023/GB-Mo and drops from there with scale. That’s $23/TB for a month, less than $300 for a year)
Glacier is the sister service for cold storage like data you need for compliance. Age data into it using lifecycle. $0.004/GB-Mo, or $48 per TB per year!
DynamoDB – NoSQL store; zero admin; JSON + Key Value with single digit millisecond latency. Great for high concurrency reads and writes
Elasticsearch – managed elasticsearch clusters for operational intelligence and search
Analyze
EMR for fully managed dynamic clusters for running Hadoop/Spark/Presto/HBase
Athena for interactive queries on S3 Data using Standard SQL with no infrastructure to manage
Redshift – fully managed, petabyte scale DW for $1,000/TB/year
ML – fully managed machine learning
EC2 – run anything you want that runs on Linux or windows
QuickSight for fast, cost-effective BI
Lambda – serverless compute for event driven computing
Kinesis Analytics for real time SQL
And rounding all this out, we have DMS for migrating databases and replicating OLTP to Redshift and Data Pipeline for scheduling and orchestration
The main goal of this slide is to show platform completeness
Key talking points:
1/ Any big data application has a data acquisition phase, a storage need, and an analytics need
2/ Quick Service overviews. Go fast; especially on ones we talk about later.
Collect
Direct Connect – private, low latency connections between your data centers and ours. Most customers use a pair for redundancy and availability
Import/Export – for moving large volumes of data, fedex is your highest bandwidth option. With Snowball, we’ll ship you a ruggedized case, load it up, send it back
Kinesis – real time streaming data; has streams for custom apps, firehose for easy Redshift/s3 integration,
AWS IoT platform – complete suite for IoT devices to make it easy to manage them and get telemetry data into AWS
Store
S3 is the foundation of any big data app on AWS. Scalable, low cost, default landing zone for data ($0.023/GB-Mo and drops from there with scale. That’s $23/TB for a month, less than $300 for a year)
Glacier is the sister service for cold storage like data you need for compliance. Age data into it using lifecycle. $0.004/GB-Mo, or $48 per TB per year!
DynamoDB – NoSQL store; zero admin; JSON + Key Value with single digit millisecond latency. Great for high concurrency reads and writes
Elasticsearch – managed elasticsearch clusters for operational intelligence and search
Analyze
EMR for fully managed dynamic clusters for running Hadoop/Spark/Presto/HBase
Athena for interactive queries on S3 Data using Standard SQL with no infrastructure to manage
Redshift – fully managed, petabyte scale DW for $1,000/TB/year
ML – fully managed machine learning
EC2 – run anything you want that runs on Linux or windows
QuickSight for fast, cost-effective BI
Lambda – serverless compute for event driven computing
Kinesis Analytics for real time SQL
And rounding all this out, we have DMS for migrating databases and replicating OLTP to Redshift and Data Pipeline for scheduling and orchestration
The main goal of this slide is to show platform completeness
Key talking points:
1/ Any big data application has a data acquisition phase, a storage need, and an analytics need
2/ Quick Service overviews. Go fast; especially on ones we talk about later.
Collect
Direct Connect – private, low latency connections between your data centers and ours. Most customers use a pair for redundancy and availability
Import/Export – for moving large volumes of data, fedex is your highest bandwidth option. With Snowball, we’ll ship you a ruggedized case, load it up, send it back
Kinesis – real time streaming data; has streams for custom apps, firehose for easy Redshift/s3 integration,
AWS IoT platform – complete suite for IoT devices to make it easy to manage them and get telemetry data into AWS
Store
S3 is the foundation of any big data app on AWS. Scalable, low cost, default landing zone for data ($0.023/GB-Mo and drops from there with scale. That’s $23/TB for a month, less than $300 for a year)
Glacier is the sister service for cold storage like data you need for compliance. Age data into it using lifecycle. $0.004/GB-Mo, or $48 per TB per year!
DynamoDB – NoSQL store; zero admin; JSON + Key Value with single digit millisecond latency. Great for high concurrency reads and writes
Elasticsearch – managed elasticsearch clusters for operational intelligence and search
Analyze
EMR for fully managed dynamic clusters for running Hadoop/Spark/Presto/HBase
Athena for interactive queries on S3 Data using Standard SQL with no infrastructure to manage
Redshift – fully managed, petabyte scale DW for $1,000/TB/year
ML – fully managed machine learning
EC2 – run anything you want that runs on Linux or windows
QuickSight for fast, cost-effective BI
Lambda – serverless compute for event driven computing
Kinesis Analytics for real time SQL
And rounding all this out, we have DMS for migrating databases and replicating OLTP to Redshift and Data Pipeline for scheduling and orchestration
QuickSight was built from the ground up as a cloud-native application. It’s delivered in SaaS model so it’s very easy to deploy. You no longer have to worry about patching or upgrading the SW, maintaining and scaling infrastructure or architecting for high availability and backup. We take care of all this non-differentiated heavy lifting for you. On the user side, QuickSight doesn’t require a client or configuration of drivers. Simply fire off a browser or our mobile app and login and immediately have access to powerful insights. QuickSight delivers a simple and intuitive user experience that let’s you build visualizations in minutes and then easily and securely share them with your team.
Once you created the data sets, you can easily and securely share them with other users who can then create analyses from them. As you’ll see in the demo, they don’t need to install or configure any software, simply login, and start selecting fields and our Autograph feature will select the most suitable chart for them. They can also open this on the go with any IOS device and soon on Android as well through the native applications
QuickSight is currently focused on business users rather than the data professional. It’s optimized for business professionals who want to easily and quickly do ad-hoc data exploration without relying on IT and data consumers who need access to reports and dashboards. As we iterate and add additional functionality, we’ll be able to cater to the requirements of data scientist and sophisticated analysts.
QuickSight is deeply integrated with AWS data sources. You’ll see that it auto-detects Amazon Relational DB service instances and Redshift clusters within the same AWS account. That makes it really easy for an admin or power user to find them and quickly login and create a QS data sources out of them. So with RDS we currently support… including Aurora and hoping to add Oracle soon. We support Amazon S3 allowing you to visualize files directly from object storage. We recently added Athena our clusterless query service so you can visualize SQL queries on semi-structured data. We also have our first web application connector with Salesforce, enabling you to directly pull and visualize data from sales cloud without having to export it into a DB or S3. We plan to support several more popular web applications over the coming months so make sure you look for our updates.
We also support all the 3rd party DBs I listed under RDS, running on EC2 or in your own DCs – these currently include MySQL, PostgreSQL and MS SQL server. Here again we expect to add additional popular DB engines over the next few months. Finally, many customers told us that due to the cost and complexity of BI tools, most of their users are leveraging spreadsheets for business analytics but that QuickSight’s compelling price model and ease of use can finally help them deploy a sophisticated BI tool broadly, so we added MS Excel support to let you easily import existing spreadsheets into the user interface.
As the name implies QuickSight is quick. What makes it quick is SPICE. SPICE stands for superfast in-memory calculation engine. It’s an in-memory columnar data store that optimized for analytical queries and can perform calculations or aggregations on the fly. It sits between the user and the data source and both relieves pressure from the data sources and speeds up performance for demanding and impatient business users. It was built specifically for QuickSight and like the rest of the service it’s fully managed so you don’t need to worry about scalability or high availability.
When you’re done with an analysis… sharing is caring so you have 3 ways of doing that.
Before Luis walks you through everything I just discussed in a live demo, let me talk about how we integrate with some key AWS data services
Redshift is amazon’s fast fully managed, PB-scale data warehouse service. QuickSight auto-detects RS clusters in the same AWS account and once you login and set them up as a data source, you can decide for each data set whether you want to directly query the cluster or leverage SPICE. If you use SPICE, queries into that data set will not hit Redshift but instead will be served directly from memory. SPICE can sync with Redshift on a schedule to make sure it has an updated view of your business.
Redshift is amazon’s fast fully managed, PB-scale data warehouse service. QuickSight auto-detects RS clusters in the same AWS account and once you login and set them up as a data source, you can decide for each data set whether you want to directly query the cluster or leverage SPICE. If you use SPICE, queries into that data set will not hit Redshift but instead will be served directly from memory. SPICE can sync with Redshift on a schedule to make sure it has an updated view of your business.
So now Luis will show us how all of this looks
QuickSight allows you to either leverage a built-in user directory we deploy into your AWS account and invite users to join via email or invite existing IAM users. Another option is with our Enterprise Edition you can connect to your active directory servers and manage QuickSight access to existing users and groups, this can simplify user management and provide stronger security.
Something important to keep in mind as you’re planning user access is that QuickSight is currently independently managed in each AWS account.