Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
Oracle Cloud Infrastructure (OCI) is a secure, scalable, and highly available cloud computing service provided by Oracle. It offers infrastructure services like compute, storage, and networking, and features built-in security, high performance, and hybrid integration capabilities. Customers can use OCI to run enterprise workloads, develop applications, process big data, and more, with flexible pricing and 24/7 technical support.
Building a Feature Store around Dataframes and Apache SparkDatabricks
A Feature Store enables machine learning (ML) features to be registered, discovered, and used as part of ML pipelines, thus making it easier to transform and validate the training data that is fed into machine learning systems. Feature stores can also enable consistent engineering of features between training and inference, but to do so, they need a common data processing platform.
Idera live 2021: Keynote Presentation The Future of Data is The Data Cloud b...IDERA Software
Join us for an introduction from Idera's CEO Randy Jacops followed by our Keynote Presentation: “The Future of Data is The Data Cloud”; presented by Kent Graziano (AKA The Data Warrior), Chief Technical Evangelist for Snowflake.
Lots has happened at Snowflake in the last few years (including a HUGE IPO!). In this session Kent will give an update on Snowflake’s vision of a world with unlimited access to governed data, enabling every organization to tackle the challenges and opportunities of today and be prepared for the possibilities of tomorrow.
Every company in the world still struggles with how to take all their siloed data and turn it into insight, quickly. The Snowflake Data Cloud enables organizations, in every industry, to democratize their data and become data-driven. This talk will introduce you to The Data Cloud, how it works, and the problems it solves for real companies across the globe and across industries. Kent will also update you on recent governance innovations such as dynamic data masking, tagging, and row access policies that will help you build a robust and secure analytics platform.
About our Keynote Speaker
= = = = = = = = = = = = = = =
Kent Graziano, is the Chief Technical Evangelist for Snowflake and an award-winning author, speaker, and thought leader. He is an Oracle ACE Director (Alumni), Knight of the OakTable Network, a certified Data Vault Master and Data Vault 2.0 Practitioner (CDVP2), and expert solution architect with over 35 years of experience, including more than 25 years of designing advanced data and analytics architectures (in multiple industries). He is an internationally recognized expert in cloud and agile data design. Mr. Graziano has developed and led many successful software and data analytics implementation teams, including multiple agile DW/BI teams. He has written numerous articles, authored 3 Kindle books, co-authored 4 other books (including the 1st Edition of The Data Model Resource Book), and has given hundreds of presentations around the world.
This document provides an overview of performance monitoring capabilities in Oracle Database 12c and Enterprise Manager 13c. It discusses the Automatic Workload Repository (AWR) and Active Session History (ASH), which capture database performance statistics. The document outlines changes and enhancements to AWR and ASH in areas like in-memory, manageability reporting, and usability. It also discusses related features like the AWR warehouse and SQL Monitor.
This document provides an overview of Amazon Aurora including:
- Aurora is a database service that provides the performance and availability of high-end commercial databases at a lower cost.
- It uses a distributed, fault-tolerant storage system across 3 Availability Zones for data durability.
- Aurora provides up to 5x better performance than MySQL and 3x better than PostgreSQL through optimized storage, caching, processing and parallelism.
- It offers high availability with zero downtime and the ability to survive the loss of up to 2 Availability Zones through 6 way data replication.
AWS 클라우드는 IT의 새로운 기준을 정립하며 클라우드 컴퓨팅 산업을 혁신하고 있습니다. 본 온라인 세미나에서는 클라우드 컴퓨팅의 개념과 AWS가 제공하는 서비스 소개 및 주요 활용 사례에 대해 소개합니다. 특히 국내에 설립된 서울 리전(Region, 데이터센터 클러스터)에 대한 소개와 더불어 다양한 IT 업무를 위한 AWS 대표 서비스들을 중점적으로 다룰 예정입니다.
Presented by Martijn van Groningen, SearchWorkings - See conference video - http://www.lucidimagination.com/devzone/events/conferences/lucene-revolution-2012
In the real world data isn’t flat. Data is often modelled into complex models. Lucene is document oriented and doesn’t support relations natively. The only way you could index this data is by de-normalizing the relations in a document with many fields and execute subsequent queries. Subsequent queries can be expensive and data gets duplicated. This isn’t always ideal. Recently Solr and Lucene provide features that allow you to join and group. You can join and group on fields across documents and still have the power of Lucene’s awesome free text search. In this presentation, we’ll look at these new alternatives, the advantages and disadvantages and how these features can be utilized. how these new capabilities impact the design of Solr-based search applications primarily from infrastructure and operational perspectives.
Oracle Cloud Infrastructure (OCI) is a secure, scalable, and highly available cloud computing service provided by Oracle. It offers infrastructure services like compute, storage, and networking, and features built-in security, high performance, and hybrid integration capabilities. Customers can use OCI to run enterprise workloads, develop applications, process big data, and more, with flexible pricing and 24/7 technical support.
Building a Feature Store around Dataframes and Apache SparkDatabricks
A Feature Store enables machine learning (ML) features to be registered, discovered, and used as part of ML pipelines, thus making it easier to transform and validate the training data that is fed into machine learning systems. Feature stores can also enable consistent engineering of features between training and inference, but to do so, they need a common data processing platform.
Idera live 2021: Keynote Presentation The Future of Data is The Data Cloud b...IDERA Software
Join us for an introduction from Idera's CEO Randy Jacops followed by our Keynote Presentation: “The Future of Data is The Data Cloud”; presented by Kent Graziano (AKA The Data Warrior), Chief Technical Evangelist for Snowflake.
Lots has happened at Snowflake in the last few years (including a HUGE IPO!). In this session Kent will give an update on Snowflake’s vision of a world with unlimited access to governed data, enabling every organization to tackle the challenges and opportunities of today and be prepared for the possibilities of tomorrow.
Every company in the world still struggles with how to take all their siloed data and turn it into insight, quickly. The Snowflake Data Cloud enables organizations, in every industry, to democratize their data and become data-driven. This talk will introduce you to The Data Cloud, how it works, and the problems it solves for real companies across the globe and across industries. Kent will also update you on recent governance innovations such as dynamic data masking, tagging, and row access policies that will help you build a robust and secure analytics platform.
About our Keynote Speaker
= = = = = = = = = = = = = = =
Kent Graziano, is the Chief Technical Evangelist for Snowflake and an award-winning author, speaker, and thought leader. He is an Oracle ACE Director (Alumni), Knight of the OakTable Network, a certified Data Vault Master and Data Vault 2.0 Practitioner (CDVP2), and expert solution architect with over 35 years of experience, including more than 25 years of designing advanced data and analytics architectures (in multiple industries). He is an internationally recognized expert in cloud and agile data design. Mr. Graziano has developed and led many successful software and data analytics implementation teams, including multiple agile DW/BI teams. He has written numerous articles, authored 3 Kindle books, co-authored 4 other books (including the 1st Edition of The Data Model Resource Book), and has given hundreds of presentations around the world.
This document provides an overview of performance monitoring capabilities in Oracle Database 12c and Enterprise Manager 13c. It discusses the Automatic Workload Repository (AWR) and Active Session History (ASH), which capture database performance statistics. The document outlines changes and enhancements to AWR and ASH in areas like in-memory, manageability reporting, and usability. It also discusses related features like the AWR warehouse and SQL Monitor.
This document provides an overview of Amazon Aurora including:
- Aurora is a database service that provides the performance and availability of high-end commercial databases at a lower cost.
- It uses a distributed, fault-tolerant storage system across 3 Availability Zones for data durability.
- Aurora provides up to 5x better performance than MySQL and 3x better than PostgreSQL through optimized storage, caching, processing and parallelism.
- It offers high availability with zero downtime and the ability to survive the loss of up to 2 Availability Zones through 6 way data replication.
AWS 클라우드는 IT의 새로운 기준을 정립하며 클라우드 컴퓨팅 산업을 혁신하고 있습니다. 본 온라인 세미나에서는 클라우드 컴퓨팅의 개념과 AWS가 제공하는 서비스 소개 및 주요 활용 사례에 대해 소개합니다. 특히 국내에 설립된 서울 리전(Region, 데이터센터 클러스터)에 대한 소개와 더불어 다양한 IT 업무를 위한 AWS 대표 서비스들을 중점적으로 다룰 예정입니다.
Presented by Martijn van Groningen, SearchWorkings - See conference video - http://www.lucidimagination.com/devzone/events/conferences/lucene-revolution-2012
In the real world data isn’t flat. Data is often modelled into complex models. Lucene is document oriented and doesn’t support relations natively. The only way you could index this data is by de-normalizing the relations in a document with many fields and execute subsequent queries. Subsequent queries can be expensive and data gets duplicated. This isn’t always ideal. Recently Solr and Lucene provide features that allow you to join and group. You can join and group on fields across documents and still have the power of Lucene’s awesome free text search. In this presentation, we’ll look at these new alternatives, the advantages and disadvantages and how these features can be utilized. how these new capabilities impact the design of Solr-based search applications primarily from infrastructure and operational perspectives.
진화하는 CloudFront 의 이해와 글로벌 서비스 활용 - 안수일 시니어 솔루션즈 아키텍트, GS NEOTEK :: AWS Summit...Amazon Web Services Korea
스폰서 발표 세션 | 진화하는 CloudFront 의 이해와 글로벌 서비스 활용
안수일 시니어 솔루션즈 아키텍트, GS NEOTEK
멀티미디어의 활용도가 점점 높아지면서 데이터, 이미지, 동영상 등을 짧은 지연시간과 빠른 전송속도로 전세계의 고객에게 전송하기 위해 CDN(Contents Delivery Network)서비스를 사용합니다. AWS의 CDN서비스인 CloudFront 의 이해와 계속해서 진화하는 CloudFront의 기능들을 어떻게 잘 활용 할 것인지에 대해 알아봅니다.
This session will review design principles and considerations when developing your e-commerce solution on AWS. Hear how Popsa, a machine learning start-up, built its e-commerce solution on AWS; and how AO.com, an online retailer of electrical goods, migrated a bespoke e-commerce platform into AWS. Discover what the cultural impact was, and what the future holds.
This document compares Apache Solr 4.0 and ElasticSearch 0.19. It outlines their main features for searching, indexing, similarities, and provides references for further information. Key differences include ElasticSearch being better for real-time search applications while Solr is more mature. ElasticSearch also supports push queries and has a schema-free structure while Solr has more advanced search features like result grouping.
The document discusses cost optimization when using AWS. It begins with an overview of total cost of ownership (TCO) and how AWS addresses some of the issues that lead to higher TCO with on-premises infrastructure, such as overprovisioning. It then discusses various methods for optimizing costs on AWS, including right-sizing instances, using reserved instances and spot instances, enabling auto-scaling, and matching data to the appropriate storage classes. The presentation emphasizes measuring and monitoring costs and designing infrastructure with costs in mind from the beginning.
Oracle-DB: Performance Analysis with PanoramaPeter Ramm
Peter Ramm presents Panorama, a free tool for performance analysis of Oracle databases. Panorama analyzes executed SQL statements, segment statistics, and session activities. It also evaluates capacity and configuration settings. Panorama utilizes Oracle's AWR and ASH data or collects its own workload samples. The tool provides a web GUI for linking analysis steps to troubleshoot performance issues.
Kudu is an open source storage layer developed by Cloudera that provides low latency queries on large datasets. It uses a columnar storage format for fast scans and an embedded B-tree index for fast random access. Kudu tables are partitioned into tablets that are distributed and replicated across a cluster. The Raft consensus algorithm ensures consistency during replication. Kudu is suitable for applications requiring real-time analytics on streaming data and time-series queries across large datasets.
ClickHouse Introduction, by Alexander Zaitsev, Altinity CTOAltinity Ltd
The document outlines an agenda for a ClickHouse conference in Paris on October 3rd 2019. The agenda includes an introduction to ClickHouse by Alexander Zaitsev of Altinity, a presentation from Christophe Kalenzaga and Vianney Foucault of ContentSquare on migrating from ElasticSearch to ClickHouse, and several other talks on using ClickHouse for applications such as mobile analytics, operational logs analysis, and an overview of new ClickHouse features.
A closer look at the MySQL and PostgreSQL compatible relational database built for the cloud that combines the performance and availability of high-end commercial databases with the simplicity and cost-effectiveness of open source databases. We’ll explore how Aurora uses the AWS cloud to provide high reliability, high durability, and high throughput.
Speakers:
Steve Abraham - Principal Database Specialist Solutions Architect, AWS
Peter Dachnowicz - Sr. Technical Account Manager, AWS
알고 보니 클라우드가 더 비싸다는 의문과 오해를 풀어드립니다.
‘2018 국내 클라우드 도입의 현주소 설문조사’ 결과 클라우드를 도입 완료 했거나 도입 중인 조직의 가장 큰 고민 중 비용 최적화(46%)가 1위를 차지했으며, 클라우드 도입을 고려 중인 기업의 3대 챌린지 중 클라우드 비용 관리(45%)가 2위를 차지할 만큼 클라우드 비용에 대한 기업의 고민이 늘어가고 있습니다.
특히 기업의 클라우드 비용 관리는 비즈니스 전략과도 연관되므로 매우 중요한 요소입니다.
베스핀글로벌의 OpsNow팀이 클라우드 비용을 50%로 절감하는 방법과 운영 효율을 2배 더 높일 수 있는 방법 대해 알차게 알려드립니다.
다시보기 영상 링크: https://youtu.be/hknvd5JucKU
데이터 저장소의 확장에 따라 규모에 맞게 데이터를 관리하는 것은 점점 더 어려워지고 있으며 데이터의 중요성은 지속적으로 올라가고 있습니다. 많은 데이터를 저장하고 활용하기 위해 올바른 저장매체를 선택하기 위해 AWS 에서 제공하는 여러 Storage 서비스들을 알아보고 각 서비스들의 장점과 사용 예를 함께 알아봅니다
O documento discute uma proposta de solução para melhorar a gestão do consumo de MIPS (medida de desempenho de processadores). A solução proposta envolve a criação de "tribos" multidisciplinares para promover engajamento, definir metas e indicadores de desempenho, estruturar conhecimento e gerar valor para o cliente.
Produtividade: uma relação da capacidade produtiva e previsão de demandaAlexandre Grossi
A produtividade é essencial para o crescimento de pessoas, empresas e países. No caso do individuo, a sua experiência e a sua cultura trarão maior eficácia no seu comportamento, induzindo-o a fazer melhor as coisas certas no momento exato.
É a produtividade que determina o aumento de salários sem gerar inflação e a riqueza das nações que conseguem produzir mais com mais inteligência e menor gasto. Trabalhar muito – horas trabalhadas e PEA-população economicamente ativa – são dois indicadores importantes, mas trabalhar bem é mais importante ainda.
진화하는 CloudFront 의 이해와 글로벌 서비스 활용 - 안수일 시니어 솔루션즈 아키텍트, GS NEOTEK :: AWS Summit...Amazon Web Services Korea
스폰서 발표 세션 | 진화하는 CloudFront 의 이해와 글로벌 서비스 활용
안수일 시니어 솔루션즈 아키텍트, GS NEOTEK
멀티미디어의 활용도가 점점 높아지면서 데이터, 이미지, 동영상 등을 짧은 지연시간과 빠른 전송속도로 전세계의 고객에게 전송하기 위해 CDN(Contents Delivery Network)서비스를 사용합니다. AWS의 CDN서비스인 CloudFront 의 이해와 계속해서 진화하는 CloudFront의 기능들을 어떻게 잘 활용 할 것인지에 대해 알아봅니다.
This session will review design principles and considerations when developing your e-commerce solution on AWS. Hear how Popsa, a machine learning start-up, built its e-commerce solution on AWS; and how AO.com, an online retailer of electrical goods, migrated a bespoke e-commerce platform into AWS. Discover what the cultural impact was, and what the future holds.
This document compares Apache Solr 4.0 and ElasticSearch 0.19. It outlines their main features for searching, indexing, similarities, and provides references for further information. Key differences include ElasticSearch being better for real-time search applications while Solr is more mature. ElasticSearch also supports push queries and has a schema-free structure while Solr has more advanced search features like result grouping.
The document discusses cost optimization when using AWS. It begins with an overview of total cost of ownership (TCO) and how AWS addresses some of the issues that lead to higher TCO with on-premises infrastructure, such as overprovisioning. It then discusses various methods for optimizing costs on AWS, including right-sizing instances, using reserved instances and spot instances, enabling auto-scaling, and matching data to the appropriate storage classes. The presentation emphasizes measuring and monitoring costs and designing infrastructure with costs in mind from the beginning.
Oracle-DB: Performance Analysis with PanoramaPeter Ramm
Peter Ramm presents Panorama, a free tool for performance analysis of Oracle databases. Panorama analyzes executed SQL statements, segment statistics, and session activities. It also evaluates capacity and configuration settings. Panorama utilizes Oracle's AWR and ASH data or collects its own workload samples. The tool provides a web GUI for linking analysis steps to troubleshoot performance issues.
Kudu is an open source storage layer developed by Cloudera that provides low latency queries on large datasets. It uses a columnar storage format for fast scans and an embedded B-tree index for fast random access. Kudu tables are partitioned into tablets that are distributed and replicated across a cluster. The Raft consensus algorithm ensures consistency during replication. Kudu is suitable for applications requiring real-time analytics on streaming data and time-series queries across large datasets.
ClickHouse Introduction, by Alexander Zaitsev, Altinity CTOAltinity Ltd
The document outlines an agenda for a ClickHouse conference in Paris on October 3rd 2019. The agenda includes an introduction to ClickHouse by Alexander Zaitsev of Altinity, a presentation from Christophe Kalenzaga and Vianney Foucault of ContentSquare on migrating from ElasticSearch to ClickHouse, and several other talks on using ClickHouse for applications such as mobile analytics, operational logs analysis, and an overview of new ClickHouse features.
A closer look at the MySQL and PostgreSQL compatible relational database built for the cloud that combines the performance and availability of high-end commercial databases with the simplicity and cost-effectiveness of open source databases. We’ll explore how Aurora uses the AWS cloud to provide high reliability, high durability, and high throughput.
Speakers:
Steve Abraham - Principal Database Specialist Solutions Architect, AWS
Peter Dachnowicz - Sr. Technical Account Manager, AWS
알고 보니 클라우드가 더 비싸다는 의문과 오해를 풀어드립니다.
‘2018 국내 클라우드 도입의 현주소 설문조사’ 결과 클라우드를 도입 완료 했거나 도입 중인 조직의 가장 큰 고민 중 비용 최적화(46%)가 1위를 차지했으며, 클라우드 도입을 고려 중인 기업의 3대 챌린지 중 클라우드 비용 관리(45%)가 2위를 차지할 만큼 클라우드 비용에 대한 기업의 고민이 늘어가고 있습니다.
특히 기업의 클라우드 비용 관리는 비즈니스 전략과도 연관되므로 매우 중요한 요소입니다.
베스핀글로벌의 OpsNow팀이 클라우드 비용을 50%로 절감하는 방법과 운영 효율을 2배 더 높일 수 있는 방법 대해 알차게 알려드립니다.
다시보기 영상 링크: https://youtu.be/hknvd5JucKU
데이터 저장소의 확장에 따라 규모에 맞게 데이터를 관리하는 것은 점점 더 어려워지고 있으며 데이터의 중요성은 지속적으로 올라가고 있습니다. 많은 데이터를 저장하고 활용하기 위해 올바른 저장매체를 선택하기 위해 AWS 에서 제공하는 여러 Storage 서비스들을 알아보고 각 서비스들의 장점과 사용 예를 함께 알아봅니다
O documento discute uma proposta de solução para melhorar a gestão do consumo de MIPS (medida de desempenho de processadores). A solução proposta envolve a criação de "tribos" multidisciplinares para promover engajamento, definir metas e indicadores de desempenho, estruturar conhecimento e gerar valor para o cliente.
Produtividade: uma relação da capacidade produtiva e previsão de demandaAlexandre Grossi
A produtividade é essencial para o crescimento de pessoas, empresas e países. No caso do individuo, a sua experiência e a sua cultura trarão maior eficácia no seu comportamento, induzindo-o a fazer melhor as coisas certas no momento exato.
É a produtividade que determina o aumento de salários sem gerar inflação e a riqueza das nações que conseguem produzir mais com mais inteligência e menor gasto. Trabalhar muito – horas trabalhadas e PEA-população economicamente ativa – são dois indicadores importantes, mas trabalhar bem é mais importante ainda.
Palestrante: Adolfo Eric Petersen
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.
Sysphera White Paper- Gerenciando Desempenho em uma Economia DinâmicaSysphera Tecnologia
O documento discute os desafios de gerenciar o desempenho empresarial em uma economia dinâmica e como soluções de Comprehensive Performance Management (CPM) podem ajudar as empresas, especialmente as de porte médio. Ele descreve os processos de planejamento, orçamentação e previsão e como uma boa solução de CPM deve fornecer agilidade, flexibilidade e transparência para lidar com mudanças rápidas.
O documento discute os principais pontos para realizar planejamento de capacidade para ambientes distribuídos, incluindo determinar objetivos, arquitetura do sistema, aquisição de hardware, escalabilidade horizontal e vertical, uso de cálculos aproximados e a diferença entre capacidade e performance. A medição contínua de dados é essencial para garantir que o planejamento esteja alinhado com as necessidades em evolução.
O documento discute conceitos e práticas de gerenciamento de capacidade para ambientes distribuídos. Aborda origens históricas, conceitos-chave como banco de dados de capacidade e dimensionamento de projetos, ferramentas, métodos como escalabilidade vertical e horizontal, a importância de medições contínuas e projeções futuras para garantir a adequação da infraestrutura às demandas do negócio.
O documento discute a gestão ágil com fluxo unificado. Aborda como unificar o fluxo de trabalho pode ajudar a reduzir filas e variabilidade nos projetos, melhorar a tomada de decisões econômicas e a auto-organização dos times. Explica como analisar a pressão nos projetos de um portfólio e distribuir demandas e slots de trabalho de forma equilibrada considerando variáveis como escopo, entregas e prazos dos projetos.
Este documento discute seis fatores ocultos que podem afetar o crescimento dos dados móveis e a qualidade da rede: 1) desbloqueio de controles de rede, 2) novos dispositivos e atualizações de software, 3) aplicativos over-the-top, 4) ondas de tráfego anômalas, 5) limitações de recursos de rede, e 6) lacunas de cobertura. Identificar esses fatores pode ajudar as operadoras a melhorar a qualidade da rede e a satisfação dos clientes.
Este documento apresenta uma proposta para aproveitar a capacidade ociosa de uma fábrica de computadores através da estratégia de preços. Primeiramente, analisa a capacidade instalada versus disponível da fábrica. Em seguida, usa a teoria da elasticidade-preço e alavancagem financeira para estimar como variações nos preços podem afetar as vendas e lucros da empresa. Por fim, sugere entrevistas e análises quantitativas e qualitativas dos diferentes mercados para interpretar os dados e definir a estrat
O documento discute como uma empresa de telecomunicações pode ajudar grandes empresas a gerenciarem melhor seus gastos com telefonia, oferecendo serviços como controle e análise de faturas, comparação de utilização entre setores, identificação de excessos de uso e disponibilização de detalhamentos de utilização para os funcionários.
O documento discute como uma empresa de telecomunicações pode ajudar grandes empresas a gerenciarem melhor seus gastos com telefonia, oferecendo serviços como controle e análise de faturas, comparação de utilização entre setores, identificação de excessos de uso e disponibilização de detalhamentos de utilização para os funcionários.
O framework de big data para inteligência de marketing dinâmicaGabriel Peixe
O documento discute o desenvolvimento de uma plataforma de big data para inteligência de marketing que automatiza processos de extração, transformação e carregamento de dados de várias fontes para análise preditiva com o objetivo de melhorar a aquisição, retenção e rentabilidade de clientes. A plataforma será desenvolvida na nuvem da Amazon usando ferramentas como S3, Hadoop e linguagens como Python e Javascript.
O documento discute estratégias para otimização de custos na AWS, incluindo elasticidade, right sizing, reservas de capacidade e governança de custos. Ele fornece exemplos de como esses métodos podem reduzir gastos em nuvem e alerta sobre ferramentas como o Billing Console, Cost Explorer e Trusted Advisor para monitoramento.
O documento discute a importância de sistemas de gestão de energia para consumidores no mercado livre de energia no Brasil. Atualmente, apenas 15% dos consumidores possuem tais sistemas e 95% desejam receber mais informações e centralizar resultados em uma plataforma. A plataforma Egrid foi desenvolvida para preencher essa lacuna e ajudar consumidores e comercializadoras a melhor gerenciar suas operações no mercado de energia.
Crescimento através da satisfação do clienteNara Oliveira
O documento discute como alcançar o crescimento desejado de 10% através da satisfação do cliente em um supermercado. Ele apresenta SIPOC para mapear os processos, analisa a voz do cliente e métricas como DPU e DPMO. As propostas de melhoria incluem mais funcionários para atendimento, treinamento, foco no cliente de renda média-alta e uso de cross-docking e MRP para itens não-alimentícios. Uma nova métrica de satisfação do cliente em escala de 0 a 10 é sugerida.
Este documento discute métodos de previsão de demanda. Primeiro, apresenta as etapas de um modelo de previsão, incluindo definir objetivos, coletar e analisar dados, selecionar técnicas, obter previsões e monitorar resultados. Também descreve técnicas qualitativas e quantitativas de previsão e fatores a serem considerados na seleção da técnica apropriada.
E-Book TecFood - Gestão de refeições coletivas - 04 motivos para automatizar ...Teknisa
Como a automação pode te auxiliar na gestão do restaurante corporativo?
É sobre isso que vamos tratar neste material. Apresentaremos 04 motivos para automatizar processos que envolvem as propostas e os contratos.
Acesse o blog: https://www.teknisa.com/gestao-em-alimentacao/sistema-para-automacao-e-gestao-de-contratos-de-alimentacao-em-seu-restaurante
O Grupo BONGÁS implementou com sucesso o sistema Sage ERP X3 integrado com o Sage Enterprise Intelligence (SEI) para melhorar a tomada de decisões. O SEI permitiu reduzir o tempo gasto em análises de dados e relatórios, permitindo decisões mais rápidas e informadas. A solução forneceu visibilidade dos negócios em tempo real que excedeu as expectativas do Grupo BONGÁS.
O documento discute vários métodos e conceitos relacionados ao planejamento e controle de estoques, incluindo: 1) a importância da previsão de demanda para reduzir riscos e beneficiar a organização; 2) os níveis hierárquicos de planejamento estratégico, tático e operacional; 3) tipos de demanda e comportamentos; 4) técnicas de previsão quantitativas e qualitativas como média móvel, exponencial ponderada e MRP.
Graças à evolução da tecnologia da informação, temos hoje acesso a um arsenal de ferramentas e serviços sem paralelo na história. É preciso manter-se constantemente atualizado para competir em um mercado que é, cada vez mais, ágil e conectado.
Assim, tão importantes quanto os produtos e serviços que a sua empresa oferece, são também o modelo e as ferramentas de gestão utilizados para manter seu funcionamento.
Este eBook é um guia prático de introdução ao ERP, onde abordamos:
o que é o ERP
suas vantagens
porque é tão importante adquirir um?
Confira!
Semelhante a Consumo de CPU, Distorções e Redução de custo de SW por Maria Isabel Soutello (Autonoma) (20)
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
This document discusses novelties in z/OS 2.4 and z14 GA2, including enhancements to application development and cloud computing. It introduces buzzwords from the past like OO and ERP that are now outdated, and new buzzwords like cloud, analytics, and microservices. Specific z/OS and hardware enhancements described include 25GbE for OSA and RoCE, crypto enhancements, dynamic I/O configuration for standalone CFs, asynchronous cache cross-invalidation, and HMC enhancements. The document ends with a debate between the presenters on whether new application development approaches will deliver continuous availability, data integrity and performance in production environments.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Marcus Vinicius Bittencourt é um especialista em Data Platform e SQL Server com 4 prêmios MVP. O documento discute cybercrime, brechas de segurança e demonstra como um atacante pode acessar uma rede corporativa e explorar falhas de segurança no SQL Server para escalar privilégios.
O documento descreve a jornada de definição da estratégia de nuvem de um banco brasileiro. O processo envolveu análises técnicas e estratégicas das aplicações, provedores de nuvem e cenários de migração, com o objetivo de identificar as aplicações ideais para a nuvem e os melhores caminhos de migração. A estratégia definida prioriza o uso de nuvem para novos projetos e estima potencial de até 40% das aplicações existentes migrarem para a nuvem.
O documento fornece uma visão geral da área de Ciência de Dados, discutindo como a tecnologia está transformando as profissões e a necessidade de atualização contínua. Também explica conceitos-chave da Ciência de Dados como descritivo, diagnóstico, preditivo e prescritivo e como esses conceitos são aplicados usando algoritmos e machine learning.
The document discusses several new capabilities and enhancements being introduced in z/OS V2.4, including z/OS Container Extensions to enable running Linux containers alongside z/OS applications, 25GbE support for OSA and RoCE, asynchronous cache cross-invalidation to improve performance, and policies to simplify customizing JES2 without assembler exits. It also mentions continued efforts to drive pervasive encryption and support for additional data analytics capabilities.
O documento discute boas práticas de programação para melhorar a qualidade e performance de códigos. Ele aborda tópicos como comentários, nomes de variáveis, identação, testes, uso de loops, arrays e funções de forma otimizada. O documento argumenta que seguindo essas práticas recomendadas é possível desenvolver software mais eficiente e de fácil manutenção.
O documento discute a tokenização de ativos e novas linhas de negócios. Ele aborda como empresas como a Microsoft estão apostando na tokenização de ativos usando blockchain e como seguradoras veem grandes oportunidades no armazenamento e cobertura de criptomoedas. Também menciona como a tokenização pode ajudar a combater a pobreza global e a poluição dos oceanos.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
O documento discute a solução Eccox Application for Parallel Testing (APT) da Eccox Technology. Em três frases: A APT fornece ambientes de teste isolados no mainframe para permitir testes paralelos, clonando recursos como bancos de dados e arquivos. Isso permite que vários usuários executem testes simultaneamente sem conflitos, reduzindo custos com infraestrutura e horas-homem. A solução também gera dados de teste sintéticos para apoiar cenários de teste isolados.
O documento descreve como o Banco de Brasília implementou uma solução de balanceamento dinâmico para melhorar a gestão da capacidade e desempenho de seu ambiente mainframe IBM ZOS. A solução otimizou o uso dos recursos, reduziu custos com software e adiamento de hardware, com retorno de investimento em 5 meses.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
O documento discute a pervasive encryption no IBM Z, que permite a criptografia transparente e em massa de dados em repouso para simplificar a proteção de dados e o cumprimento de normas regulatórias. A pervasive encryption criptografa automaticamente todos os dados em repouso usando chaves gerenciadas pelo sistema, de forma transparente para as aplicações. Isso protege dados em vários níveis, incluindo VSAM, DB2, IMS e logs, entre outros, sem impactar o desempenho.
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
O documento discute Infraestrutura como Código (IaC) e como ele pode ser usado para automatizar infraestrutura em nuvem de forma segura e consistente. Ele explica os benefícios do IaC, como aumentar a produtividade das equipes, permitir mudanças contínuas e melhorias incrementais. Também aborda desafios como deriva de configuração e ferramentas IaC populares como Terraform.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
Este documento descreve os componentes internos do processador z14. Ele discute os estágios de fetch, parsing, decode e issue de instruções, bem como as unidades de execução fixa, load/store, vetor e flutuante. O documento também fornece diagramas ilustrando o fluxo de dados e instruções entre esses componentes.
Detalhes internos da z14/Otimização de códigos - por Luiz Carlos Orsoni (MAFFEI)
Consumo de CPU, Distorções e Redução de custo de SW por Maria Isabel Soutello (Autonoma)
1. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
14/05/2019
Maria Isabel Soutello – migdsbel@gmail.com
UM NOVO OLHAR SOBRE A EVOLUÇÃO DO CONSUMO DE
CPU COMO AUXÍLIO NO PLANEJAMENTO DE CAPACIDADE
DOS MAINFRAMES.
DETECÇÃO DE MUDANÇAS DE PERFIL, E COMO
APROFUNDAR AS CAUSAS DE DISTORÇÕES, QUE PODEM
AJUDAR A DIMINUIR O CUSTO MENSAL DE SOFTWARE.
2. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Objetivo:
Propor um novo olhar sobre a evolução do consumo de CPU como auxílio no
planejamento de capacidade dos mainframes, que ajuda na detecção de mudanças de
perfil. Consequentemente ajuda a aprofundar as causas de distorções, o que pode vir a
diminuir o custo mensal de software. Este custo é determinado pelo pico da média
rolante de 4hs, ou seja abrange todo um período de consumo alto, para evitar picos
pontuais de consumo.
3. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico tradicional de evolução de consumo x capacidade
4. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Como é acompanhada a evolução de consumo tradicional:
Geralmente escolhemos uma medida base como, por exemplo, o pico da
média horária, ou o pico de um determinado período definido, para mostrar a evolução
mensal do consumo de processador passado, e fazer projeções de consumo futuro até
uma determinada data.
Esta medida, porém, pode não justificar por si só, o crescimento de
determinados meses. Por exemplo o mês de agosto no gráfico apresenta um salto maior
de consumo, e olhando apenas esse gráfico não há como justificar o aumento.
Pode ter sido um aumento pontual por problema de hardware/software no dia
de pico do período escolhido como representativo, pode ser aumento de volumetria de
transações, pode ser programas novos com consumo acima do esperado, enfim é
necessário investigação.
5. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Proposta:
A proposta aqui é usar a evolução do perfil médio diário de consumo,
analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser
aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais
rapidamente identificar tendências de crescimento por horários e fazer ajustes no
consumo de modo a minimizar os picos recorrentes.
Como obter as curvas médias horárias?
Tendo os dados horários de todos os dias de um mês num DB, extrair todos os
dados de consumo horário (reg 70 SMF) já convertidos de utilização % para medida
absoluta como por ex. MIPS, em função da capacidade aberta a cada hora.
Calcular a média por hora, para cada hora do dia, de todos os dias de um mês.
Ex.: o consumo médio horário da hora 0 é a média do consumo as 0 hs desde o dia 1 até
o último dia do mês, idem para a hora 1, até a hora 23.
Podemos considerar que esse é o perfil de consumo desse mês.
A cada mês fechado, analisar a curva média horária dos últimos 3 meses.
6. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico proposto de evolução de consumo médio
7. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Próximo passo: análise de perfil por cargas (workload)
Se notamos que há uma tendência de crescimento numa determinada hora do
dia, como nesse caso a curva é representativa de todos os dias do mês, fica excluída a
possibilidade de um problema que possa ter ocorrido no dia que gerou o pico de
consumo.
Em vez de olharmos para o detalhe de um único dia, podemos analisar o
consumo da hora ou horas em questão, de vários dias e ver se há um padrão de cargas,
programas ou transações naquele horário.
8. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico de perfil de consumo por cargas de um dia típico
9. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico de evolução de consumo médio por carga
10. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Próximo passo: análise de transações ou programas de maior
consumo
Primeiro analisar o consumo por carga do período desejado, identificando a
carga de maior consumo. Vamos supor que a carga CICS represente 62% do consumo
nessa hora.
A seguir relacionamos por exemplo as 5 ou 10 transações CICS de maior
consumo nessa hora, e depois passamos a olhar para cada uma, a evolução diária de
volumetria e consumo ao longo dos dias do mês, e geralmente vamos achar uma
mudança de perfil a partir de alguma data nesse período.
11. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Relação das transações CICS com maior consumo na hora de
crescimento no dia de pico de consumo
Se compararmos esta transação WROT nem aparecia no mês anterior
entre as 5 maiores, e se investigado seu consumo médio em dia
equivalente do mês anterior era bem mais baixo.
Nome Volume
Consumo
total em
seg
Consumo
médio
ABXF 1.645.080 10.320 0,0063
PFHJ 5.780.345 8.100 0,0014
XVYK 7.996.564 5.612 0,0007
JDIP 2.164.578 4.998 0,0023
WROT 23.713 1.723 0,0727
12. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Detalhamento: análise de determinada aplicação
Pode haver um aumento repentino de volumetria de uma determinada
transação cujo consumo médio já é alto e aí o aumento de consumo está justificado. A
causa deve ser buscada junto à Produção ou Depto usuário daquela transação ou
sistema.
Ou o consumo médio de outra transação, aumenta significativamente ao longo
de uma semana permanecendo em novo patamar. Deve-se então buscar junto aos
analistas responsáveis pelo sistema se houve alteração e qual motivo. Pode ser uma
implantação de nova exigência, aumento de informação de log, ou não era esperado e se
configura como erro de programação a ser corrigido. As vezes o programa (código) não
foi alterado mas o banco de dados apresentou problema no crescimento da(s) tabelas
utilizada(s), causando aumento de consumo na busca de dado.
Caso a hora em questão apresente maior consumo de carga batch, da mesma
forma deve ser olhado se há novos programas executando no horário (nova
implantação) ou se algum dos programas com maior consumo apresenta aumento desse
consumo.
13. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico de evolução diária de volume e consumo total de transação na hora 15
A partir do dia 8 muda perfil de consumo da
transação em relação ao volume
14. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Projeção de consumo:
Constatado por exemplo que o mês de maior consumo no ano seja o mês de
dezembro, gerar a partir dos dados já extraídos e calculados, um gráfico da curva média
horária dos últimos 3 ou 4 anos do mês de dezembro.
Esse gráfico pode mostrar a tendência de crescimento anual dos últimos anos
e qual período horário justifica essa tendência para o próximo ano.
Pode ser escolhido também mostrar a curva de evolução dos dias de pico de
um mesmo mês do ano. Dia de pico entenda-se o dia de maior consumo nos horários de
pico ou seja dia que foi apurado o custo de software.
15. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico anual de evolução de consumo médio
16. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Planejamento de Capacidade:
Claro que para determinar a capacidade necessária, deve-se levar em conta o
dia de pico e não a média. Salvo meses em que houve algum problema no dia de pico,
geralmente podemos identificar um % extra constante de consumo do dia de pico sobre
a média do mês (por ex. 20% ou 15%) e a partir daí saber qual a capacidade necessária
para suportar o dia de maior consumo.
Cada instalação possui um perfil de consumo diferente em função de horários
de funcionamento, demanda de clientes, portanto uma evolução de perfil pode justificar
melhor a necessidade de uma aquisição de capacidade.
Além do consumo passado deve entrar nessa consideração novos projetos a
serem implantados, mudanças legais, movimentações de carga para balanceamento,
demandas extras por promoções de vendas, etc. Se conhecido detalhe de horário que
entrarão, fica mais fácil visualizar se necessário aumento de capacidade ou se ocupam
“vales”.
17. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gráfico mensal de perfil médio x perfil pico
18. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Conversão de medidas: tabelas a partir de registros SMF
As tabelas que mostram valores de consumo de partições/equipamentos
(informação do reg. 70) tem os valores em % ou MSU/MIPS. Se não tiverem é fácil
converter cruzando com valores de uma tabela constante de alimentação manual com
todos os modelos de equipamento e respectivos MIPS (tabela LSPR da IBM).
As tabelas que mostram consumo de cargas (informação do reg. 72 por
workload ou report class), geralmente apresentam esse consumo em Service Units.
Obtemos o % de cada carga sobre a soma total, e como já temos no item acima o
consumo total em MIPS é só converter o % para MIPS.
As tabelas que mostram consumo de transações CICS (informação do reg.
110) ou de programas (informação do reg. 30) mostram consumo em segundos de CPU.
Se comparados valores de mesmo dia ou mês em que não houve mudança de
configuração de partição ou equipamento, não há necessidade de conversão, mas se
forem de períodos ou equipamentos diferentes é melhor converter em MIPS.
19. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual: Escolha dos gráficos mais
úteis
Tipos de gráficos adequados a cada tipo de visualização
•Para fotografia diária/anual mostrar curva horária empilhada absoluta por carga
20. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual:
Tipos de gráficos adequados a cada tipo de visualização
•Para evolução mostrar barras ou linhas ou ainda a evolução de curvas p/ médias e
picos também em valor absoluto (proposta alternativa desta apresentação)
21. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual:
Tipos de gráficos adequados a cada tipo de visualização
•Para posição mensal de utlização de partições /equipamentos mostrar “mapas de clima”
com utilização %
LPAR dez jan fev
PRD1 72 73 76
PRD2 85 82 80
PRDON 76 71 70
DES1 90 69 74
HOM1 62 65 80
HOM2 93 86 72
SUP 78 80 88
Uso % de CPU
22. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual:
Tipos de gráficos adequados a cada tipo de visualização
•Para comparação de mudanças mostrar pizza % de consumo por carga em 2 datas
23. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual:
Tipos de gráficos adequados a cada tipo de visualização
•Para comparação consumo de transações ou programas, por ex. usar tabelas ou barras
decrescentes dos maiores consumidores
24. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Gestão diária e Planejamento mensal/anual:
Tipos de gráficos adequados a cada tipo de visualização
•Para evolução diversas medidas por ex. crescimento do parque ou de equipamento em
CPU, MEM e espaço de disco, usar radar
25. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Muito Obrigada!
Dúvidas?