O documento discute os benefícios do uso do Workload Manager (WLM) para gerenciar processamento batch em vez do JES2. O WLM permite distribuição dinâmica de carga entre sistemas, reduzindo erros e melhorando o cumprimento de cronogramas e níveis de serviço em comparação com a abordagem manual do JES2. O objetivo do projeto é utilizar os recursos do WLM para direcionar e balancear jobs batch entre sistemas de forma a otimizar o uso de recursos e cumprir cronogramas.
O documento descreve o CONTROL-M, um sistema de gerenciamento de processos batch que oferece uma solução completa para a produção e controle de processamento por lote. Ele executa jobs em lote em qualquer nível do sistema operacional e pode controlar diversas plataformas. O CONTROL-M é composto por vários componentes como o Enterprise Manager, Server, Agent e arquivos de definição que trabalham em conjunto para agendar, executar e rastrear jobs por lote.
1) O documento discute técnicas de previsão usando amortecimento em séries temporais.
2) É destacada a importância de analisar a qualidade dos dados e componentes da série histórica antes de fazer projeções.
3) As técnicas de amortecimento são apresentadas como consistentes, fáceis de usar e com boa precisão para previsões.
Os 10 Mandamentos para realizar um projeto de upgrade SAPIssac Nolis Ohasi
O documento apresenta 10 mandamentos para realizar um projeto de upgrade do SAP e discute os impactos nos controles internos. Os mandamentos incluem: 1) definir a logística de trabalho sem impactar dados restritos, 2) migrar apenas o que for necessário, 3) medir e controlar o que for medido, 4) definir change management, 5) realizar testes adequados, 6) construir o planejado, 7) prestar atenção nos detalhes, 8) revisar atribuições, 9) segregar funções e proteger dados, 10) se preocup
Gerenciamento de configuração com puppetElton Simões
Esta apresentação introduz a ferramenta open-source Puppet para gerenciamento de configuração em ambientes de grande porte. Puppet permite automatizar e padronizar a configuração de centenas de servidores de forma centralizada, resolvendo problemas comumente enfrentados em ambientes manuais como falta de documentação e inconsistências.
O documento discute a automação dos processos de gestão da performance de aplicações para reduzir a intervenção do usuário. Propõe a automação da escolha de candidatos para análise, medição contínua dos programas que mais consomem recursos e geração automática de relatórios para tomada de decisões. A automação visa simplificar processos complexos e melhorar a produtividade.
1) O documento apresenta dois escalonadores baseados em programação linear inteira para agendar tarefas e máquinas virtuais em recursos de grade, levando em conta os requisitos de software das aplicações e a largura de banda disponível.
2) Os escalonadores diferem de trabalhos anteriores ao agendar conjuntamente tarefas e máquinas virtuais, considerando o impacto da largura de banda no agendamento.
3) Experimentos mostraram que os escalonadores usam eficientemente os recursos e produzem agendamentos em pouco tempo,
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
O documento descreve o CONTROL-M, um sistema de gerenciamento de processos batch que oferece uma solução completa para a produção e controle de processamento por lote. Ele executa jobs em lote em qualquer nível do sistema operacional e pode controlar diversas plataformas. O CONTROL-M é composto por vários componentes como o Enterprise Manager, Server, Agent e arquivos de definição que trabalham em conjunto para agendar, executar e rastrear jobs por lote.
1) O documento discute técnicas de previsão usando amortecimento em séries temporais.
2) É destacada a importância de analisar a qualidade dos dados e componentes da série histórica antes de fazer projeções.
3) As técnicas de amortecimento são apresentadas como consistentes, fáceis de usar e com boa precisão para previsões.
Os 10 Mandamentos para realizar um projeto de upgrade SAPIssac Nolis Ohasi
O documento apresenta 10 mandamentos para realizar um projeto de upgrade do SAP e discute os impactos nos controles internos. Os mandamentos incluem: 1) definir a logística de trabalho sem impactar dados restritos, 2) migrar apenas o que for necessário, 3) medir e controlar o que for medido, 4) definir change management, 5) realizar testes adequados, 6) construir o planejado, 7) prestar atenção nos detalhes, 8) revisar atribuições, 9) segregar funções e proteger dados, 10) se preocup
Gerenciamento de configuração com puppetElton Simões
Esta apresentação introduz a ferramenta open-source Puppet para gerenciamento de configuração em ambientes de grande porte. Puppet permite automatizar e padronizar a configuração de centenas de servidores de forma centralizada, resolvendo problemas comumente enfrentados em ambientes manuais como falta de documentação e inconsistências.
O documento discute a automação dos processos de gestão da performance de aplicações para reduzir a intervenção do usuário. Propõe a automação da escolha de candidatos para análise, medição contínua dos programas que mais consomem recursos e geração automática de relatórios para tomada de decisões. A automação visa simplificar processos complexos e melhorar a produtividade.
1) O documento apresenta dois escalonadores baseados em programação linear inteira para agendar tarefas e máquinas virtuais em recursos de grade, levando em conta os requisitos de software das aplicações e a largura de banda disponível.
2) Os escalonadores diferem de trabalhos anteriores ao agendar conjuntamente tarefas e máquinas virtuais, considerando o impacto da largura de banda no agendamento.
3) Experimentos mostraram que os escalonadores usam eficientemente os recursos e produzem agendamentos em pouco tempo,
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
José Carlos de Paiva apresenta seu currículo com mais de 30 anos de experiência em sistemas mainframe IBM, atuando principalmente como analista de sistemas. Ele tem experiência em bancos como Banco Espírito Santo, Banco de Crédito Nacional e Banco Noroeste, onde liderou projetos de migração, integração e controle de versões.
O documento descreve a arquitetura de uma aplicação web hospedada na nuvem Amazon EC2 usando balanceamento de carga, clusters e dimensionamento automático para atender demandas variáveis. A aplicação consiste em módulos Ruby on Rails e Java EE hospedados em clusters JBoss e balanceados por Apache. A arquitetura usa Gossip Router e scripts para registrar e descobrir nós dinamicamente.
O documento discute como a tecnologia de virtualização pode permitir um desenvolvimento sustentável através da otimização da utilização de recursos, redução de custos e aumento da disponibilidade. O palestrante apresenta os conceitos e produtos de virtualização da Microsoft como o Hyper-V e o System Center Virtual Machine Manager e discute casos de sucesso de consolidação de servidores e melhoria da disponibilidade por meio da virtualização.
O documento discute sistemas operacionais de rede. Ele define sistemas operacionais, explica suas funções e como eles gerenciam recursos. Também descreve arquiteturas cliente-servidor e peer-to-peer, além de servidores dedicados e não-dedicados.
O documento discute as características do JBoss AS 7, incluindo sua arquitetura redesenhada para iniciar recursos de forma concorrente e em menos de 2 segundos, seus perfis Java EE 6 certificados, e novos recursos como arquitetura pronta para nuvem, ferramentas de gerenciamento aprimoradas e balanceamento de carga inteligente usando o Mod Cluster.
Apresentacao Blue Solutions - Armazenamento Simplificado de Alta PerformanceBlue Solutions
O documento discute soluções de armazenamento simplificado e de alto desempenho, comparando o armazenamento tradicional versus moderno. Ele descreve os desafios do armazenamento legado, como volumes presos a discos específicos, e como as soluções virtualizadas oferecem balanceamento de carga automático e expansão flexível de recursos.
O documento discute como a performance afeta métricas como receita, taxas de cliques e satisfação do usuário. Ele mostra que atrasos de 50ms a 2000ms no carregamento de páginas podem reduzir essas métricas em até 4,4%. O documento também fornece dicas para melhorar o desempenho, como usar cache, compactar arquivos, otimizar requisições de rede e carregar scripts no final da página.
O documento descreve os conceitos básicos de automação industrial utilizando controladores lógicos programáveis (CLP). Apresenta o que é automação e como surgiu o CLP, definindo-o como um equipamento eletrônico especializado para controle e monitoramento de processos industriais através de programas. Detalha também aspectos do hardware, software, linguagens de programação e conceitos relacionados a variáveis e blocos de usuários em CLPs.
O documento discute a automação do data center da empresa, incluindo o deploy de servidores, gerenciamento de configuração, administração centralizada, monitoração e integração utilizando ferramentas como Puppet, Cobbler, Collectd, Nagios, Func e Control Station.
O documento discute vários aspectos que afetam o desempenho de aplicações web, como cache, threads, SQL, rede, front-end e HTTP requests. Ele também fornece dicas sobre como melhorar o desempenho, como usar cache, bundles, sprites, lazy load e otimizar arquivos CSS e JS.
O JobScheduler é uma ferramenta que proporciona a gestão de tarefas automatizadas, controlando sua execução, periodicidade, dependência e criticidade. Além disso possui interfaces gerenciais que facilitam o acompanhamento e gestão dos usuários responsáveis pela produção, log das execuções e aplicações.
Os principais tipos de tarefas executadas são:
- Aplicações Windows (.exe, .com, .bat)
- Aplicações Unix/Linux (.sh)
- Procedures (interface para seleção no banco e configuração de parâmetros)
- Tarefas Java
- EJB3 em servidor de aplicação
- Macros: robôs de interação com telas de aplicações Web ou Desktop.
Sempre buscando atuar com inteligência na área de desenvolvimento, como DevOps, arquiteto, líder de projeto e desenvolvedor fullstack, sempre visando a melhor implementação (tecnologia certa para a tarefa certa), análise de custo benefício, eficiência, arquitetura macro de serviços, fluxograma de desenvolvimento, automatização de tarefas e controle de qualidade e principalmente valor ao negócio.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
1. O documento descreve relatórios sobre tipos de sistemas operacionais e gerenciamento de processos e threads.
2. É analisado o Windows Server 2012, sistemas Linux para servidores e estações de trabalho, sistemas Android e iOS para smartphones e tablets.
3. Também são descritos conceitos como processos, threads, PCB e atividades práticas realizadas no simulador SOsim sobre gerenciamento de processos.
Performance e disponibilidade ‐ Um estudo de caso: website dos CorreiosAlex Hübner
[1] O documento descreve uma estratégia implementada para melhorar o desempenho e disponibilidade de um site institucional dos Correios que rodava no ColdFusion. [2] A estratégia envolveu duplicar as instâncias do ColdFusion em cada servidor para melhor aproveitar os recursos, otimizar configurações do servidor e do banco de dados, e estabelecer rotinas de reciclagem noturna. [3] As mudanças permitiram dobrar a capacidade do ambiente existente sem necessidade de novos servidores.
O documento descreve o que são autómatos programáveis e sua funcionalidade, substituindo a lógica de relés por uma lógica armazenada em memória. Discutem as principais vantagens dos autómatos programáveis em relação aos painéis de relés, como redução de custos, facilidade de programação e configuração. Também menciona que a GM desenvolveu o primeiro autómato programável na década de 1960 para automatizar linhas de montagem.
O documento discute como empresas grandes podem reduzir custos com mainframes mantendo desempenho, disponibilidade e segurança. Ele descreve novas tecnologias mainframe como zIIP, zEDC e SMT-2 que reduzem custos de hardware e software, e iniciativas como MWP que barateiam cargas móveis. O documento conclui que mainframes continuam sendo aliados de empresas para crescimento com redução de custos graças a melhorias contínuas.
Especificação de plataforma DaaS para laboratórios de informática Demis Gomes
Esta apresentação resume o período de trabalho entre 2014-2015 financiado pela FACEPE, no qual buscamos entender como uma plataforma DaaS poderia ser modelada para a aplicação em laboratórios de informática.
Esta apresentação foi mostrada na Jornada de Iniciação Científica da FACEPE, no dia 11 de julho de 2015.
Sistema Operacional de Tempo Real(vx works)Jose Silva
01. O documento descreve uma pesquisa sobre o sistema operacional de tempo real VxWorks.
02. VxWorks é um sistema operacional de tempo real desenvolvido pela Wind River Systems que permite a execução de múltiplas tarefas em tempo real através de escalonamento preemptivo.
03. A pesquisa descreve a arquitetura do VxWorks, incluindo seus recursos básicos como manuseio de tarefas, memória e comunicação entre tarefas.
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
José Carlos de Paiva apresenta seu currículo com mais de 30 anos de experiência em sistemas mainframe IBM, atuando principalmente como analista de sistemas. Ele tem experiência em bancos como Banco Espírito Santo, Banco de Crédito Nacional e Banco Noroeste, onde liderou projetos de migração, integração e controle de versões.
O documento descreve a arquitetura de uma aplicação web hospedada na nuvem Amazon EC2 usando balanceamento de carga, clusters e dimensionamento automático para atender demandas variáveis. A aplicação consiste em módulos Ruby on Rails e Java EE hospedados em clusters JBoss e balanceados por Apache. A arquitetura usa Gossip Router e scripts para registrar e descobrir nós dinamicamente.
O documento discute como a tecnologia de virtualização pode permitir um desenvolvimento sustentável através da otimização da utilização de recursos, redução de custos e aumento da disponibilidade. O palestrante apresenta os conceitos e produtos de virtualização da Microsoft como o Hyper-V e o System Center Virtual Machine Manager e discute casos de sucesso de consolidação de servidores e melhoria da disponibilidade por meio da virtualização.
O documento discute sistemas operacionais de rede. Ele define sistemas operacionais, explica suas funções e como eles gerenciam recursos. Também descreve arquiteturas cliente-servidor e peer-to-peer, além de servidores dedicados e não-dedicados.
O documento discute as características do JBoss AS 7, incluindo sua arquitetura redesenhada para iniciar recursos de forma concorrente e em menos de 2 segundos, seus perfis Java EE 6 certificados, e novos recursos como arquitetura pronta para nuvem, ferramentas de gerenciamento aprimoradas e balanceamento de carga inteligente usando o Mod Cluster.
Apresentacao Blue Solutions - Armazenamento Simplificado de Alta PerformanceBlue Solutions
O documento discute soluções de armazenamento simplificado e de alto desempenho, comparando o armazenamento tradicional versus moderno. Ele descreve os desafios do armazenamento legado, como volumes presos a discos específicos, e como as soluções virtualizadas oferecem balanceamento de carga automático e expansão flexível de recursos.
O documento discute como a performance afeta métricas como receita, taxas de cliques e satisfação do usuário. Ele mostra que atrasos de 50ms a 2000ms no carregamento de páginas podem reduzir essas métricas em até 4,4%. O documento também fornece dicas para melhorar o desempenho, como usar cache, compactar arquivos, otimizar requisições de rede e carregar scripts no final da página.
O documento descreve os conceitos básicos de automação industrial utilizando controladores lógicos programáveis (CLP). Apresenta o que é automação e como surgiu o CLP, definindo-o como um equipamento eletrônico especializado para controle e monitoramento de processos industriais através de programas. Detalha também aspectos do hardware, software, linguagens de programação e conceitos relacionados a variáveis e blocos de usuários em CLPs.
O documento discute a automação do data center da empresa, incluindo o deploy de servidores, gerenciamento de configuração, administração centralizada, monitoração e integração utilizando ferramentas como Puppet, Cobbler, Collectd, Nagios, Func e Control Station.
O documento discute vários aspectos que afetam o desempenho de aplicações web, como cache, threads, SQL, rede, front-end e HTTP requests. Ele também fornece dicas sobre como melhorar o desempenho, como usar cache, bundles, sprites, lazy load e otimizar arquivos CSS e JS.
O JobScheduler é uma ferramenta que proporciona a gestão de tarefas automatizadas, controlando sua execução, periodicidade, dependência e criticidade. Além disso possui interfaces gerenciais que facilitam o acompanhamento e gestão dos usuários responsáveis pela produção, log das execuções e aplicações.
Os principais tipos de tarefas executadas são:
- Aplicações Windows (.exe, .com, .bat)
- Aplicações Unix/Linux (.sh)
- Procedures (interface para seleção no banco e configuração de parâmetros)
- Tarefas Java
- EJB3 em servidor de aplicação
- Macros: robôs de interação com telas de aplicações Web ou Desktop.
Sempre buscando atuar com inteligência na área de desenvolvimento, como DevOps, arquiteto, líder de projeto e desenvolvedor fullstack, sempre visando a melhor implementação (tecnologia certa para a tarefa certa), análise de custo benefício, eficiência, arquitetura macro de serviços, fluxograma de desenvolvimento, automatização de tarefas e controle de qualidade e principalmente valor ao negócio.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
1. O documento descreve relatórios sobre tipos de sistemas operacionais e gerenciamento de processos e threads.
2. É analisado o Windows Server 2012, sistemas Linux para servidores e estações de trabalho, sistemas Android e iOS para smartphones e tablets.
3. Também são descritos conceitos como processos, threads, PCB e atividades práticas realizadas no simulador SOsim sobre gerenciamento de processos.
Performance e disponibilidade ‐ Um estudo de caso: website dos CorreiosAlex Hübner
[1] O documento descreve uma estratégia implementada para melhorar o desempenho e disponibilidade de um site institucional dos Correios que rodava no ColdFusion. [2] A estratégia envolveu duplicar as instâncias do ColdFusion em cada servidor para melhor aproveitar os recursos, otimizar configurações do servidor e do banco de dados, e estabelecer rotinas de reciclagem noturna. [3] As mudanças permitiram dobrar a capacidade do ambiente existente sem necessidade de novos servidores.
O documento descreve o que são autómatos programáveis e sua funcionalidade, substituindo a lógica de relés por uma lógica armazenada em memória. Discutem as principais vantagens dos autómatos programáveis em relação aos painéis de relés, como redução de custos, facilidade de programação e configuração. Também menciona que a GM desenvolveu o primeiro autómato programável na década de 1960 para automatizar linhas de montagem.
O documento discute como empresas grandes podem reduzir custos com mainframes mantendo desempenho, disponibilidade e segurança. Ele descreve novas tecnologias mainframe como zIIP, zEDC e SMT-2 que reduzem custos de hardware e software, e iniciativas como MWP que barateiam cargas móveis. O documento conclui que mainframes continuam sendo aliados de empresas para crescimento com redução de custos graças a melhorias contínuas.
Especificação de plataforma DaaS para laboratórios de informática Demis Gomes
Esta apresentação resume o período de trabalho entre 2014-2015 financiado pela FACEPE, no qual buscamos entender como uma plataforma DaaS poderia ser modelada para a aplicação em laboratórios de informática.
Esta apresentação foi mostrada na Jornada de Iniciação Científica da FACEPE, no dia 11 de julho de 2015.
Sistema Operacional de Tempo Real(vx works)Jose Silva
01. O documento descreve uma pesquisa sobre o sistema operacional de tempo real VxWorks.
02. VxWorks é um sistema operacional de tempo real desenvolvido pela Wind River Systems que permite a execução de múltiplas tarefas em tempo real através de escalonamento preemptivo.
03. A pesquisa descreve a arquitetura do VxWorks, incluindo seus recursos básicos como manuseio de tarefas, memória e comunicação entre tarefas.
Semelhante a WLM-Managed Batch por João Silva (20)
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
This document discusses novelties in z/OS 2.4 and z14 GA2, including enhancements to application development and cloud computing. It introduces buzzwords from the past like OO and ERP that are now outdated, and new buzzwords like cloud, analytics, and microservices. Specific z/OS and hardware enhancements described include 25GbE for OSA and RoCE, crypto enhancements, dynamic I/O configuration for standalone CFs, asynchronous cache cross-invalidation, and HMC enhancements. The document ends with a debate between the presenters on whether new application development approaches will deliver continuous availability, data integrity and performance in production environments.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Marcus Vinicius Bittencourt é um especialista em Data Platform e SQL Server com 4 prêmios MVP. O documento discute cybercrime, brechas de segurança e demonstra como um atacante pode acessar uma rede corporativa e explorar falhas de segurança no SQL Server para escalar privilégios.
O documento descreve a jornada de definição da estratégia de nuvem de um banco brasileiro. O processo envolveu análises técnicas e estratégicas das aplicações, provedores de nuvem e cenários de migração, com o objetivo de identificar as aplicações ideais para a nuvem e os melhores caminhos de migração. A estratégia definida prioriza o uso de nuvem para novos projetos e estima potencial de até 40% das aplicações existentes migrarem para a nuvem.
O documento fornece uma visão geral da área de Ciência de Dados, discutindo como a tecnologia está transformando as profissões e a necessidade de atualização contínua. Também explica conceitos-chave da Ciência de Dados como descritivo, diagnóstico, preditivo e prescritivo e como esses conceitos são aplicados usando algoritmos e machine learning.
The document discusses several new capabilities and enhancements being introduced in z/OS V2.4, including z/OS Container Extensions to enable running Linux containers alongside z/OS applications, 25GbE support for OSA and RoCE, asynchronous cache cross-invalidation to improve performance, and policies to simplify customizing JES2 without assembler exits. It also mentions continued efforts to drive pervasive encryption and support for additional data analytics capabilities.
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
O documento discute boas práticas de programação para melhorar a qualidade e performance de códigos. Ele aborda tópicos como comentários, nomes de variáveis, identação, testes, uso de loops, arrays e funções de forma otimizada. O documento argumenta que seguindo essas práticas recomendadas é possível desenvolver software mais eficiente e de fácil manutenção.
O documento discute a tokenização de ativos e novas linhas de negócios. Ele aborda como empresas como a Microsoft estão apostando na tokenização de ativos usando blockchain e como seguradoras veem grandes oportunidades no armazenamento e cobertura de criptomoedas. Também menciona como a tokenização pode ajudar a combater a pobreza global e a poluição dos oceanos.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
O documento discute a solução Eccox Application for Parallel Testing (APT) da Eccox Technology. Em três frases: A APT fornece ambientes de teste isolados no mainframe para permitir testes paralelos, clonando recursos como bancos de dados e arquivos. Isso permite que vários usuários executem testes simultaneamente sem conflitos, reduzindo custos com infraestrutura e horas-homem. A solução também gera dados de teste sintéticos para apoiar cenários de teste isolados.
O documento descreve como o Banco de Brasília implementou uma solução de balanceamento dinâmico para melhorar a gestão da capacidade e desempenho de seu ambiente mainframe IBM ZOS. A solução otimizou o uso dos recursos, reduziu custos com software e adiamento de hardware, com retorno de investimento em 5 meses.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
O documento discute a pervasive encryption no IBM Z, que permite a criptografia transparente e em massa de dados em repouso para simplificar a proteção de dados e o cumprimento de normas regulatórias. A pervasive encryption criptografa automaticamente todos os dados em repouso usando chaves gerenciadas pelo sistema, de forma transparente para as aplicações. Isso protege dados em vários níveis, incluindo VSAM, DB2, IMS e logs, entre outros, sem impactar o desempenho.
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
O documento discute Infraestrutura como Código (IaC) e como ele pode ser usado para automatizar infraestrutura em nuvem de forma segura e consistente. Ele explica os benefícios do IaC, como aumentar a produtividade das equipes, permitir mudanças contínuas e melhorias incrementais. Também aborda desafios como deriva de configuração e ferramentas IaC populares como Terraform.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
4. Objetivo do Projeto “ Utilizando as facilidades do WLM , auxiliar no cumprimento do cronograma batch, direcionando e balanceando dinamicamente os jobs entre os sistemas, e racionalizando a utilização de recursos “
5.
6. Shared Spool A C SYSPLEX E F D MAS1 B PCP & Shared Spool I MAS2 H J G Shared Spool
7.
8.
9. J E S2 WLM J E S 2 WLM JES2 Managed Initiators B C A F E D CPU 100% CPU 100% SHARED SPOOL
10.
11.
12.
13.
14. J E S2 WLM J E S 2 WLM WLM Managed initiators B C A F E D SHARED SPOOL CPU 100% CPU 100%
21. Grato pela atenção! Banco Itaú João Dias de Carvalho Neto (011)3274-9054 [email_address]
Notas do Editor
Nos dias de hoje concluir o processamento batch dentro de uma janela cada vez menor devido ao crescimento do segmento online tornou-se um desafio. Este artigo tem por objetivo divulgar a todos os envolvidos com processamento batch centralizado em plataformas mainframe, as experiências dos analistas do Itaú na implementação de processos que reduzissem o tempo necessário para cumprir os SLAs.
Nos dias de hoje por razões de disponibilidade que se tornaram obvias, o período do dia destinado a transações online tem aumentado constantemente. Esta disponibilidade que tende a ser 24x7 tem afunilado cada vez mais a janela destinada ao processamento Batch, com isto cumprir os SLAs dentro desta janela passou a ser um desafio. Como distribuir os jobs pelas diferentes partições de um sysplex? O que fazer caso um cancelamento de programa atrasar todo um cronograma? E se um sistema parar? Em situações normais, para se controlar e planejar a distribuição dos jobs é necessário um forte envolvimento de pessoas. Em situações de problemas, certamente este envolvimento será ainda maior, e assim como em situações normais, sujeito a erros.
No sentido de otimizar ao máximo a execução dos jobs, e reduzir ao mínimo problemas que impactem o cumprimento dos SLAs, em nossa instalação optamos por utilizar as facilidades do WLM. O objetivo é auxiliar no cumprimento do cronograma batch, direcionando e balanceando dinamicamente os jobs entre os sistemas, e racionalizando a utilização de recursos.
Na década de 80 teve início uma explosão no portifólio de serviços disponíveis automaticamente aos usuários, e com isso houve um conseqüente aumento no volume de processamento batch que passou a ter sua maior parte executada no período noturno. O volume imenso de jobs a ser submetido não podia mais ficar sob responsabilidade do ser humano, este controle se tornou fisicamente impossível para o homem. Neste ponto surgiram os softwares especializados em Planejamento de Controle de Produção (PCPs). Estas facilidades baseian-se num fluxograma previamente planejado e a partir das condições de predecessores e sucessores os jobs são submetidos aos sistemas ou a um determinado sistema. Outra facilidade disponibilizada foi a utilização de um único Spool para centralizar os jobs que aguardam execução, criando os ambientes multi-access spool (MAS). Desta forma através de ciclos de tempo cada sistema de um ambiente MAS tem o controle do Spool, podendo selecionar os jobs para execução. Esta facilidade é denominada Shared Spool.
Dentro de um ambiente Sysplex, podemos ter vários membros MAS, e dentro de cada MAS um ou mais PCPs.
O primeiro passo no caminho da distribuição dinâmica de jobs foi a classificação destes em classes afins. Neste trabalho foram contemplados em torno de 130.000 jobs que foram agrupados basicamente em função do recurso necessário para sua execução (DB2, IMS, MQSERIES, HPU, etc...). Associados à estes diferentes grupos foram criados cartões de controle para o PCP, desta forma os jobs eram direcionados aos sistemas que possuem os recursos.
Quando os jobs são carregados no SPOOL, estes são associados a uma determinada classe de execução (JOBCLASS). Se estamos trabalhando com initiators JES2 Managed, estes estão previamente definidos na JES2PARM (INITDEF), e podem ser started em tempo de IPL ou posteriormente através de comando de JES (operação ou automação). Importante é que para um job ser executado deve existir disponível um initiator que atenda esta classe. Até ocorrer a implementação do ambiente MAS, nossos jobs eram direcionados para um determinado sistema através do cartão /*XEQ que direcionava o job para o node que representa um sistema especifico. O direcionamento dos jobs para um MAS é feito via cartão controle através de /*XEQ e para um sistema específico soma-se o cartão /*JOBPARM SYSAFF
Com esta modalidade de submissão, os jobs são incondicionalmente destinados a um sistema dentro de um SYSPLEX. Esta metodologia tem por inconveniente que um job pode ser direcionado para uma máquina que esteja super utilizada e neste caso poderá sofrer delay por CPU ou periféricos, que resultarão em atraso no cumprimento do SLA.
Em resumo ao trabalhamos com initiators JES2 managed, a distribuição do workload entre os sistemas se torna trabalhosa por ser manual em quase sua totalidade e por isso de difícil percepção de gargalos, mais propensa a erros e conseqüente risco de atraso em SLAs.
Se estamos trabalhando em ambiente MAS, mesmo utilizando initiators JES2 managed podemos definir logicamente “recursos” para o WLM a fim de direcionar um job para um dos sistemas onde os “recursos” necessários (IMS, DB2, CICS, outros) para sua execução estejam disponíveis. A uma combinação destes “recursos” denominamos Scheduling Environments, e estes são identificados no JCL através da keyword SCHENV. Esta facilidade é denominada RAS (Resource Availability Scheduling). Porém sempre existe um trabalho grande de retaguarda para explorarmos estas facilidades, e que neste caso consiste do conhecimento de sua carga batch, seus SLAs e suas prioridades, para desta forma criar uma definição adequada de “recursos”. Quanto melhor definidos e associados estes “recursos” mais eficaz será o trabalho do WLM.
Com estas facilidades podemos garantir que um job somente será executado em um dos sistemas onde os “recursos” necessários para sua execução estejam disponíveis. Outro ponto a ser lembrado é a utilização de facilidades como System Automation, para variar automaticamente os “recursos” ON ou OFF ou RESET imediatamente após o IPL. Ou colocar um “recurso” OFF quando um produto “cai” ou ON quando este é reativado.
Se estamos trabalhando em ambiente MAS e initiators WLM managed, estes não estarão previamente definidos na JES2PARM (INITDEF) e somente serão disponibilizados quando um ou mais jobs chegarem para ser executados. Estes jobs serão direcionados para qualquer dos sistemas que possuam o scheduling environment disponível até que um deles atinja mais que 95% de utilização, ou o PI da service class não esteja sendo alcançado. Neste caso o WLM não direciona mais jobs para este sistema, procurando outro com menor carga.
Esta capacidade de direcionamento para outro ambiente com menor carga, promove a distribuição dinâmica e redirecionamento automático de jobs, reduzindo a probabilidade de erros e o maior cumprimento dos SLAs.
Starting Initiators Os jobs que executarão em inititators WLM managed, são associados a classe de execução cuja jobclass na SYS1.PARMLIB esteja como MODE=WLM. Neste caso o WLM executará a proc existente na SYS1.PROCLIB(INIT) e o initiator será aberto. Importante ressaltar que este initiator será fechado caso não seja mais necessário, diferentemente dos initiators JES2 managed que ficam abertos até que seja emitido um comando para fechá-lo. Em caso de submissão massiva de jobs, deve-se alertar que novos initiators são abertos de 5 em 5 a cada 10 segundos (ciclo do WLM). A quantidade máxima de initiatos pode ser fixada especificando MAXIMUM na jobclass associada, ou quanto atingir o MAXUSER do sistema (SYS1.PARMLIB(IEASYSxx). Outro caso específico é o release no job via comando de operação. Não é possível abrir initiators WLM managed via comando de operação. Stopping Initiators Conforme comentamos um initiator WLM managed não permanece aberto indefinidamente. Quando o WLM detectar que o número de inits WLM abertos é 1,5 vez maior que a fila de jobs aguardando execução ele inicia um processo de fechar os initiatos excedentes. Outra situação é quando os goals da service class associada a estes jobs não estiver sendo atingido por falta de memória ou processador. Neste caso o WLM também procederá o close dos initiatos. Não é possível fechar estes initiators via comando de operação.
Forcing Immediate Initiation Quando um job necessita ser executado em uma máquina específica, e esta não tem recursos disponíveis, o WLM não iniciará este processamento. O job ficará aguardando até que haja disponibilidade de recursos ou até que o job seja liberado via comando de operação. Este é o único caso possível de se forçar o start de initiator WLM managed. Job Class Limit Existe a possibilidade de se limitar o número de jobs processados em uma determinada classe através do parâmeto XEQCOUNT=MAXIMUM=* especificado na JES2PARM. É bom lembrar que esta definição é valida para todo o ambiente MAS. Outro limite ocorre quanto atingir o MAXUSER do sistema (SYS1.PARMLIB(IEASYSxx)).
Benefícios Hoje com o balanceamento sendo gerenciado pelo WLM, os jobs são direcionados para scheduling environments específicos, e quando existe alta utilização de CPU ou memória em um sistema, o WLM direciona automaticamente os jobs para outra máquina com maior disponibilidade de recursos, proporcionando uma distribuição rápida e segura. Este ganho reflete-se em vários pontos, porém um dos que vale ressaltar é no wait por CPU. Antes quando um job era direcionado para um sistema independentemente deste ter ou não recursos para atender a demanda, o tempo que este job permanecia em wait por CPU ou mesmo memória era muito maior do que os tempos hoje observados, pois como o WLM direciona os jobs para ambiente onde existem recursos disponíveis os jobs não sofrerão tanto delay. Em resumo, o tempo em que o job espera para ser direcionado para outro sistema é muito menor que a soma dos waits que ele teria se não fosse remanejado. Com isto podemos garantir uma melhor fluidez de processamento e consequentemente o cumprimento mais rápido dos SLAs acordados, sem necessidade de priorização de jobs..
Outro grande ganho observado, foi com relação a manutenção em softwares específicos (DB2; IMS; HPU) nesta situação pode-se inibir antecipadamente a execução de jobs que utilizarem este recurso apenas configurando OFF o Recurso associado ao software. Também quando é necessário entregar uma máquina para manutenção, neste caso definimos um recurso genérico denominado “System” e que faz parte de todos os scheduling environments, quando este recurso é colocado OFF em um determinado sistema a partir deste momento nenhum job WLM managed será iniciado nesta máquina. Aferição A aferição de ganhos quando se utilizando distribuição de batch via initiators WLM managed pode ser feita de várias maneiras, porém para isto é importante termos dados históricos, semelhantes a média de wait por job; quantidade de remanejamento de jobs entre sistemas; número de vezes que os SLAs são atendidos dentro do tempo combinado. gráficos com perfil de utilização de recursos, etc... Tempos de wait aguardando initiators WLM podem ser obtidos em relatórios de workload do RMF
Conclusão Hoje em nossa instalação, em torno de 80% dos jobs batch processados estão associados a classe de initiator WLM Managed. Os benefícios resultantes desta associação foram significativos, principalmente em períodos que chamamos de fechamento (quando ocorre o maior período de tempo executando grande quantidade de jobs em paralelo). Antes de explorar o balanceamento via WLM, era necessário que analistas de produção ficassem alocados apenas para remanejar jobs entre os sistemas, e em virtude deste remanejamento englobar muitos jobs, o resultado obtido nem sempre era satisfatório. A utilização efetiva de balanceamento de carga batch via initiator WLM Managed, nos trouxe ganhos significativos em termos de gerenciamento e distribuição de recursos para concluirmos o maior número de jobs no menor tempo possível. O importante é que este tipo de implementação seja feita de forma escalonada, fazendo-se aferições a cada etapa até chegarmos ao tunning fino no final do projeto.
A fim de complementar informações que não tenham sido focadas em sua totalidade, ou qualquer outra dúvida, nos colocamos a disposição através de: e-mail = joão.carvalho-neto@iitau.com.br