O documento discute o papel do VSAM em aplicações bancárias e de cartões de crédito, e afirma que o VSAM não é usado em aplicativos do Tribunal de Contas da União. Também fornece conselhos sobre organização de dados, desempenho e funções do VSAM.
Palestrante: Álvaro Guimarães Salla - MAFFEI
Fascina-me a frase: “As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje”. Veja, por exemplo, na política brasileira... Lembro-me, ainda jovem (sim, eu o fui), mostrando às pessoas do Banco do Brasil (mais jovens ainda), recém-chegadas das agências, que computador não era um cérebro eletrônico. O ano que estávamos (ou ele que estava?) era 1.969. Depois de alguma falsa erudição, eu concluía sem brilhantismo, a meio do pasmo geral, que uma CPU não pode executar dois programas ao mesmo tempo. Após algum sofrimento causadopelosconceitosnovos,aideiaeraentendidaesetransformavaemverdadeeternaesólida. Anosmais tarde, o primeiro MP65 com as suas duas corpulentas CPUs. Os mesmos alunos e toca a explicar como garantir a integridade dos dados compartilhados por elas na memória. Eu dizia enfático: “Isso é uma responsabilidade do sistema operacional, implementado via locks e latches”. Mais uma verdade eterna e sólida se construía e era enfiada goela abaixo da anoréxica plateia. But, time went by... Então, no dia 18 de Maio próximo, esta pessoa que vos escreve (agora bem velha), irá subir ao púlpito do CMG para humildemente repetir a frase inicial deste texto e depois dizer: “Sim senhores (as), a função Simultaneous Multithreading do z13 nega a primeira eterna e sólida verdade e a função Transactional Execution Facility (zEC12 e z13) nega a segunda eterna e sólida verdade”. No passado, terminei chamadas para o CMG como esta, com o lugar comum: “Não Perca”... Agora, não sei... Talvez eu diga “Perca...”, mas ao menos você sabe o que estará deixando de ganhar, isto é, mais duas eternas e sólidas verdades...
Esta apresentação tem como objetivo enfatizar a evolução tecnológica da plataforma mainframe com a implementação de novos recursos que permitem aumentar a eficiência do processamento com segurança, integridade, e redução de custo. Conheçam a revolução de se ganhar até 40% da capacidade de um processador utilizando simultaneous multi-threading em máquinas de última geração.
Em 14 de Janeiro a IBM anunciou a z13, sucessora da zEC12. Em termos de Performance, o que se poderá esperar de suas novas “features” e de seus novos “parâmetros”? #1=Mais Processadores, Mais Memórias, Mais SubSistemas de Canal, muito Maior Aggregate Data Rate: Que significará tudo isso? #2=Menor GHz, porém Mais Instruções em Paralelo e SMT para zIIP e IFL (só mais tarde será anunciada para os Processadores Gerais=CPUs). #3=Afinal, o que é SMT = Simultaneous Multi Threading? O que se espera “ganhar” e o que se pode “perder”? (Experiências em outras Plataformas) #4=Variabilidade: Sempre foi perigoso ignorá-la, será inútil tentar esquecê-la, uma vez que reflete diretamente na Contabilização de Recursos!#5=Eterno Dilema: Melhor atender todo mundo com o mínimo de Recursos, demore o que demorar, ou atender a maioria, custe o que custar? Não se pode ter ambos! #6=Conclusões (se é que já se pode concluir algo, sem ter feito BenchMarks...): As Equações continuam as mesmas, só mudaram ligeiramente alguns Coeficientes...
Palestrantes: Daniel Segabinazzi - T-Systems e Jose Luiz Filho - Fidelity
Cloud Computing is a reality and a decisive factor not only for Business Continuity but for competitiveness in such way to leave less competitive that organization that deny the use of this technology. This article has an objective to treat this new vision about IT as a service guarantees data integrity using technology for its safeguard. Specific in cases of data corruption or virus propagation in all Sites of Data replication
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Análise e uso de qualidade de serviço em uma rede de automação com uso de um sistema supervisório (SCADA) em um ambiente de transporte considerando a analise de tráfego e rede de automação de um sistema supervisório (SCADA) assim como, propor o uso de qualidade de serviço em uma rede de automação adaptando a RFC 4594. Características de volume de tráfego, latência da rede e das aplicações são avaliadas neste trabalho
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
Avaliação de arquiteturas de uma solução de Backup na NuvemKleber Silva
Nessa apresentação iremos analisar a evolução e pré-requisitos dos Backups corporativos, avaliando as diferenças das arquiteturas disponíveis de Backup com armazenamento na Nuvem, para definir melhores práticas de desempenho e capacidade para a implementação de uma solução para empresas
O entendimento do uso da memória hierárquica no Mainframe, na última década, foi de coadjuvante a protagonista nas discussões dos profissionais de Planejamento de Capacidade e Performance Mainframe.
Neste estudo iremos abordar a importância dos já famosos, mas nem sempre compreendidos termos como Relative Nest Intensity (RNI), Cycle Per Instructions (CPI), L1 Miss, LSPR Workload Classification, HIS, CPU MF entre outros.
Alvaro Guimaraes Salla - sala@maffei.com.br
Senhores.
Uma lembrança, já perdida nas dobras do meu tempo. Na época, para se responder à esperta pergunta sobre a utilização da CPU, olhávamos sem piscar, para frequência com a qual a lampadinha de Wait no painel do computador piscava. E vinha a resposta de timbre seguro, não longe da verdade: “uns 70%, minha senhora”.
Na era do DevOps, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudanças e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-Cloud. O termo "Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir esforço operacional mas também poder compartilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastruscture as a Code" assim como o seu potencial para cenários Multi-Cloud.
A coexistência de LPARs em um único CEC pode apresentar vantagens como utilização eficiente de recursos (CPU e canais), quantidade reduzida de CEC (consequentemente de energia, refrigeração e espaço físico), além de manter um único ponto de gerenciamento. O estudo em questão tem como objetivo mostrar o planejamento e quais ferramentas utilizadas no processo de consolidação de 2 CECs em um único CEC, e qual o impacto na performance pós consolidação, com foco na utilização dos processadores e suas estruturas de cache.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
Nesta sessão iremos entender o funcionamento e características da implementação do Always On Availability Group e Cluster. Por que aderir e quais os benefícios do recurso em comparação com Failover Cluster Instance. Como ampliar a alta disponibilidade do meu ambiente e os principais cuidados que devemos ter na implementação. Quando devemos e quando esta funcionalidade é um bom recurso, qual arquitetura para implementação e as melhores práticas para administração e manutenção de ambientes com Availability Group.
A definição da estratégia de cloud do Banco Votorantim e da BV não foi uma iniciativa isolada da TI; ela envolveu e ainda envolve praticamente toda a organização. Seu objetivo visa buscar o modelo mais adequado para a adoção mais massiva no uso de cloud. O trabalho que vem sendo realizado desde 2017 definiu um método que considera as características das aplicações, as questões de governança e também o posicionamento dos fornecedores de cloud no Brasil através de análises Top-Down e Bottom-Up. O uso da estratégia cloud tem por objetivo a maior eficiência operacional, a agilidade na implementação da solução, a otimização dos recursos de infraestrutura e também a escalabilidade necessária para a aplicação de acordo com cada momento de uso, sem deixar de avaliar o investimento já realizado no passado, assim como o perfil da aplicação.
Entenda o que é Ciência de Dados sem precisar se aprofundar muito em conceitos teóricos, aprendendo quais tipos de problemas as técnicas e ferramentas desta disciplina ajudam a resolver. Entenda também quais são os primeiros passos para ingressar nesta área.
Mais um release do z/OS vem ao lume, agora o aguardado V2.R4.... Saia na frente assistindo esta supimpa palestra, e por aprender os seus conceitos e antecipadamente receba em troca a admiração ( e inveja) de seus pares quando de volta a sua baia, no caso já ocupada (modernamente) por um outro par. . Polvilhado do futuro (copiado do passado) como: , Microservices, Data Mining, Docker, Container, Devops, Microservices, aluguel de APls, JSON data streams (what a hell!!!), que teremos que deglutir goela abaixo. Por outro lado, haverá melhoras em itens mais concretos e inteligíveis como: . Uso dos novos algoritmos de crypto no CPACF para symmetric cipher and MAC. . Melhora no logging throughput devido ao IBM HyperWrite data replication support . . Agora RMF™ reports apresentam melhores informações de desempenho sobre IBM zHyperLink, que espero já tenha gente ativando (e comprando). . z/OSMF provendo mais availability e flexibility principalmente para suas funções de Sysplex. . DFSORT finalmente vai explorer System zHigh Performance FICON® (zHPF) abandonando o velho BSAM. . Kick Off definitivo do Container Pricing.... hurraahhh. . Diminuiçao no número de exits em Assembler. . More Data Analytics Applications. . Pervasive Encryption para datasets PDSE e JES2 Spool. . Melhoras no RACF, como se isso ainda fosse possível...... Hehehehehehe . Em inglês: "z/OS platform software installation improvements". . Melhoras no WA. . E muito mais..... Vai ser bom estarmos juntos novamente, principalmente porque não sabemos por quanto....
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
Palestrante: Álvaro Guimarães Salla - MAFFEI
Fascina-me a frase: “As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje”. Veja, por exemplo, na política brasileira... Lembro-me, ainda jovem (sim, eu o fui), mostrando às pessoas do Banco do Brasil (mais jovens ainda), recém-chegadas das agências, que computador não era um cérebro eletrônico. O ano que estávamos (ou ele que estava?) era 1.969. Depois de alguma falsa erudição, eu concluía sem brilhantismo, a meio do pasmo geral, que uma CPU não pode executar dois programas ao mesmo tempo. Após algum sofrimento causadopelosconceitosnovos,aideiaeraentendidaesetransformavaemverdadeeternaesólida. Anosmais tarde, o primeiro MP65 com as suas duas corpulentas CPUs. Os mesmos alunos e toca a explicar como garantir a integridade dos dados compartilhados por elas na memória. Eu dizia enfático: “Isso é uma responsabilidade do sistema operacional, implementado via locks e latches”. Mais uma verdade eterna e sólida se construía e era enfiada goela abaixo da anoréxica plateia. But, time went by... Então, no dia 18 de Maio próximo, esta pessoa que vos escreve (agora bem velha), irá subir ao púlpito do CMG para humildemente repetir a frase inicial deste texto e depois dizer: “Sim senhores (as), a função Simultaneous Multithreading do z13 nega a primeira eterna e sólida verdade e a função Transactional Execution Facility (zEC12 e z13) nega a segunda eterna e sólida verdade”. No passado, terminei chamadas para o CMG como esta, com o lugar comum: “Não Perca”... Agora, não sei... Talvez eu diga “Perca...”, mas ao menos você sabe o que estará deixando de ganhar, isto é, mais duas eternas e sólidas verdades...
Esta apresentação tem como objetivo enfatizar a evolução tecnológica da plataforma mainframe com a implementação de novos recursos que permitem aumentar a eficiência do processamento com segurança, integridade, e redução de custo. Conheçam a revolução de se ganhar até 40% da capacidade de um processador utilizando simultaneous multi-threading em máquinas de última geração.
Em 14 de Janeiro a IBM anunciou a z13, sucessora da zEC12. Em termos de Performance, o que se poderá esperar de suas novas “features” e de seus novos “parâmetros”? #1=Mais Processadores, Mais Memórias, Mais SubSistemas de Canal, muito Maior Aggregate Data Rate: Que significará tudo isso? #2=Menor GHz, porém Mais Instruções em Paralelo e SMT para zIIP e IFL (só mais tarde será anunciada para os Processadores Gerais=CPUs). #3=Afinal, o que é SMT = Simultaneous Multi Threading? O que se espera “ganhar” e o que se pode “perder”? (Experiências em outras Plataformas) #4=Variabilidade: Sempre foi perigoso ignorá-la, será inútil tentar esquecê-la, uma vez que reflete diretamente na Contabilização de Recursos!#5=Eterno Dilema: Melhor atender todo mundo com o mínimo de Recursos, demore o que demorar, ou atender a maioria, custe o que custar? Não se pode ter ambos! #6=Conclusões (se é que já se pode concluir algo, sem ter feito BenchMarks...): As Equações continuam as mesmas, só mudaram ligeiramente alguns Coeficientes...
Palestrantes: Daniel Segabinazzi - T-Systems e Jose Luiz Filho - Fidelity
Cloud Computing is a reality and a decisive factor not only for Business Continuity but for competitiveness in such way to leave less competitive that organization that deny the use of this technology. This article has an objective to treat this new vision about IT as a service guarantees data integrity using technology for its safeguard. Specific in cases of data corruption or virus propagation in all Sites of Data replication
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Análise e uso de qualidade de serviço em uma rede de automação com uso de um sistema supervisório (SCADA) em um ambiente de transporte considerando a analise de tráfego e rede de automação de um sistema supervisório (SCADA) assim como, propor o uso de qualidade de serviço em uma rede de automação adaptando a RFC 4594. Características de volume de tráfego, latência da rede e das aplicações são avaliadas neste trabalho
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
Avaliação de arquiteturas de uma solução de Backup na NuvemKleber Silva
Nessa apresentação iremos analisar a evolução e pré-requisitos dos Backups corporativos, avaliando as diferenças das arquiteturas disponíveis de Backup com armazenamento na Nuvem, para definir melhores práticas de desempenho e capacidade para a implementação de uma solução para empresas
O entendimento do uso da memória hierárquica no Mainframe, na última década, foi de coadjuvante a protagonista nas discussões dos profissionais de Planejamento de Capacidade e Performance Mainframe.
Neste estudo iremos abordar a importância dos já famosos, mas nem sempre compreendidos termos como Relative Nest Intensity (RNI), Cycle Per Instructions (CPI), L1 Miss, LSPR Workload Classification, HIS, CPU MF entre outros.
Alvaro Guimaraes Salla - sala@maffei.com.br
Senhores.
Uma lembrança, já perdida nas dobras do meu tempo. Na época, para se responder à esperta pergunta sobre a utilização da CPU, olhávamos sem piscar, para frequência com a qual a lampadinha de Wait no painel do computador piscava. E vinha a resposta de timbre seguro, não longe da verdade: “uns 70%, minha senhora”.
Na era do DevOps, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudanças e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-Cloud. O termo "Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir esforço operacional mas também poder compartilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastruscture as a Code" assim como o seu potencial para cenários Multi-Cloud.
A coexistência de LPARs em um único CEC pode apresentar vantagens como utilização eficiente de recursos (CPU e canais), quantidade reduzida de CEC (consequentemente de energia, refrigeração e espaço físico), além de manter um único ponto de gerenciamento. O estudo em questão tem como objetivo mostrar o planejamento e quais ferramentas utilizadas no processo de consolidação de 2 CECs em um único CEC, e qual o impacto na performance pós consolidação, com foco na utilização dos processadores e suas estruturas de cache.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
Nesta sessão iremos entender o funcionamento e características da implementação do Always On Availability Group e Cluster. Por que aderir e quais os benefícios do recurso em comparação com Failover Cluster Instance. Como ampliar a alta disponibilidade do meu ambiente e os principais cuidados que devemos ter na implementação. Quando devemos e quando esta funcionalidade é um bom recurso, qual arquitetura para implementação e as melhores práticas para administração e manutenção de ambientes com Availability Group.
A definição da estratégia de cloud do Banco Votorantim e da BV não foi uma iniciativa isolada da TI; ela envolveu e ainda envolve praticamente toda a organização. Seu objetivo visa buscar o modelo mais adequado para a adoção mais massiva no uso de cloud. O trabalho que vem sendo realizado desde 2017 definiu um método que considera as características das aplicações, as questões de governança e também o posicionamento dos fornecedores de cloud no Brasil através de análises Top-Down e Bottom-Up. O uso da estratégia cloud tem por objetivo a maior eficiência operacional, a agilidade na implementação da solução, a otimização dos recursos de infraestrutura e também a escalabilidade necessária para a aplicação de acordo com cada momento de uso, sem deixar de avaliar o investimento já realizado no passado, assim como o perfil da aplicação.
Entenda o que é Ciência de Dados sem precisar se aprofundar muito em conceitos teóricos, aprendendo quais tipos de problemas as técnicas e ferramentas desta disciplina ajudam a resolver. Entenda também quais são os primeiros passos para ingressar nesta área.
Mais um release do z/OS vem ao lume, agora o aguardado V2.R4.... Saia na frente assistindo esta supimpa palestra, e por aprender os seus conceitos e antecipadamente receba em troca a admiração ( e inveja) de seus pares quando de volta a sua baia, no caso já ocupada (modernamente) por um outro par. . Polvilhado do futuro (copiado do passado) como: , Microservices, Data Mining, Docker, Container, Devops, Microservices, aluguel de APls, JSON data streams (what a hell!!!), que teremos que deglutir goela abaixo. Por outro lado, haverá melhoras em itens mais concretos e inteligíveis como: . Uso dos novos algoritmos de crypto no CPACF para symmetric cipher and MAC. . Melhora no logging throughput devido ao IBM HyperWrite data replication support . . Agora RMF™ reports apresentam melhores informações de desempenho sobre IBM zHyperLink, que espero já tenha gente ativando (e comprando). . z/OSMF provendo mais availability e flexibility principalmente para suas funções de Sysplex. . DFSORT finalmente vai explorer System zHigh Performance FICON® (zHPF) abandonando o velho BSAM. . Kick Off definitivo do Container Pricing.... hurraahhh. . Diminuiçao no número de exits em Assembler. . More Data Analytics Applications. . Pervasive Encryption para datasets PDSE e JES2 Spool. . Melhoras no RACF, como se isso ainda fosse possível...... Hehehehehehe . Em inglês: "z/OS platform software installation improvements". . Melhoras no WA. . E muito mais..... Vai ser bom estarmos juntos novamente, principalmente porque não sabemos por quanto....
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
Com a vinda da Internet, cada vez mais os sistemas são desenvolvidos para trabalhar em ambientes distribuídos, por exemplo: aplicativo web em um servidor, banco de dados em outro e assim por diante. Para que se obtenha o melhor potencial destes, é obvio que o desempenho dos ativos que o cercam têm que ser bom (servidores, ativos de redes, outros sistemas, entre outros), mas o foco principal deste artigo é o desenvolvimento do sistema em si. Desenvolver utilizando as melhores práticas de programação, aproveitar todos os recursos que as linguagens dispõem e produzir um código limpo são primordiais para que se miniminizem as falhas e se construa um sistema de qualidade; assim será possível racionar os recursos envolvidos e minimizar os custos.
Tokenização de Ativos (Asset Tokenization) é a tecnologia de conversão de ativos em uma representação digital (Token). Assim como o Bitcoin está transformando o conceito de propriedade do dinheiro, a Tokenização de Ativos vai transformar o conceito de propriedade de ativos tangíveis e/ou intangíveis. Quando representado por um Token, o ativo ganha flexibilidade, liquidez, pode ser fracionado em milhares de partes e capitalizado, abrindo um leque de oportunidades para novos modelos de negócios, além de muitos desafios técnicos e legais. Veja os fundamentos desse conceito para compreender a base dessa nova economia digital e as reflexões inerentes à mudança dos modelos e paradigmas existentes, além dos novos cuidados que esses sistemas exigem.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
Conteúdo patrocinador Eccox Technology
Diante da necessidade de melhoria na produtividade e agilidade dos processos de testes, o mercado está cada vez mais exigente com as soluções que garantem o aumento da qualidade das aplicações durante o Ciclo de Vida no Desenvolvimento, bem como auxiliam na redução de tempo e custos com testes de software. Para isso, a Eccox vem trabalhando forte e com investimento massivo na evolução da tecnologia proprietária Eccox Parallel Testing, que automatiza processos de teste, permitindo a criação de cenários de testes isolados em ambientes Mainframe, sem a necessidade de criação de novas LPARs. Seu objetivo é padronizar e facilitar os processos de testes de programas e de sistemas, transformando o acervo dos planos de testes em um patrimônio da empresa para ser reutilizado quando necessário.
Case do patrocinador 4Bear
Abril/2018, o BRB concluiu a migração de seus aplicativos da plataforma unisys libra, para a IBM zOS. Assim, os desafios de operação e gestão desse novo ambiente, em especial a utilização de hard capping, resultaram em problemas na distribuição de msu entre partições zOS e em impactos negativos nos processos operacionais e de negócios. Diante disso, a gerência de produção demandou a tarefa de avaliar uma forma de melhorar a disponibilidade dos ambientes, reduzir a degradação de performance e compartilhar os recursos entre as partições, sem habilitar novos processadores (+msu). Este documento apresenta a realização deste desafio.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
Pervasive Encryption é uma funcionalidade do zOS 2.2 e 2.3, popularizada pela nova z14. Vamos abordar: . Introdução à Pervasive Encryption . Políticas Regulamentórias e necessidades de negócio . O que deve ser criptografado? De quem é a responsabilidade? . Características básicas e suporte . Segregação de papeis . Arquivos Suportados. Métodos de acesso suportados, exceções e requisitos mínimos . Implementação de z/OS Data Set Encryption . Implementação básica de Pervasive Encryption
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
Esta palestra procurará mostrar alguns dos “detalhes internos” dos cores da z14: O Fetch, Parsing, Decode e Issue ‘Out of Order’ das instruções às suas várias Execution Units, terminando por suas retiradas ‘In Order’ nas Completion Queues, apoiando-se no z14 Technical Guide e no z14 Journal of Research and Development. Como sempre ocorre no CMG, convidamos a Otimizar Código.
O gerenciamento de serviços de TI enfrenta desafios cada vez mais crescentes devido às suas demandas e à exigência de seus clientes. O Service Desk ultrapassa o uso de ferramentas de registro de incidentes (sistemas) e robôs de atendimento. A proposta desta palestra consiste em empregar métodos ágeis em situações de crise para uma tomada de decisão eficaz com o menor tempo entre incidentes baseados na ITIL e SCRUM, a fim de reduzir retrabalho com base em: skills, métodos e atitude para solução.
Gerenciamento de TI - Métodos Ágeis por Prof. Me Valdir Morales (Faculdades O...
VSAM for EVER, por Alvaro Salla
1. Proibida cópia ou divulgação sem permissão escrita do CMG Brasil. VSAM for Ever Our MVS mature audience for Ever: “Cambridge University geneticist Aubrey de Grey believes it will soon extend dramatically to 1,000 years our life spam. He thinks that the first person to live such might be 60 already “
5. Atesto para os devidos fins que o VSAM (código honesto) não é usado pelos aplicativos do TCU para medir o custo do DNIT, CONAB, Ministério da Agricultura e assemelhados. Proibida cópia ou divulgação sem permissão escrita do CMG Brasil.
6. Choosing best organization for your data Quais os pro- cessos de recovery? Qual a melhor organização? Como garantir boa performance? E quais funções