Palestrante: Adelson Lovatto
Nesta apresentação vamos cobrir os principais conceitos de Information Lifecycle Management, desde a sua origem até os dias atuais, e apresentar maneiras de implementar este importante modelo de referência de forma a otimizar a gestão de informações e reduzir custos com a infraestrutura de armazenamento de dados.
Palestrante: Adolfo Eric Petersen
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
Palestrante: Etéocles da Silva Cavalcanti
Não é um assunto novo e nem uma novidade, mas ... modelos de filas são ferramentas importantes para os profissionais que atuam na área de Capacity Planning e estão cada vez mais inseridos em muitos produtos e ferramentas, mas ... quando modelos analíticos estão disponíveis para serem utilizados, tornam-se um problema sério pelo fato de há uma barreira quanto do seu uso e seus resultados, normalmente por falta de conhecimento, conceitos, premissas, métricas estatísticas e sobre os modelos. Esse assunto realmente tem uma complexidade teórica estatística muito alta e se entramos nos detalhes teóricos passamos a temer sobre seu uso e resultados. O objetivo é apresentar de uma forma simples e direta que modelagem analítica é ainda uma ferramenta importante e que devemos e podemos utilizá-la melhor se tivermos conhecimento melhor do seu uso e seus resultados. A simples construção de ferramentas que calcule todas as métricas estatísticas dos componentes de um sistema de fila, gera a oportunidade de realizarmos simulações com pequenas mudanças de parâmetros. Nos estudos de capacidade a utilização de teoria das filas passam a ter mais consistência e sua flexibilidade nas análises e/ou questionamentos complexos trazem respostas rápidas e consistentes aos nossos gestores na tomada de decisão.
Palestrantes: Daniel Segabinazzi - T-Systems e Jose Luiz Filho - Fidelity
Cloud Computing is a reality and a decisive factor not only for Business Continuity but for competitiveness in such way to leave less competitive that organization that deny the use of this technology. This article has an objective to treat this new vision about IT as a service guarantees data integrity using technology for its safeguard. Specific in cases of data corruption or virus propagation in all Sites of Data replication
Palestrante: Paulo Barreto - IPT
Os IDSs baseados em anomalia com agrupamento de dados obtêm boas taxas de detecção para ataques novos, porém precisam de treinamento para, entre outras coisas, determinar os limites dos agrupamentos. Os limites influenciam diretamente a taxa de detecção e falsos positivos. Este trabalho apresenta estudo comparativo entre treinamentos supervisionados e não supervisionados em IDSs baseados em anomalias com agrupamento de dados e apresenta resultados de qual técnica oferece melhor limite de agrupamento e sua influencia nas taxas de detecção de intrusão e falso positivo.
A coexistência de LPARs em um único CEC pode apresentar vantagens como utilização eficiente de recursos (CPU e canais), quantidade reduzida de CEC (consequentemente de energia, refrigeração e espaço físico), além de manter um único ponto de gerenciamento. O estudo em questão tem como objetivo mostrar o planejamento e quais ferramentas utilizadas no processo de consolidação de 2 CECs em um único CEC, e qual o impacto na performance pós consolidação, com foco na utilização dos processadores e suas estruturas de cache.
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
O mercado está explorando cada vez mais as tecnologias de redes definidas por software (sdn) e de virtualização de funções de rede (nfv), realizando pilotos em data centers, operadoras de telecomunicações, redes wan e em outros segmentos. No entanto, nota-se um crescimento de ambientes em produção, o que traz novos desafios ao gerenciamento da rede, especialmente na medição de capacidade e performance. Esta apresentação contém um plano para guiar empresas na definição de indicadores, processos, ferramentas e papéis para responder adequadamente a estes desafios colocados pelas redes virtuais.
Palestrante: Adolfo Eric Petersen
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
Palestrante: Etéocles da Silva Cavalcanti
Não é um assunto novo e nem uma novidade, mas ... modelos de filas são ferramentas importantes para os profissionais que atuam na área de Capacity Planning e estão cada vez mais inseridos em muitos produtos e ferramentas, mas ... quando modelos analíticos estão disponíveis para serem utilizados, tornam-se um problema sério pelo fato de há uma barreira quanto do seu uso e seus resultados, normalmente por falta de conhecimento, conceitos, premissas, métricas estatísticas e sobre os modelos. Esse assunto realmente tem uma complexidade teórica estatística muito alta e se entramos nos detalhes teóricos passamos a temer sobre seu uso e resultados. O objetivo é apresentar de uma forma simples e direta que modelagem analítica é ainda uma ferramenta importante e que devemos e podemos utilizá-la melhor se tivermos conhecimento melhor do seu uso e seus resultados. A simples construção de ferramentas que calcule todas as métricas estatísticas dos componentes de um sistema de fila, gera a oportunidade de realizarmos simulações com pequenas mudanças de parâmetros. Nos estudos de capacidade a utilização de teoria das filas passam a ter mais consistência e sua flexibilidade nas análises e/ou questionamentos complexos trazem respostas rápidas e consistentes aos nossos gestores na tomada de decisão.
Palestrantes: Daniel Segabinazzi - T-Systems e Jose Luiz Filho - Fidelity
Cloud Computing is a reality and a decisive factor not only for Business Continuity but for competitiveness in such way to leave less competitive that organization that deny the use of this technology. This article has an objective to treat this new vision about IT as a service guarantees data integrity using technology for its safeguard. Specific in cases of data corruption or virus propagation in all Sites of Data replication
Palestrante: Paulo Barreto - IPT
Os IDSs baseados em anomalia com agrupamento de dados obtêm boas taxas de detecção para ataques novos, porém precisam de treinamento para, entre outras coisas, determinar os limites dos agrupamentos. Os limites influenciam diretamente a taxa de detecção e falsos positivos. Este trabalho apresenta estudo comparativo entre treinamentos supervisionados e não supervisionados em IDSs baseados em anomalias com agrupamento de dados e apresenta resultados de qual técnica oferece melhor limite de agrupamento e sua influencia nas taxas de detecção de intrusão e falso positivo.
A coexistência de LPARs em um único CEC pode apresentar vantagens como utilização eficiente de recursos (CPU e canais), quantidade reduzida de CEC (consequentemente de energia, refrigeração e espaço físico), além de manter um único ponto de gerenciamento. O estudo em questão tem como objetivo mostrar o planejamento e quais ferramentas utilizadas no processo de consolidação de 2 CECs em um único CEC, e qual o impacto na performance pós consolidação, com foco na utilização dos processadores e suas estruturas de cache.
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
O mercado está explorando cada vez mais as tecnologias de redes definidas por software (sdn) e de virtualização de funções de rede (nfv), realizando pilotos em data centers, operadoras de telecomunicações, redes wan e em outros segmentos. No entanto, nota-se um crescimento de ambientes em produção, o que traz novos desafios ao gerenciamento da rede, especialmente na medição de capacidade e performance. Esta apresentação contém um plano para guiar empresas na definição de indicadores, processos, ferramentas e papéis para responder adequadamente a estes desafios colocados pelas redes virtuais.
Esta apresentação tem como objetivo enfatizar a evolução tecnológica da plataforma mainframe com a implementação de novos recursos que permitem aumentar a eficiência do processamento com segurança, integridade, e redução de custo. Conheçam a revolução de se ganhar até 40% da capacidade de um processador utilizando simultaneous multi-threading em máquinas de última geração.
O modelo de utilização dos recursos computacionais vem passando por grandes transformações o que implica numa grande quantidade de registros gerados. Seja numa estrutura clássica ou no conceito de entrega de serviço, muitos registros são gerados e armazenados nos logs de cada recurso oferecido. Existem propostas de consolidar todos esses logs a fim de facilitar a análise das ocorrências, porém ainda assim é uma grande quantidade de dados concentrada e nem sempre num formado padronizado e estruturado de armazenamento. Esse artigo aborda essa questão de como classificar, extrair dados relevantes de diferentes fontes de armazenamento e apontar onde está a causa raiz de um comportamento anômalo a fim de minimizar o impacto dessa condição que afeta a disponibilidade dos recursos computacionais.
Existem diversos recursos e metodologias que guiam o processo de desenvolvimento de software visando a construção de aplicativos e de produtos com maior qualidade.
Como avaliar o impacto da qualidade de código-fonte na performance e capacidade de aplicação, considerando métricas e Boas Práticas de mercado e o resultado na qualidade do produto de software?
Os resultados serão apresentados e discutidos, trazendo uma visão prática do impacto que esse tipo de recurso pode fazer sobre o produto de software em geral, principalmente sobre os aspectos ligados ao código-fonte.
O entendimento do uso da memória hierárquica no Mainframe, na última década, foi de coadjuvante a protagonista nas discussões dos profissionais de Planejamento de Capacidade e Performance Mainframe.
Neste estudo iremos abordar a importância dos já famosos, mas nem sempre compreendidos termos como Relative Nest Intensity (RNI), Cycle Per Instructions (CPI), L1 Miss, LSPR Workload Classification, HIS, CPU MF entre outros.
Amanda Melo Nastulevitie - Amanda.nastulevitie@itau-unibanco.com.br
Com a mudança de comportamento dos usuários, em que a disponibilidade é essencial e as informações precisam ser de fácil acesso a eles, um dos grandes desafios da TI é gerir o consumo de MIPS no mainframe focando na experiência do usuário. Mudança no modo de trabalho, implementação de metodologias Lean, análises quantitativas e qualitativas são a base para auxiliar o negócio em tomadas de decisões que entregam mais valor aos usuários e, ao mesmo tempo, mantêm um consumo racional dos recursos.
Sistemas online podem apresentar gargalos no processamento em períodos sazonais. Um estudo baseado em filas pode indicar a métrica de negócio ou infraestrutura que representa o fator de stress na infraestrutura através de simulações. O objetivo é mostrar como aplicar esse método em produtos de mercado (Oracle, SQL Server, SAP, etc) e em situações de negócios que operam nestas características.
A Transformação Digital já é considerada por vários cientistas e historiadores como a maior revolução da humanidade, gerando mais e maiores impactos do que a Revolução Agrícola e a Revolução Industrial.
Além de impactar a sociedade como um todo, a Trasformação Digital, também chamada de Revolução Digital, impacta particularmente a indústria de TI, trazendo rupturas para as áreas de TI das empresas, para os profissionais de TI e fornecedores. Essas rupturas, se bem exploradas, podem representar novas oportunidades para todos; caso contrário, representarão apenas ameaças.
Nessa apresentação pretendemos discutir as revoluções que a Transformação Digital e suas respectivas tecnologias estão causando na indústria, em especial nas práticas de Banco de Dados, desenvolvimento de aplicações, plataformas computacionais, estrutura organizacional da TI e algumas mudanças de padrões culturais que sustentam essa transformação.
Ao final apresentaremos uma proposta de arquitetura corporativa que permite às empresas acelerarem sua Transformação Digital com menor impacto na sua estrutura técnica e organizacional.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Vivemos em um mundo de siglas (BI, ERP, WF, BAM, BPM, OI, ...). A cada vez que nos deparamos com elas temos que lembrar de seu conceito e como ela é aplicada na prática. Algumas delas se confundem tanto no conceito quanto em alguma aplicação específica. Não é diferente quando falamos de Inteligência Operacional (OI do inglês “Operational Intelligence”). O objetivo deste trabalho é desmistificar o que é Inteligência Operacional e mostrar como é aplicada no cotidiano, principalmente mostrar quais são os desafios a serem vencidos.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Com o uso cada vez maior de serviços de armazenamento em nuvem, a necessidade em migrar, replicar ou sincronizar arquivos armazenados localmente para serviços de armazenamento remoto pode se tornar uma tarefa árdua para administradores de sistemas que muitas vezes não dispõem de soluções adequadas para atender necessidades específicas de uma organização. Esta proposta pretende abordar algorítmos, técnicas de otimização em linguagem de programação e boas práticas em configurações de infraestrutura de servidores para ganhos em desempenho na transferência de arquivos e diretórios entre servidores e serviços de armazenamento em nuvem. Para comprovar os resultados, a proposta utilizará de um estudo de caso real para uma empresa no segmento B2B, comprovando eficiência em ganhos de desempenho e abrindo discussões para soluções técnicas em cenários diversos
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Em um mundo cada vez mais conectado é absolutamente normal que o ser humano queira conectar o máximo possível de “coisas” à Internet. Com isso, um admirável mundo novo de possibilidades se abre a todos nós, às empresas, ao setor de educação, governos e uma infinidade de outros setores, trazendo ganhos em qualidade de vida, eficiência, processos, segurança, etc.
Imagine apenas um relógio inteligente e conectado medindo dados biológicos do corpo em tempo real enviando dados à uma nuvem que processa e analisa nosso bem estar e ainda pode envolver mais “coisas” conectadas solicitando dados adicionais ou até mesmo enviando ações para outras “coisas” conectadas nos ajudarem. Multiplique isso por bilhões de outras “coisas” em nossas casas, empresas e tudo mais ao nosso redor!
E onde entra o Capacity Planning nisso tudo? Nos milhões e bilhões (quem sabe trilhões ou até mais) de transações diárias que isso tudo acarretará! Desde a largura de banda das redes 5G e fixas até seus tempos de resposta passando pelos mais diversos recursos extremamente necessários na nuvem como processadores, memória, discos, redes e tudo que circule um bit de alguma “coisa”!
Gerenciar a capacidade de toda esta admirável infraestrutura será papel crucial de todos os profissionais de T.I. envolvidos!
A tecnologia VoIP permite a comunicação para corporações a baixo custo e sua implantação já atingiu larga escala, contudo é necessário garantir que terá uma boa qualidade de Serviço (QoS). Esse estudo aborda os conceitos da tecnologia VoIP e seus parâmetros, as técnicas de Monitoração de Redes e apresenta um caso de uso sobre monitoramento de rede VoIP para que haja garantia de qualidade nas chamadas VoIP dentro de uma organização.
A convergência para sistemas abertos Ethernet-TCP/IP possibilitou o acesso às redes de automação e aos sistemas SCADA, por meio das redes corporativas ou internet, expondo-as às novas ameaças de segurança. As infraestruturas críticas no setor de distribuição de água necessitam de métodos de proteção para minimizar os riscos à saúde pública e ao meio ambiente, causados por ataques ou vulnerabilidades na rede de automação, mas que não impactem no desempenho da rede e dos sistemas. O artigo propôs, desenvolveu e validou o desempenho de um mecanismo de segurança para detectar intrusão, em tempo real, considerando propriedades de disponibilidade e tempo de resposta.
Este artigo tem por objetivo detalhar de uma maneira prática e atualizada os diferentes tipos de teste de desempenho citados na literatura mundial, convergindo com a literatura técnica brasileira. Além disto, também é descrito ao longo deste artigo com detalhes o planejamento, execução e análise dos resultados de um teste de desempenho utilizando de uma das técnicas brevemente explanadas aplicado em uma arquitetura E-commerce hipotética, utilizando uma ferramenta de apoio e a melhor forma de utiliza-la para criar scripts automatizados para este tipo de testes
Slides utilizados durante a palestra virtual sobre Computação em nuvem e a ITIL. Assista o vídeo aqui: https://www.youtube.com/watch?v=WTpcmFQQ3VE
Mais vídeos e materiais sobre Cloud Computing: http://goo.gl/DooZif
Esta apresentação tem como objetivo enfatizar a evolução tecnológica da plataforma mainframe com a implementação de novos recursos que permitem aumentar a eficiência do processamento com segurança, integridade, e redução de custo. Conheçam a revolução de se ganhar até 40% da capacidade de um processador utilizando simultaneous multi-threading em máquinas de última geração.
O modelo de utilização dos recursos computacionais vem passando por grandes transformações o que implica numa grande quantidade de registros gerados. Seja numa estrutura clássica ou no conceito de entrega de serviço, muitos registros são gerados e armazenados nos logs de cada recurso oferecido. Existem propostas de consolidar todos esses logs a fim de facilitar a análise das ocorrências, porém ainda assim é uma grande quantidade de dados concentrada e nem sempre num formado padronizado e estruturado de armazenamento. Esse artigo aborda essa questão de como classificar, extrair dados relevantes de diferentes fontes de armazenamento e apontar onde está a causa raiz de um comportamento anômalo a fim de minimizar o impacto dessa condição que afeta a disponibilidade dos recursos computacionais.
Existem diversos recursos e metodologias que guiam o processo de desenvolvimento de software visando a construção de aplicativos e de produtos com maior qualidade.
Como avaliar o impacto da qualidade de código-fonte na performance e capacidade de aplicação, considerando métricas e Boas Práticas de mercado e o resultado na qualidade do produto de software?
Os resultados serão apresentados e discutidos, trazendo uma visão prática do impacto que esse tipo de recurso pode fazer sobre o produto de software em geral, principalmente sobre os aspectos ligados ao código-fonte.
O entendimento do uso da memória hierárquica no Mainframe, na última década, foi de coadjuvante a protagonista nas discussões dos profissionais de Planejamento de Capacidade e Performance Mainframe.
Neste estudo iremos abordar a importância dos já famosos, mas nem sempre compreendidos termos como Relative Nest Intensity (RNI), Cycle Per Instructions (CPI), L1 Miss, LSPR Workload Classification, HIS, CPU MF entre outros.
Amanda Melo Nastulevitie - Amanda.nastulevitie@itau-unibanco.com.br
Com a mudança de comportamento dos usuários, em que a disponibilidade é essencial e as informações precisam ser de fácil acesso a eles, um dos grandes desafios da TI é gerir o consumo de MIPS no mainframe focando na experiência do usuário. Mudança no modo de trabalho, implementação de metodologias Lean, análises quantitativas e qualitativas são a base para auxiliar o negócio em tomadas de decisões que entregam mais valor aos usuários e, ao mesmo tempo, mantêm um consumo racional dos recursos.
Sistemas online podem apresentar gargalos no processamento em períodos sazonais. Um estudo baseado em filas pode indicar a métrica de negócio ou infraestrutura que representa o fator de stress na infraestrutura através de simulações. O objetivo é mostrar como aplicar esse método em produtos de mercado (Oracle, SQL Server, SAP, etc) e em situações de negócios que operam nestas características.
A Transformação Digital já é considerada por vários cientistas e historiadores como a maior revolução da humanidade, gerando mais e maiores impactos do que a Revolução Agrícola e a Revolução Industrial.
Além de impactar a sociedade como um todo, a Trasformação Digital, também chamada de Revolução Digital, impacta particularmente a indústria de TI, trazendo rupturas para as áreas de TI das empresas, para os profissionais de TI e fornecedores. Essas rupturas, se bem exploradas, podem representar novas oportunidades para todos; caso contrário, representarão apenas ameaças.
Nessa apresentação pretendemos discutir as revoluções que a Transformação Digital e suas respectivas tecnologias estão causando na indústria, em especial nas práticas de Banco de Dados, desenvolvimento de aplicações, plataformas computacionais, estrutura organizacional da TI e algumas mudanças de padrões culturais que sustentam essa transformação.
Ao final apresentaremos uma proposta de arquitetura corporativa que permite às empresas acelerarem sua Transformação Digital com menor impacto na sua estrutura técnica e organizacional.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Vivemos em um mundo de siglas (BI, ERP, WF, BAM, BPM, OI, ...). A cada vez que nos deparamos com elas temos que lembrar de seu conceito e como ela é aplicada na prática. Algumas delas se confundem tanto no conceito quanto em alguma aplicação específica. Não é diferente quando falamos de Inteligência Operacional (OI do inglês “Operational Intelligence”). O objetivo deste trabalho é desmistificar o que é Inteligência Operacional e mostrar como é aplicada no cotidiano, principalmente mostrar quais são os desafios a serem vencidos.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Com o uso cada vez maior de serviços de armazenamento em nuvem, a necessidade em migrar, replicar ou sincronizar arquivos armazenados localmente para serviços de armazenamento remoto pode se tornar uma tarefa árdua para administradores de sistemas que muitas vezes não dispõem de soluções adequadas para atender necessidades específicas de uma organização. Esta proposta pretende abordar algorítmos, técnicas de otimização em linguagem de programação e boas práticas em configurações de infraestrutura de servidores para ganhos em desempenho na transferência de arquivos e diretórios entre servidores e serviços de armazenamento em nuvem. Para comprovar os resultados, a proposta utilizará de um estudo de caso real para uma empresa no segmento B2B, comprovando eficiência em ganhos de desempenho e abrindo discussões para soluções técnicas em cenários diversos
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Em um mundo cada vez mais conectado é absolutamente normal que o ser humano queira conectar o máximo possível de “coisas” à Internet. Com isso, um admirável mundo novo de possibilidades se abre a todos nós, às empresas, ao setor de educação, governos e uma infinidade de outros setores, trazendo ganhos em qualidade de vida, eficiência, processos, segurança, etc.
Imagine apenas um relógio inteligente e conectado medindo dados biológicos do corpo em tempo real enviando dados à uma nuvem que processa e analisa nosso bem estar e ainda pode envolver mais “coisas” conectadas solicitando dados adicionais ou até mesmo enviando ações para outras “coisas” conectadas nos ajudarem. Multiplique isso por bilhões de outras “coisas” em nossas casas, empresas e tudo mais ao nosso redor!
E onde entra o Capacity Planning nisso tudo? Nos milhões e bilhões (quem sabe trilhões ou até mais) de transações diárias que isso tudo acarretará! Desde a largura de banda das redes 5G e fixas até seus tempos de resposta passando pelos mais diversos recursos extremamente necessários na nuvem como processadores, memória, discos, redes e tudo que circule um bit de alguma “coisa”!
Gerenciar a capacidade de toda esta admirável infraestrutura será papel crucial de todos os profissionais de T.I. envolvidos!
A tecnologia VoIP permite a comunicação para corporações a baixo custo e sua implantação já atingiu larga escala, contudo é necessário garantir que terá uma boa qualidade de Serviço (QoS). Esse estudo aborda os conceitos da tecnologia VoIP e seus parâmetros, as técnicas de Monitoração de Redes e apresenta um caso de uso sobre monitoramento de rede VoIP para que haja garantia de qualidade nas chamadas VoIP dentro de uma organização.
A convergência para sistemas abertos Ethernet-TCP/IP possibilitou o acesso às redes de automação e aos sistemas SCADA, por meio das redes corporativas ou internet, expondo-as às novas ameaças de segurança. As infraestruturas críticas no setor de distribuição de água necessitam de métodos de proteção para minimizar os riscos à saúde pública e ao meio ambiente, causados por ataques ou vulnerabilidades na rede de automação, mas que não impactem no desempenho da rede e dos sistemas. O artigo propôs, desenvolveu e validou o desempenho de um mecanismo de segurança para detectar intrusão, em tempo real, considerando propriedades de disponibilidade e tempo de resposta.
Este artigo tem por objetivo detalhar de uma maneira prática e atualizada os diferentes tipos de teste de desempenho citados na literatura mundial, convergindo com a literatura técnica brasileira. Além disto, também é descrito ao longo deste artigo com detalhes o planejamento, execução e análise dos resultados de um teste de desempenho utilizando de uma das técnicas brevemente explanadas aplicado em uma arquitetura E-commerce hipotética, utilizando uma ferramenta de apoio e a melhor forma de utiliza-la para criar scripts automatizados para este tipo de testes
Slides utilizados durante a palestra virtual sobre Computação em nuvem e a ITIL. Assista o vídeo aqui: https://www.youtube.com/watch?v=WTpcmFQQ3VE
Mais vídeos e materiais sobre Cloud Computing: http://goo.gl/DooZif
A gestão de serviços de TIC é um conjunto de disciplinas que oferece o serviço certo a um custo certo, dentro de níveis de qualidade e prazos que atendam as expectativas dos negócios. Gestão de Serviços é uma área emergente e mal entendida por muitas pessoas. Os líderes de TI sentem a pressão para melhorar significativamente o desempenho do serviço, mas enfrentam uma quantidade surpreendente de informações conflitantes e incompletas. O nível de maturidade de TIC define a contribuição da organização para a empresa. Essa contribuição começa em oferecer apenas ferramentas de produtividade até a gestão da TIC como um negócio. Podemos categorizar os serviços de TIC com: utilidade; otimizado e lucrativo. Com orientação a ser um centro de custo, um provedor de serviços e uma unidade de negócios, respectivamente. Uma organização eficiente de TIC deve implantar modelos para a gestão, tais como Cobit, ITIL, PMI, CMMI e outros. Em empresas que adotaram o modelo de governança corporativa a gestão de serviços de TIC deve atender os requisitos mínimos da gestão de conformidade. O Cobit deve ser o direcionador para a definição das disciplinas que devem ser implantadas.
Analise de riscos e contramedidas em cloud computing Paulo Rodrigues
Agenda
•Definições e Tipos de Cloud
•Riscos inerentes a cada tipo de cloud
•Análise de Riscos
•Análise de Custo/Benefício para cada tipo de Cloud, considerando os riscos
•Contra-medidas para cloud
4 como criar uma estratégia corporativa de adoção de cloud em larga escala Amazon Web Services LATAM
Nesta apresentação, o time de Professional Services da Amazon Web Services, introduz a metodologia e os conceitos utilizados na criação de estratégias corporativas, visando à adoção de Computação na nuvem em larga escala. Topicos abordados:
1. Introdução aos Padrões de Adoção de Nuvem, Modelos e Perspectivas
2. Introdução ao Framework de Adoção de Nuvem
3. Exemplos práticos de Roadmaps de Adoção de Nuvem
Trabalho apresentado na disciplina de Segurança da Informação no curso de Tecnologia em Análise e Desenvolvimento de Sistemas do Instituto Federal de São Paulo.
Semelhante a Abordagens de Implementação de ILM como estratégia auxiliar no Gerenciamento de Capacidade, por Anderson Lovatto (20)
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
Nesta sessão iremos entender o funcionamento e características da implementação do Always On Availability Group e Cluster. Por que aderir e quais os benefícios do recurso em comparação com Failover Cluster Instance. Como ampliar a alta disponibilidade do meu ambiente e os principais cuidados que devemos ter na implementação. Quando devemos e quando esta funcionalidade é um bom recurso, qual arquitetura para implementação e as melhores práticas para administração e manutenção de ambientes com Availability Group.
A definição da estratégia de cloud do Banco Votorantim e da BV não foi uma iniciativa isolada da TI; ela envolveu e ainda envolve praticamente toda a organização. Seu objetivo visa buscar o modelo mais adequado para a adoção mais massiva no uso de cloud. O trabalho que vem sendo realizado desde 2017 definiu um método que considera as características das aplicações, as questões de governança e também o posicionamento dos fornecedores de cloud no Brasil através de análises Top-Down e Bottom-Up. O uso da estratégia cloud tem por objetivo a maior eficiência operacional, a agilidade na implementação da solução, a otimização dos recursos de infraestrutura e também a escalabilidade necessária para a aplicação de acordo com cada momento de uso, sem deixar de avaliar o investimento já realizado no passado, assim como o perfil da aplicação.
Entenda o que é Ciência de Dados sem precisar se aprofundar muito em conceitos teóricos, aprendendo quais tipos de problemas as técnicas e ferramentas desta disciplina ajudam a resolver. Entenda também quais são os primeiros passos para ingressar nesta área.
Mais um release do z/OS vem ao lume, agora o aguardado V2.R4.... Saia na frente assistindo esta supimpa palestra, e por aprender os seus conceitos e antecipadamente receba em troca a admiração ( e inveja) de seus pares quando de volta a sua baia, no caso já ocupada (modernamente) por um outro par. . Polvilhado do futuro (copiado do passado) como: , Microservices, Data Mining, Docker, Container, Devops, Microservices, aluguel de APls, JSON data streams (what a hell!!!), que teremos que deglutir goela abaixo. Por outro lado, haverá melhoras em itens mais concretos e inteligíveis como: . Uso dos novos algoritmos de crypto no CPACF para symmetric cipher and MAC. . Melhora no logging throughput devido ao IBM HyperWrite data replication support . . Agora RMF™ reports apresentam melhores informações de desempenho sobre IBM zHyperLink, que espero já tenha gente ativando (e comprando). . z/OSMF provendo mais availability e flexibility principalmente para suas funções de Sysplex. . DFSORT finalmente vai explorer System zHigh Performance FICON® (zHPF) abandonando o velho BSAM. . Kick Off definitivo do Container Pricing.... hurraahhh. . Diminuiçao no número de exits em Assembler. . More Data Analytics Applications. . Pervasive Encryption para datasets PDSE e JES2 Spool. . Melhoras no RACF, como se isso ainda fosse possível...... Hehehehehehe . Em inglês: "z/OS platform software installation improvements". . Melhoras no WA. . E muito mais..... Vai ser bom estarmos juntos novamente, principalmente porque não sabemos por quanto....
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
Com a vinda da Internet, cada vez mais os sistemas são desenvolvidos para trabalhar em ambientes distribuídos, por exemplo: aplicativo web em um servidor, banco de dados em outro e assim por diante. Para que se obtenha o melhor potencial destes, é obvio que o desempenho dos ativos que o cercam têm que ser bom (servidores, ativos de redes, outros sistemas, entre outros), mas o foco principal deste artigo é o desenvolvimento do sistema em si. Desenvolver utilizando as melhores práticas de programação, aproveitar todos os recursos que as linguagens dispõem e produzir um código limpo são primordiais para que se miniminizem as falhas e se construa um sistema de qualidade; assim será possível racionar os recursos envolvidos e minimizar os custos.
Tokenização de Ativos (Asset Tokenization) é a tecnologia de conversão de ativos em uma representação digital (Token). Assim como o Bitcoin está transformando o conceito de propriedade do dinheiro, a Tokenização de Ativos vai transformar o conceito de propriedade de ativos tangíveis e/ou intangíveis. Quando representado por um Token, o ativo ganha flexibilidade, liquidez, pode ser fracionado em milhares de partes e capitalizado, abrindo um leque de oportunidades para novos modelos de negócios, além de muitos desafios técnicos e legais. Veja os fundamentos desse conceito para compreender a base dessa nova economia digital e as reflexões inerentes à mudança dos modelos e paradigmas existentes, além dos novos cuidados que esses sistemas exigem.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
Conteúdo patrocinador Eccox Technology
Diante da necessidade de melhoria na produtividade e agilidade dos processos de testes, o mercado está cada vez mais exigente com as soluções que garantem o aumento da qualidade das aplicações durante o Ciclo de Vida no Desenvolvimento, bem como auxiliam na redução de tempo e custos com testes de software. Para isso, a Eccox vem trabalhando forte e com investimento massivo na evolução da tecnologia proprietária Eccox Parallel Testing, que automatiza processos de teste, permitindo a criação de cenários de testes isolados em ambientes Mainframe, sem a necessidade de criação de novas LPARs. Seu objetivo é padronizar e facilitar os processos de testes de programas e de sistemas, transformando o acervo dos planos de testes em um patrimônio da empresa para ser reutilizado quando necessário.
Case do patrocinador 4Bear
Abril/2018, o BRB concluiu a migração de seus aplicativos da plataforma unisys libra, para a IBM zOS. Assim, os desafios de operação e gestão desse novo ambiente, em especial a utilização de hard capping, resultaram em problemas na distribuição de msu entre partições zOS e em impactos negativos nos processos operacionais e de negócios. Diante disso, a gerência de produção demandou a tarefa de avaliar uma forma de melhorar a disponibilidade dos ambientes, reduzir a degradação de performance e compartilhar os recursos entre as partições, sem habilitar novos processadores (+msu). Este documento apresenta a realização deste desafio.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
Pervasive Encryption é uma funcionalidade do zOS 2.2 e 2.3, popularizada pela nova z14. Vamos abordar: . Introdução à Pervasive Encryption . Políticas Regulamentórias e necessidades de negócio . O que deve ser criptografado? De quem é a responsabilidade? . Características básicas e suporte . Segregação de papeis . Arquivos Suportados. Métodos de acesso suportados, exceções e requisitos mínimos . Implementação de z/OS Data Set Encryption . Implementação básica de Pervasive Encryption
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
Na era do DevOps, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudanças e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-Cloud. O termo "Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir esforço operacional mas também poder compartilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastruscture as a Code" assim como o seu potencial para cenários Multi-Cloud.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
Esta palestra procurará mostrar alguns dos “detalhes internos” dos cores da z14: O Fetch, Parsing, Decode e Issue ‘Out of Order’ das instruções às suas várias Execution Units, terminando por suas retiradas ‘In Order’ nas Completion Queues, apoiando-se no z14 Technical Guide e no z14 Journal of Research and Development. Como sempre ocorre no CMG, convidamos a Otimizar Código.
Detalhes internos da z14/Otimização de códigos - por Luiz Carlos Orsoni (MAFFEI)
Abordagens de Implementação de ILM como estratégia auxiliar no Gerenciamento de Capacidade, por Anderson Lovatto
1. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
18 de maio de 2016
Adelson Lovatto
Abordagens de Implementação de ILM
como estratégia auxiliar no Gerenciamento de
Capacidade
2. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Agenda
1. Objetivo
2. Conceitos e metodologia
3. Abordagens de implementação
4. Considerações finais
3. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Apresentar conceitos de ILM (Infomation Lifecycle Management) e algumas
abordagens utilizadas para implementar este importante modelo de referência
como estratégia auxiliar no gerenciamento de capacidade de storage.
O principal objetivo desta apresentação é:
Chargeback
SLA Management
Monitoring
Configuration mgmt
Storage Provisioning
Capacity MgmtAsset Mgmt
Demand Forecasting
HSM management
SAN Management
Policy Mgmt
4. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Agenda
1. Objetivo
2. Conceitos e metodologia
3. Abordagens de implementação
4. Considerações finais
5. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O que é Information Lifecycle Management (ILM)?
Em 2004, o SNIA (Storage
Networking Industry Association)
definiu ILM como:
“um conjunto de políticas,
processos, práticas e ferramentas
usadas para alinhar o valor da
informação com o custo de infra-
estrutura de TI mais apropriado,
desde o momento em que a
informação é concebida até o seu
descarte”.
Com ILMSem ILM
6. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Em 2009 o SNIA ampliou a
definição de ILM:
Mas o conceito de ILM foi sendo ampliado com o passar do tempo...
Database
Information
Management
Storage, Security,
Metadata , Data and
Information Services
ILM 2.0
Source: SNIA - Method for Integrated Knowledge Environment, Mike2.0 and DMF, 2009
ILM 2.0 é um modelo de referência
no estilo “Service Management” que
busca o alinhamento de storage e
demais componentes de infraestrutura
de data center relacionados com
informação (aplicação, segurança,
etc.).
Ainda sob esta definição, ILM 2.0
deve capacitar as disciplinas de
gerenciamento de serviços para
proporcionar melhor gerenciamento
de riscos, governança e compliance
durante todo o ciclo de vida da
informação.
7. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O que é Storage Resource Management (SRM)?
Fonte: SNIA (
http://www.snia.org/sites/default/education/ tutorials/2008/
spring/storage-management/DugganJ_
Storage_Resource_Management_SRM_SAN.pdf)
SRM é uma abordagem de gerenciamento de storage, alinhada com os padrões
SMI-S/SNIA e ISO/IEC 24775, que:
Permite a otimização dos recursos de uma SAN (Storage Area Networking) através da
automação de discovery, monitoramento, relatórios e alertas baseados em políticas definidas
dinamicamente de forma a permitir um melhor gerenciamento de storage, mesmo em
ambientes heterogêneos e complexos.
Soluções de SRM
permitem também a
melhoria do backup e
recuperação de dados,
a análise de
performance da SAN,
o gerenciamento de
configuração, e o
planejamento de
capacidade,
otimizando o uso de
tiered storage,
storage pools e thin
provisioning.
8. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
É importante observar que ILM e SRM não dizem respeito apenas a
um produto específico...
8
ILM é uma abordagem
baseada em padrões para
o gerenciamento da
informação que envolve
um conjunto de práticas
relacionadas não só a
TECNOLOGIA, mas
também a
ORGANIZAÇÃO e
PROCESSOS!
Storage
service
management
Governance
Governance
Governance
PROCESS
TECHNOLOGY
Hardware Software
Procedure
Responsibilities
Roles Skills
ORGANIZATION
Management
tools
Policy
9. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Agenda
1. Objetivo
2. Conceitos e metodologia
3. Abordagens de implementação
4. Considerações finais
10. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Storage Resource Management
(SRM)
Data
Management
Information
Management
InformationLifecycleManagement
Torna possível o armazenamento, a proteção e
a recuperação de dados de forma eficaz
Integra processos de negócio, aplicações e dados. Inclui
ferramentas de content management, archiving, etc
Viabiliza o armazenamento de dados no momento e lugar
certos, com o menor custo possível. Inclui ferramentas de
automação ILM (hierarchy management, compliance, etc…)
Uma arquitetura ILM é desenhada em cima de 3 pilares básicos
11. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Um princípio básico da arquitetura ILM é a associação de classes de
serviço a determinadas camadas de storage.
Governança
Necessidades e Desejos do Cliente
Valor para o Negócio
Diretrizes, Limitações e Premissas
Racionalização de Dados
Missão Critica Vital para o Negócio
Importante para o
Negócio
Importante para a
Produção
Portfólio de Serviços de Storage
Classe de Serviço
Platinum
Classe de Serviço
Gold
Classe de Serviço
Silver
Classe de Serviço
Bronze
Tecnologia
(Storage em camadas (tiered),
Ferramentas de
Gerenciamento)
Processos
(Políticas e Procedimentos)
Organização
(Skills e Responsabilidades)
Arquitetura Lógica ILM (high-level)
Requisitos da
Informação
Alinhamento de
com
Recursos de
Storage
12. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Para tanto é fundamental realizar um mapeamento das classes de
informação
Driver principal para a classificação de dados
13. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Dependendo do ambiente, é interessante realizar uma racionalização
de dados antes, de forma a reduzir esforços com a classificação de
informações desnecessárias
Storage Virtualization and Technology Enablers
Storage Governance
Model
Storage Management:
Process, Organization
and Technology
Storage Tiers
Data Rationalization
ILM Policies
Classes of Service
Information Classes
Realize Information
Management and Storage Cost
Efficiencies
14. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Para tanto os dados devem ser classificados de acordo com uma
Information Taxonomy de requisitos não funcionais:
RE Definition AV Definition
1 RPO and/or RTO not considered 1 Availability not considered
2 RPO and/or RTO on order of days 2 Low
3 RPO and/or RTO on order of hours 3 Medium
4 RPO and/or RTO on order of minutes 4 High
5 RPO and/or RTO on order of seconds 5 Continuous
Sub-Application Category
Information Type
(Application/Server Name) Recoverability Score Availability Score
Application 1 Application 1 This is for customer provided feedback/input 3 This is for customer provided feedback/input 4
Critical Application server01 This is for customer provided feedback/input 4 This is for customer provided feedback/input 5
Dev Application server88 This is for customer provided feedback/input 2 This is for customer provided feedback/input 3
Dev A 0
Descriptions for each characteristic and Score are
included as comments to the field. Please note that the
Scores are designed based on general rules of thumb
and can be modified for each client. In every situation,
the Score is scored from 1 to 5 where 1 is the lowest and
5 is the highest level of service or information
Recoverability Availability Performance
Security Scalability Manageability
No entanto, um framework mais abrangente deve ser considerado
para a classificação de dados e a definição de camadas (tiers) de
storage quando da implementação de ILM de forma corporativa.
15. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O valor da informação para o negócio é adicionada à Information
Taxonomy para criar classes de informação.
IC1 Move or Discard
IC2 Not Important
IC3 Important Productive
IC4 Business Important
IC5Business Vital
IC6 Mission Critical
Cada classe de dados é classificada pela criticidade para o negócio. Estas são
Listadas abaixo e atribuem um determinado nível de importância para cada
Arquivo, filesystem, servidor, etc.
BV Definition
1 Not Valuable to Business
2 Valuable to Business, not Valuable to Enterprise
3 Established Value for Business or Enterprise
4 Highly Valuable to Business, some Value to Enterprise
5 Highly Valuable to Business and Enterprise
16. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Dispositivos de armazenamento já existentes no ambiente e as classes
de serviços iniciais são analisadas para desenvolver as camadas
(tiers) de storage, conforme exemplo apresentado abaixo:
I
3,990 8,867
Exceptional
RAID10
Yes
Yes
Continuous
II
16,497 21,996
Medium
RAID5
No
Yes
High
Initial Raw Capacity
Initial Raw Capacity
PlatinumSupported COS:
Supported COS:
Initial Used Capacity
Performance
PiT Replication
Continuous Replication
Availability
Midrange Class Disk Subsystem (Fast T (now DS-X00 series), Clariion, Centera, etc)
Configuration
PiT Replication
Platinum, Gold, Silver, Bronze
Configuration
Continuous Replication
Availability
Initial Used Capacity
Performance
Enterprise Class Disk SubSystem (Shark, DSX000 series, Lightning, Symmetrix, DMX, etc.)
17. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
A próxima etapa contempla a definição da arquitetura high level, já
incluindo a definição de políticas ILM para associar as classes de
serviço às camadas (tiers) de storage.
Classes de Serviço são
definidas pela
combinação das classes
de informação com
características de
serviço adicionais, tais
como provisionamento,
capacidade, etc.
18. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Alguns cuidados devem ser levados em consideração quando da
criação das políticas ILM:
Definir o placement inicial do dado (em qual tier), mas também definindo as quais
condições sob as quais um dado deve ser movido para tiers diferentes
Definir como o dado deve ser movido (em bloco, por arquivo, ...)?
Designar um peso para cada característica-chave de gerenciamento da informação
Realizar uma referência cruzada com dados coletados do ambiente, gerando uma
matriz de pontuação, que é utilizada na determinação da Information Taxonomy
O score de valor para o negócio deve ser associado com o elemento correspondente da
Information Taxonomy
Tap
e
Arc
hive
Tier
3
Tier
2
Tier
1
19. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Uma outra abordagem de implementação seria o desenvolvimento de
um catálogo de serviços de storage que permita fazer o placement
inicial do dado já no tier correto.
Data Storage Hardware Tiers Platinum CoS Gold CoS Silver CoS Bronze CoS
Business Options
Availability Target 99.99% (53 mins/yr) 99.95% (4 hrs/yr) 99% (88 hrs/yr) 98% (7 days/yr)
Downtime per Year 53 Mins 263 Mins 5256 Mins 10512 Min
Time to Recover (RTO) 15 Min 30 min <= 72 Hour Best Effort
Rollback Period (RPO) 30 Min 1 Hour Previous COB Best Effort
Performance Level Range High Medium to High Low Low
Business Continuity Services Available No No No
High Availability Services Yes Yes No No
Proactive Performance
Monitoring & Mgmt.
yes Yes No No
7/24/365 SAN and Storage
Monitoring
Yes Yes Available Available
Monthly Growth forecasts
SRM tool host agents with
specialized
application specific
agents to provide
maximum information
SRM tool host agents with
specialized
application specific
agents to provide
maximum information
SRM tool general host
agents to provide
summary level
information
SRM tool general host
agents to provide
summary level
information
Support Priority
host servers in this class
receive priority
attention
host servers in this class
receive 2nd priority
status
host servers in this
class are
addressed on a
best effort basis
host servers in this class
are addressed on
a best effort basis
Incident Status as defined above as defined above as defined above as defined above
Provisioning Priority in Queue
as defined under support
priority
as defined under support
priority
as defined under
support priority
as defined under support
priority
Specific Change Request
Windows
Yes Yes No No
20. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Agenda
1. Objetivo
2. Conceitos e metodologia
3. Abordagens de implementação
4. Considerações finais
21. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
ILM não trata só de Storage, e pode abranger também outras soluções, tais como:
Archive
Gerenciamento de Conteúdo
Backup
etc.
Uma boa implementação de ILM/SRM pode ajudar significativamente no
gerenciamento de capacidade.
Considerações finais
22. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Obrigado!
18 de maio de 2016
Adelson Lovatto