33333907 tcc-virtualizacao-xen-neto

944 visualizações

Publicada em

TCC SOBRE VIRTUALIZAÇÃO NA PLATAFORMA XEN SERVER

Publicada em: Tecnologia
0 comentários
3 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

Sem downloads
Visualizações
Visualizações totais
944
No SlideShare
0
A partir de incorporações
0
Número de incorporações
3
Ações
Compartilhamentos
0
Downloads
0
Comentários
0
Gostaram
3
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

33333907 tcc-virtualizacao-xen-neto

  1. 1. As Origens do Xen e Sua Linha do Tempo O hipervisor do Xen se originou no Laboratório de Computação da Universidade deCambridge como parte do projeto XenoServer em andamento em 2001. Esse projeto tinhacomo objetivo criar uma infra-estrutura pública para computação distribuída por amplas áreas.A intenção do projeto era criar um sistema onde plataformas de execução do XenoServerestariam espalhadas pelo planeta para uso por qualquer membro no público-alvo. Quando ainfra-estrutura do XenoServer estiver completa, seus usuários enviarão um código para serexecutado e serão cobrados posteriormente pelos recursos utilizados durante a execução.Garantir que cada um dos nós físicos seja usado em sua máxima capacidade possível exige umhipervisor de alta performance capaz de hospedar múltiplos sistemas operacionais comunsnum único servidor baseado em x86. Para cumprir tal papel, o Xen foi criado para ser o núcleode cada nó do XenoServer. Ele permite estabelecer a responsabilidade pelo consumo derecursos, auditoria e, o mais importante, o gerenciamento de recursos necessário para a infra-estrutura do XenoServer. Para maiores informações a respeito do projeto, vejahttp://www.xenoservers.net/. O Xen foi apresentado ao público pela primeira vez num artigo acadêmico aceito nosprocedimentos de 2003 da Associação de Equipamentos de Computação (ACM, Association forComputing Machinery) para o Simpósio de Princípios em Sistemas Operacionais (SOSP,Symposium on Operating System Principles). A afirmação de ter a capacidade de executarvirtualização rápida em máquinas x86 comuns criou um grande interesse na comunidade acadêmica.Essa afirmação foi verificada independentemente em ambientes acadêmicos, o que serviu parafortalecê-la. Em breve, um grande número de grupos se interessou por essa nova abordagem devirtualização. Nos anos seguintes a essa publicação inicial do Xen, muitas atualizações significativasocorreram no projeto, permitindo melhorias na funcionalidade, confiabilidade e performance. É digno de nota que, durante o desenvolvimento do Xen 1.x, a divisão de PesquisasMicrosoft, em colaboração com a Universidade de Cambridge, desenvolveu parte do WindowsXP para o Xen. Essa adaptação se tornou possível em parte por causa do Programa deLicenciamento Acadêmico da Microsoft. Infelizmente, devido aos termos dessa licença, aadaptação nunca foi publicada, embora tenha sido mencionada no artigo original na SOSPsobre o Xen. Uma empresa em separado, a XenSource, foi fundada em 2004 para promover a amplaadoção dos hipervisores de código aberto Xen pelo mundo empresarial. Essa empresaconcentrou seus negócios em dar suporte ao desenvolvimento de O Legado da Virtualização18 Capítulo 1 Xen–Básico sobre Plano de Fundo e Virtualização
  2. 2. todo o núcleo de código aberto do Xen, enquanto ao mesmo tempo vendia paraoutras corporações pacotes e softwares de gerenciamento. Enquanto a XenSourceliderava e coordenava os esforços de desenvolvimento, contribuições foram feitaspor uma grande variedade de empresas e organizações incluindo IBM, Sun, HP,Red Hat, Intel, AMD, SGI, Novell, a NSA, a Marinha dos EUA, Samsung, Fujitsu,Qlogic e muitas outras, incluindo nesse grupo pesquisadores de muitas universida-des. Juntos, produziram um padrão em que todos podem confiar, que reduziu osriscos e acelerou o desenvolvimento para todos os participantes. Durante o final do ano de 2004, o Xen 2.0 entrou em cena. A nova versãoconseguiu grande flexibilidade na configuração de dispositivos virtuais de E/S dossistemas operacionais hóspedes. Nesse ponto do desenvolvimento do Xen, os usu-ários podiam configurar regras de firewall arbitrárias, roteamento e pontes de in-terfaces hóspedes virtuais de rede. Suporte adicional foi acrescentado para volumesLVM de cópia-durante-gravação bem como para arquivos de retorno (loopback) paramanter imagens de disco de sistemas operacionais hóspedes. O Xen 2.0 inclui suportepara multiprocessamento simétrico, embora imagens de hóspedes continuem comprocessadores únicos. A melhoria mais impressionante do ponto de vista dademonstração foi a adição da migração ativa (live migration), que permite que umainstância em execução de um sistema operacional seja movida entre hardwaresconectados via rede sem interrupção perceptível no serviço. O Xen introduziu umafunção de migração de hóspedes muito solicitada que impressionou muitos hackerscasuais interessados em open source. Durante o ano de 2005, uma comunidade cada vez maior de grupos interes-sados se formava em torno do Xen. Essa tendência era notável, tanto no mundoacadêmico quanto no empresarial, e no início de 2006 o Xen tinha conseguidouma participação significativa no total das virtualizações em uso. Grandesdistribuidores de Linux ficaram cada vez mais interessados em se aproveitar datecnologia do Xen para uso de seus clientes, e o suporte ao Xen se tornou padrãopara muitos deles. O hipervisor do Xen 2.0 também suportava mais hóspedes doque antes, incluindo o Linux, o Open-Solaris, Plan 9 e muitas variantes do BSD. Em 2006, o Xen 3.0 introduziu uma camada de abstração para tecnologias devirtualização de hardware oferecidas pelas implementações do Vanderpool da Intele do Pacifica da AMD. Isso permitiu que hóspedes sem alteração (chamados deMáquinas Virtuais de Hardware, hóspedes HVM, Hardware Virtual Machines) alémdos hóspedes paravirtualizados tradicionais. O Xen 3.0 também incluiu suportepara sistemas hóspedes de multiprocessamento simétrico (SMP, SymmetricMultiProcessing) – incluindo CPUs virtuais de conexão dinâmica, suporte paragrandes quantidades de memórias, para módulos de plataforma segura (TPM,Trusted Platform 19
  3. 3. Modules) e uma versão para a arquitetura IA64. Versões seguintes do Xen incluíam umnovo agendador para CPUs com suporte para pesos, limites e balanceamento de carga SMPautomática, bem como ferramentas de medida (Xen-oprofile), que permitiria aosdesenvolvedores usuários de Xen otimizar código para obter ainda melhor desempenho nofuturo. Outras características notáveis incluíam aumento na performance de rede graças aredução de carga de segmentação de pacotes, suporte melhorado para a IA64 e a primeiraversão para a arquitetura de processadores Power.Em 2007, a Citrix comprou a XenSource e esta se tornou o Grupo do Produto XenServerCitrix. Também em 2007, o Xen 3.1 foi lançado. Ele dava suporte à XenAPI, uma interface deprogramação para comandos Xen que permitia a integração de ferramentas de gerenciamentode terceiros, incluindo as baseadas no Modelo Comum de Informações da Força Tarefa deGerenciamento Distribuído (DMTF CIM, Distributed Management Task Force’s CommonInformation Model) que está se tornando um padrão para gerenciamento de agrupamentos demáquinas heterogêneas. Ela também possui capacidades de salvar/restaurar/migrar e controledinâmico de memória para hóspedes HVM. A versão atual do Xen está disponível emhttp://xen.org/download/. Quando este livro estava a ponto de ser publicado, a versãoliberada mais recente do Xen era a 3.2.Por que Virtualizar?Foi em junho de 1959 que Christopher Strachey apresentou à InternationalConference on Information Processing na UNESCO em New York o paperTime Sharing in Large Fast Computers e estabeleceu um novo conceito deutilização de máquinas de grande porte visando produtividade dos recursoscomputacionais. Este novo conceito atraiu o interesse de empresas degrande porte, pois, virtualizar naquela época era sinônimo de economia dehardware, de espaço físico entre outras.Aí hoje você se pergunta: "Por que virtualizar nos dias atuais? Já que ocusto de hardware diminuiu drasticamente nos últimos anos.". É exatamenteesta e outras respostas que pretendemos esclarecer para que você seassegure da necessidade da virtualização nos dias atuais.Uma pergunta que você deve fazer a si mesmo para optar por virtualização:Quanto de recurso de seu Data Center é atualmente utilizado?A resposta mais interessante para esta pergunta foi respondida porempresas de grande influência mundial como a Microsoft Corporation© e aSun Microsystems© através de estudos realizados. Quanto a utilizaçãomédia de Data Centers, estas empresas chegaram a um resultado comum
  4. 4. de 5% a 15%. Consolidar a fatia restante é economicamente interessantetanto da visão comercial quanto técnica.Isolamento de hardwareNão podemos negar que o custo de um equipamento de grande porte hoje éinfinitamente inferior comparado a 50 anos atrás. Na mesma linha, einversamente proporcional, está o desempenho desses novosequipamentos, que anteriormente ocupavam uma sala inteira; hojesimplesmente cabem na palma da mão, com desempenho e complexidadesuperior.Isto é uma realidade. Nos últimos anos equipamentos têm caído de preçoconsideravelmente, mas estão cada vez mais complexos necessitando denovos drivers , novos sistemas operacionais, novos softwares, etc...Para instalar seu novo servidor um workload default para instalação de umnovo servidor significa normalmente instalar um Sistema Operacional,configurar novos dispositivos, instalar seus programas e ter esperança queesteja tudo correto na validação das funcionalidades antes de colocar oservidor em produção.Adicionar um novo servidor em seu data center será muito mais simples queno modelo convencional. A idéia de manipular fisicamente um equipamentoocorrerá somente quando houver necessidade de adicionar mais hardwareem seu cluster de máquinas virtuais. Caso se deseje adicionar apenas umSistema Operacional para ativar um determinado serviço, você poderásimplesmente reservar uma fatia de recursos nos equipamentos existentesem seu cluster obtendo virtualização de todos os recursos necessários parao funcionamento do Sistema Operacional como dispositivos de rede,memória, processamento e disco rigido.Máquinas Virtuais irão reduzir suas dores de cabeça em na adição de novos“servidores” no seu parque de TI como eles não precisam lidar diretamentecom o hardware em si , você tem um hardware virtual pré-definido para suamaquina onde sempre serão os mesmos drivers . Software paramanutenção ou adição de funcionalidades etc... “servidores” esses ondevocê pode criar imagens pré-definidas também conhecida como VirtualAppliances para um melhor provisionamento de suas máquinas virtuais comisso você pode reduzir drasticamente o tempo consumido para instalaçãode seu servidor usando Virtualização.
  5. 5. Visão Histórica da VirtualizaçãoO conceito de virtualização é antigo: Data os anos 60, com o uso maisprecoce realizado no antigo IBM 7044 CTSS (Compatible Time-Share System –Sistema Compatível com Compartilhamento de Tempo); Segundo JONES(2006)este equipamento foi denominado "Projeto Atlas", oriundo de um estudorealizadoem conjunto com o MIT (Massachusetts Institute of Technology – Instituto deTecnologia do Massachusetts), a Ferranti Ltd. e a University of Manchester(universidade de Manchester), no qual foi utilizado um mainframe IBM 704M44/44Xcom implementação de chamadas supervisoras.O sistema operacional deste mainframe (na época chamado "Supervisor")executava duas máquinas virtuais, uma para o sistema e uma para execuçãodeprogramas, servindo de base para outros computadores que viriam após ele.Assim, com base nesta tecnologia, em 1966 foi lançado o mainframe IBMSystem/360 modelo 67, onde o hardware do equipamento era inteiramenteacessado através de uma interface chamada VMM (Virtual Machine Monitor). OVMM funcionava diretamente no hardware básico do equipamento, permitindoentãoa execução de máquinas virtuais. Cada máquina virtual poderia ser uma novainstância do mesmo sistema operacional base em prévia execução.19Com essa funcionalidade, o antigo termo "Supervisor" foi entãodenominado "Hypervisor". Ou seja, um software que provê ambiente devirtualizaçãopara o sistema operacional rodando acima dele.No início da década de 70, a IBM anunciou a série de mainframesSystem/370, e em 1972 anunciou o sistema operacional VM/370, que permitiaacriação de múltiplas máquinas virtuais para os mainframes desta série. OVM/370 foiatualizado em conjunto com toda a linha de mainframes da IBM, e hoje éconhecidocomo IBM z/VM, um dos sistemas operacionais para os mainframes da sérieSystem/Z, e mantém compatibilidade total com os aplicativos desenvolvidosaindapara o System/370.Figura 3: HypervisorSegundo SIQUEIRA (2007), este modelo como hypervisor obtémpreferência para os ambientes virtualizados, pois, os hóspedes sabemperfeitamente25que rodam em um ambiente virtual. Para isso, os guests precisam sercorrigidos, oque só é possível de conseguir em sistemas de código aberto7.Uma vez que os sistemas operacionais sejam adaptados, a interaçãoentre as máquinas virtuais e a máquina física é otimizada, o que aumenta o
  6. 6. desempenho. Porém, a grande desvantagem deste modelo continua sendo adependência da alteração do sistema operacional de gerenciamento e dosguests,para que possam interagir com o hypervisor ao invés do hardware físico.Hardware requeridoAtualmente, o Xen roda nos computadores da plataforma x86, sendonecessário algum processador P6 (de sexta geração), como um Pentium Pro,Celeron, Pentium II, Pentium III, Pentium IV, Xeon, AMD Athlon (Duron), Athlon64 eOpteron. Multi-processamento é suportado, e existem portes em andamentopara asplataformas Intel IA64 (processador Itanium) e Power (processadores PowerPCePOWER).O Xen, por padrão, suporta até de 4GB de memória RAM em modo deexecução 32 bits. Como é uma quantidade pequena para os servidores nosdiasatuais, existe o suporte para as extensões PAE11, da Intel, que permite quesistemasoperacionais x86 de 32bits possam endereçar até 64GB de memória Ram. OXen3.0 também suporta as arquiteturas x86/64 bits.Vantagens e DesvantagensExistem diversas vantagens na virtualização, a seguir serão citadas as principais [5]:a) Segurança: Usando máquinas virtuais, pode ser definido qual é o melhor ambienteparaexecutar cada serviço, com diferentes requerimentos de segurança, ferramentasdiferentes e o sistema operacional mais adequado para cada serviço. Além disso, cadamáquina virtual é isolada das demais. Usando uma máquina virtual para cada serviço, avulnerabilidade de um serviço não prejudica os demais.b) Confiança e disponibilidade: A falha de um software não prejudica os demaisserviços.c) Custo: A redução de custos é possível de ser alcançada com a consolidaçãode pequenosservidores em outros mais poderosos. Essa redução pode variar de 29% a 64% [5].d) Adaptação às diferentes cargas de trabalho: Variações na carga de trabalho podemsertratadas facilmente. Ferramentas autônomas podem realocar recursos de uma máquinavirtual para a outra.e) Balanceamento de carga: Toda a máquina virtual está encapsulada no VMM. Sendoassim é fácil trocar a máquina virtual de plataforma, a fim de aumentar o seudesempenho.f) Suporte a aplicações legadas: Quando uma empresa decide migrar para um novoSistema Operacional, é possível manter o sistema operacional antigo sendo executado
  7. 7. em uma máquina virtual, o que reduz os custos com a migração. Vale ainda lembrar quea virtualização pode ser útil para aplicações que são executadas em hardware legado,que está sujeito a falhas e tem altos custos de manutenção. Com a virtualização dessehardware, é possível executar essas aplicações em hardwares mais novos, com custo demanutenção mais baixo e maior confiabilidade.Por outro lado, existem as desvantagens da virtualização, sendo as principais:a) Segurança: Segundo Neil MacDonald, especialista de segurança da Gartner, hoje emdia, as máquinas virtuais são menos seguras que as máquinas físicas justamente porcausa do VMM [2]. Este ponto é interessante, pois se o sistema operacional hospedeirotiver alguma vulnerabilidade, todas as máquinas virtuais que estão hospedadas nessamáquina física estão vulneráveis, já que o VMM é uma camada de software, portanto,como qualquer software, está sujeito a vulnerabilidades.b) Gerenciamento: Os ambientes virtuais necessitam ser instanciados, monitorados,configurados e salvos [2]. Existem produtos que fornecem essas soluções, mas esse é ocampo no qual estão os maiores investimentos na área de virtualização, justamente porse tratar de um dos maiores contra-tempos na implementação da virtualização. Valelembrar que o VMWare é a plataforma mais flexível e fácil de usar, mas ainda apresentafalhas que comprometem a segurança, assim como as demais plataformas [2].c) Desempenho: Atualmente, não existem métodos consolidados para medir odesempenhode ambientes virtualizados. No entanto, a introdução de uma camada extra de softwareentre o sistema operacional e o hardware, o VMM ou hypervisor, gera um custo deprocessamento superior ao que se teria sem a virtualização. Outro ponto importante deressaltar é que não se sabe exatamente quantas máquinas virtuais podem ser executadaspor processador, sem que haja o prejuízo da qualidade de serviço.Virtualização total e para-virtualizaçãoExistem duas formas de implementação dos monitores de máquina virtual: avirtualizaçãototal e a para-virtualização.A virtualização total tem por objetivo fornecer ao sistema operacional visitante umaréplicado hardware subjacente. Dessa forma, o sistema operacional visitante é executado semmodificações sobre o monitor de máquina virtual (VMM), o que traz algunsinconvenientes. Oprimeiro é que o número de dispositivos a serem suportados pelo VMM é extremamenteelevado.Para resolver esse contratempo, as implementações da virtualização total usamdispositivosgenéricos, que funcionam bem para a maioria dos dispositivos disponíveis, mas nãogarantem o usoda totalidade de sua capacidade. Outro inconveniente da virtualização total é o fato de osistemaoperacional visitante não ter conhecimento de que está sendo executado sobre o VMM,então asinstruções executadas pelo sistema operacional visitante devem ser testadas pelo VMMpara quedepois sejam executadas diretamente no hardware, ou executadas pelo VMM esimulada aexecução para o sistema visitante. Por fim, o último inconveniente da virtualização totalé o fato de
  8. 8. ter que contornar alguns problemas gerados pela implementação dos sistemasoperacionais, já queesses foram implementados para serem executados como instância única nas máquinasfísica, nãodisputando recursos com outros sistemas operacionais. Um exemplo desse últimoinconveniente éuso de paginação na memória virtual, pois há a disputa de recursos entre diversasinstâncias desistemas operacionais, o que acarreta em uma queda do desempenhoA para-virtualização é uma alternativa à virtualização total. Nesse modelo de virtualização,o sistema operacional é modificado para chamar o VMM sempre que executar umainstrução quepossa alterar o estado do sistema, uma instrução sensível. Isso acaba com a necessidadede o VMMtestar instrução por instrução, o que representa um ganho significativo de desempenho.Outro pontopositivo da para-virtualização é que os dispositivos de hardware são acessados pordrivers daprópria máquina virtual, não necessitando mais do uso de drivers genéricos que inibiamo uso dacapacidade total do dispositivo.Embora a para-virtualização apresentasse um ganho de desempenho significativo frenteàvirtualização total, essa disparidade tem sido superada devido à presença de instruçõesdevirtualização nos processadores Intel e AMD, que favorecem a virtualização total. Atecnologia devirtualização da Intel é a IVT (Intel Virtualization Technology), codinome Vanderpool.A da AMDé a AMD-V (AMD-Virtualization), codinome Pacífica. Embora tenham sidodesenvolvidas para omesmo propósito, foram desenvolvidas de maneira independentes. Por esse motivo, háalgunsproblemas na portabilidade de máquinas virtuais de uma arquitetura Intel para aarquitetura AMD evice-versa.Portanto, tendo em vista as técnicas de virtualização, a decisão de qual melhor a técnicadevirtualização para um dado ambiente está intimamente ligada a qual o processador damáquinafísica que vai hospedar as virtuais, bem como se o processador possui ou não umaextensão no seuconjunto de instruções que suporte a virtualização.XenO Xen é um dos mais populares exemplos de para-virtualização. Na virtualização total,o
  9. 9. sistema operacional visitante tenta executar tarefas protegidas e, por estarem no espaçode aplicaçãodo sistema operacional hospedeiro, não podem ser executadas. No entanto, o VMMintervem eexecuta ou simula a execução dessas, o que reduz o desepenho da virtualização total. Jáa paravirtualizaçãoapresenta-se como uma alternativa a isso, na medida em que o sistema operacionalvisitante é modificado para não tentar executar diretamente na CPU as tarefasprotegidas, masentregar essas ao VMM. Este tipo de virtualização tem um ganho de desempenhosignificativofrente à total.Uma das maiores vantagens do uso do Xen como VMM na para-virtualização é o fatodeque este apresenta um desempenho melhor do que os produtos de virtualização total,quando amáquina física hospedeira não tem instruções de hardware de suporte a virtualização.No entanto,há a necessidade de que o sistema visitante seja portado para o Xen, o que não chega aser umadesvantagem, já que os sistemas operacionais mais comuns no mercado têm versõespara o Xen.Alguns dos sistemas suportados pelo Xen são Linux, FreeBSD e Windows XP.A tecnologia de virtualização provida pelo Xen difere da tecnologia do VMWare. OXensegue o conceito da para-virtualização, que fornece um conjunto de abstrações(processador virtual,memória virtual, rede virtual etc.) sobre o qual diferentes sistemas podem ser portados[7]. Asabstrações não são necessariamente similares ao hardware da máquina físicahospedeira.Para entender como o Xen implementa a para-virtualização, é importante salientar doisconceitos: o de domínio e o de hypervisor. Os domínios são as máquinas virtuais doXen. Essaspodem ser de dois tipos, privilegiadas (domínio 0) e não-privilegiadas (domínio U). Ohypervisor éo responsável por controlar os recursos de comunicação, de memória e deprocessamento dasmáquinas virtuais, mas não possui os drivers para manipular os dispositivosdiretamente.Quando a máquina hospedeira é iniciada, uma máquina virtual do domínio 0,privilegiado,é criada. Esse domínio acessa uma interface de controle e executa aplicações degerenciamento. Asmáquinas virtuais dos domínios U só podem ser criadas, iniciadas e desligadas atravésdo domínio0. Na máquina virtual do domínio 0, é executado um Linux com núcleo modificado, quepodeacessar os recursos da máquina física, já que possui privilégios especiais, e ainda secomunicar com
  10. 10. as outras máquinas virtuais, domínio U.O sistema operacional do domínio 0 tem que ser modificado para possuir os drivers dedispositivo da máquina física e dois drivers que tratam requisições de acessos à rede eao discorealizadas pelas máquinas virtuais do domínio U. Em suma, só a máquina virtual dodomínio 0 temacesso direto aos recursos da máquina física, enquanto que as demais máquinas virtuaistêm acessoa uma abstração dos recursos, que para serem acessados, as máquina virtuais dosdomínios U têmque acessar através do domínio 0.Para a virtualização da memória, o Xen reserva para cada máquina virtual umadeterminada quantidade de memória, que pode ser alterada a qualquer momento sem anecessidadede terminar ou reiniciar a máquina virtual. Cada máquina virtual pode ter uma ou maisinterfaces derede virtuais. A comunicação entre as interfaces é implementada por dois token rings,um paraenviar e outro para receber [7].Atualmente, o Xen conta também com um domínio no qual é feita a virtualização total,oque permite que sistemas operacionais não modificados sejam executados sobre ohypervisor Xen.Inicialmente, a escolha pela para-virtualização justificava-se pelo fato de que o ganhoemdesempenho era muito maior do que com a virtualização total. No entanto, com oadvento dasarquiteturas AMD-V e Intel VT, arquitetura que dão o suporte de hardware para avirtualização, avirtualização total passou a obter resultados de desempenho melhores que os da para-virtualização.Vale ressaltar que o domínio de virtualização total disponível no Xen a partir da suaversão 3.0, sópode ser usado nas máquinas hospedeiras que possuam suporte de hardware àvirtualização.Uso da virtualização Consolidação de ServidoresUm pensamento comum entre administradores de rede é de ter um servidor por serviço.Esta medida garante uma maior segurança e maior disponibilidade dos serviços na rede,já que afalha de um servidor só afeta um serviço e a vulnerabilidade de um serviço só expõe umservidor.No entanto, a taxa de utilização dos recursos de hardware de um servidor éextremamente baixa, oque indica uma subutilização de seus recursos.A consolidação de servidores consiste em usar uma máquina física com diversasmáquinas
  11. 11. virtuais, sendo uma para cada servidor. Essa nova abordagem garante o isolamento dosservidores eapresenta as vantagens de aumentar a taxa de utilização de servidores, reduzir os custosoperacionais, criar ambientes mais flexíveis e reduzir custos de administração de TI. Oponto maisimportante da consolidação de servidores é o melhor aproveitamento dos recursos, jáque se existemn servidores com uma taxa de utilização x, tal que x < 100%, é menos custoso e maisvantajosoconsolidar os n servidores em apenas um, com taxa de utilização de n.x, desde que n.x <100%.Outro ponto a ser levantado é que a consolidação permite ocupar menos espaço físicocomservidores, pois estes passam a ser apenas uma máquina física. Isso propicia menosgastos comeletricidade, já que o número de máquinas é menor, e com manutenção de máquinas.Vale aindalembrar que a virtualização aumenta a flexibilidade, pois pode-se instalar diversosambientes emuma mesma máquina, por exemplo, ter serviços que são executados em ambienteWindows,coexistindo em uma mesma máquina física, mas em máquinas virtuais distintas, queserviços quesão executados em ambiente Linux. Virtualização da Infra-estrutura de TIA virtualização da infra-estrutura de TI diferencia-se da consolidação de servidores namedida em que a consolidação só prevê o isolamento dos servidores em máquinasvirtuais,enquanto a virtualização da infra-estrutura de TI vai mais além. A virtualização da infra-estrutura deTI prevê a virtualização de toda a estrutura da rede, com a criação de comutadores,roteadores eoutros equipamentos virtuais, interconectado às máquinas virtuais. Outro ponto dedistinção entre aconsolidação e a virtualização da infra-estrutura é que esta permite a alocação dinâmicade recursospara as máquinas virtuais, levando a um processo de automação da infra-estrutura de TI. Laboratórios de ensinoA aplicação da virtualização em laboratórios de ensino tem por objetivo criar umambienteque isole o estudante da máquina física. O estudante tem acesso a uma instância de umamáquinavirtual, que pode ser facilmente recuperada de uma falha após o seu uso. Também éinteressantenotar que em ambientes virtualizados, a introdução de mais um sistema operacional nolaboratório,não envolve a reinstalação das máquinas, mas somente a cópia dos arquivos deconfiguração econtrole da máquina virtual do novo sistema operacional para as máquinas hospedeiras.Em suma, a virtualização de laboratórios de ensino tem como vantagens a redução dos
  12. 12. custos de manutenção, aumento da flexibilidade e aumento da segurança. Desenvolvimento de SoftwareEm um ambiente de desenvolvimento de software, o uso de ambientes virtuais tem doisobjetivos principais. O primeiro é fornecer ambientes distintos, com sistemasoperacionaisdiferentes ou de diferentes versões, para que se possa testar o software e verificar o seucomportamento em outros ambientes, concomitantemente. O segundo é criar ambientesisolados noqual uma falha do software que está sendo desenvolvido não comprometa o sistemaoperacional damáquina hospedeira. Se o software em desenvolvimento vier a comprometer o sistemada máquinavirtual, este pode ser recuperado copiando os arquivos de outra máquina, ourecuperando osarquivos da máquina comprometida do último backup.ConclusãoA virtualização é uma técnica que está cada vez mais presente na área de TI. Isso vemsendo revelado pelo grande número de empresas que surgem com soluções de gerênciadeambientes virtualizados e pelo aumento sucessivo nos investimento na área [2]. Essatécnica não érecente, mas após a popularização do PC, ela perdeu um pouco de destaque no cenárioda TI. Noentanto, esse destaque que vem sendo dado à virtualização recentemente é fruto doaumento dopoder computacional, que não foi seguido pela taxa de utilização dos computadores, oque geroumuitos recursos ociosos. A fim de aproveitar esses recursos, a idéia da virtualizaçãoretornou aocenário da TI.Embora a técnica da virtualização pareça ser a solução para grande parte dos problemasdeinfra-estrutura de TI, sua aplicação deve ser estudada e devem ser avaliados ostranstornos quepodem ser gerados. A aplicação da técnica da virtualização traz consigo uma mudançadeparadigma e, portanto, deve ser avaliada como um projeto de longo prazo. A sua adoçãoimplicarána mudança de política de compras e instalação de novos sistemas.Outro ponto a ser destacado na adoção da técnica de virtualização é qual vertente deveserseguida, a virtualização total ou a para-virtualização. Cada uma tem sua especificidade ea escolhade qual é melhor para o ambiente de trabalho está intimamente ligada a qual será ohardwaresubjacente às máquinas virtuais. Caso seja um hardware com suporte à virtualização, ouseja, daarquitetura AMD-V ou Intel VT, o mais aconselhável é o uso do virtualização total.Caso contrário,
  13. 13. o aconselhável é o uso da para-virtualização, que obteve melhores resultados dedesempenho emteste realizados com hardware sem suporte à virtualização [7].Em suma, a proposta da virtualização é muito atraente e traz diversos benefícios.Entretanto, como todo sistema computacional, está sujeito a falhas. A adoção davirtualização comoparadigma a ser seguido é uma decisão que deve ser tomada avaliando uma série defatores eponderando os riscos e os benefícios. Portanto, para empregar a técnica de virtualização,o maiscorreto a ser feito é um projeto de longo prazo, que adote a virtualização em pequenospassos.Para finalizar, vale lembrar que esta é uma área que está em crescimento e que novosprodutos surgem a todo o momento. Portanto, existem questões que ainda não estãocompletamenteresolvidas, tais como a migração de máquinas, a configuração automática de máquinasvirtuais,facilidades de backup e a recuperação de falhas [2].

×