A virtualização de desktops permite que múltiplos usuários compartilhem a capacidade de processamento de um único computador através de três componentes: 1) software que cria desktops virtuais; 2) protocolo que fornece interface de usuário eficiente; 3) dispositivos de acesso econômicos que se conectam aos usuários. Essa abordagem oferece benefícios como menor custo em comparação ao modelo tradicional de um computador por usuário.
O documento descreve a tecnologia de virtualização de desktop da NComputing, que permite que um único computador suporte vários usuários simultaneamente. Isso é feito por meio de software de virtualização, um protocolo de extensão de usuário e dispositivos de acesso otimizados para trabalhar em conjunto e fornecer uma experiência de desktop completa de forma eficiente. A solução oferece os benefícios da computação baseada em servidor sem as desvantagens, permitindo compartilhar recursos de computadores pessoais de forma rentável.
O documento resume as principais características e vantagens das soluções de virtualização de desktop da NComputing, incluindo o software e hardware utilizados, como os usuários se conectam ao servidor, a experiência do usuário final e como a tecnologia pode ajudar a economizar custos.
O documento discute a tecnologia de virtualização e como ela pode substituir servidores físicos por virtuais, trazendo economia de recursos para empresas. A virtualização permite rodar vários sistemas operacionais em um único servidor físico através de softwares como o Vmware e Xen.
[1] O documento discute o conceito de Cloud Computing e como ele representa uma mudança no paradigma computacional, permitindo que os usuários acessem software e armazenamento de dados na nuvem em vez de depender de recursos locais.
[2] A adoção do Cloud Computing terá um grande impacto nos dispositivos móveis, permitindo que eles acessem uma variedade de recursos e aplicações com hardware limitado.
[3] Embora haja benefícios como economia de custos e flexibilidade, a segurança dos dados armazenados e transmit
Sistemas para Internet e Software LivreHelder Lopes
Os dois textos discutem a transição para a era pós-PC, onde dispositivos móveis como smartphones e tablets estão se tornando os principais equipamentos de computação pessoal. Isso ocorre devido à mobilidade e conveniência desses dispositivos com interfaces touchscreen em comparação aos desktops e laptops tradicionais. A computação está se tornando mais ubíqua e baseada na nuvem, com os dados armazenados remotamente e acessíveis de qualquer dispositivo. Isso representa uma mudança significativa nos modelos de negócios da indú
1) O documento descreve a evolução da computação, desde os mainframes centralizados nas décadas de 1970 até os sistemas distribuídos atuais. 2) Fatores como o aumento da capacidade dos microcomputadores e o desenvolvimento das redes permitiram a distribuição dos sistemas e aplicações. 3) Isso levou ao surgimento de arquiteturas cliente-servidor e modelos de computação ubíqua, permitindo maior escalabilidade e tolerância a falhas.
Virtualização de Desktop como Solução para a Redução de CustosMaurício Mau
O documento discute a virtualização de desktop como uma solução para redução de custos nas empresas. Ele descreve os benefícios da virtualização, como redução de custos com aquisição, manutenção e energia de desktops, além de centralização de dados e facilidade de backups. Também aborda os principais produtos de virtualização no mercado e compara desktops virtuais versus tradicionais.
O documento descreve os sistemas operativos mais utilizados em 2014 em Portugal. O Windows foi o mais popular com 71,36% de uso, seguido pelo Android com 9,33% e pelo iOS com 7,79%. Embora o Windows continue em primeiro lugar, os dispositivos móveis estão cada vez mais populares para acessar a internet.
O documento descreve a tecnologia de virtualização de desktop da NComputing, que permite que um único computador suporte vários usuários simultaneamente. Isso é feito por meio de software de virtualização, um protocolo de extensão de usuário e dispositivos de acesso otimizados para trabalhar em conjunto e fornecer uma experiência de desktop completa de forma eficiente. A solução oferece os benefícios da computação baseada em servidor sem as desvantagens, permitindo compartilhar recursos de computadores pessoais de forma rentável.
O documento resume as principais características e vantagens das soluções de virtualização de desktop da NComputing, incluindo o software e hardware utilizados, como os usuários se conectam ao servidor, a experiência do usuário final e como a tecnologia pode ajudar a economizar custos.
O documento discute a tecnologia de virtualização e como ela pode substituir servidores físicos por virtuais, trazendo economia de recursos para empresas. A virtualização permite rodar vários sistemas operacionais em um único servidor físico através de softwares como o Vmware e Xen.
[1] O documento discute o conceito de Cloud Computing e como ele representa uma mudança no paradigma computacional, permitindo que os usuários acessem software e armazenamento de dados na nuvem em vez de depender de recursos locais.
[2] A adoção do Cloud Computing terá um grande impacto nos dispositivos móveis, permitindo que eles acessem uma variedade de recursos e aplicações com hardware limitado.
[3] Embora haja benefícios como economia de custos e flexibilidade, a segurança dos dados armazenados e transmit
Sistemas para Internet e Software LivreHelder Lopes
Os dois textos discutem a transição para a era pós-PC, onde dispositivos móveis como smartphones e tablets estão se tornando os principais equipamentos de computação pessoal. Isso ocorre devido à mobilidade e conveniência desses dispositivos com interfaces touchscreen em comparação aos desktops e laptops tradicionais. A computação está se tornando mais ubíqua e baseada na nuvem, com os dados armazenados remotamente e acessíveis de qualquer dispositivo. Isso representa uma mudança significativa nos modelos de negócios da indú
1) O documento descreve a evolução da computação, desde os mainframes centralizados nas décadas de 1970 até os sistemas distribuídos atuais. 2) Fatores como o aumento da capacidade dos microcomputadores e o desenvolvimento das redes permitiram a distribuição dos sistemas e aplicações. 3) Isso levou ao surgimento de arquiteturas cliente-servidor e modelos de computação ubíqua, permitindo maior escalabilidade e tolerância a falhas.
Virtualização de Desktop como Solução para a Redução de CustosMaurício Mau
O documento discute a virtualização de desktop como uma solução para redução de custos nas empresas. Ele descreve os benefícios da virtualização, como redução de custos com aquisição, manutenção e energia de desktops, além de centralização de dados e facilidade de backups. Também aborda os principais produtos de virtualização no mercado e compara desktops virtuais versus tradicionais.
O documento descreve os sistemas operativos mais utilizados em 2014 em Portugal. O Windows foi o mais popular com 71,36% de uso, seguido pelo Android com 9,33% e pelo iOS com 7,79%. Embora o Windows continue em primeiro lugar, os dispositivos móveis estão cada vez mais populares para acessar a internet.
O documento fornece informações sobre sistemas operativos para microcomputadores. Discute brevemente a evolução dos sistemas operativos e descreve os principais componentes de um microcomputador, incluindo portáteis e handhelds. Também lista os sistemas operativos mais usados em 2014, liderados pelo Windows, Android e iOS.
O que é computação paralela?
Imagine que você precisa realizar um cálculo muito extenso em pouquíssimo tempo. Para realizar tal tarefa, você chama um grupo de amigos e divide esse cálculo em partes, uma para cada amigo. Depois de realizado o cálculo de cada parte, você junta os resultados obtidos para conseguir o resultado final desse calculo extenso.
INFORMÁTICA EM SERIE
Tradicionalmente, o software foi escrito para computação em série: Um problema é dividido em uma série discreta de instruções
As instruções são executadas sequencialmente uma após a outra
Executado em um único processador
Apenas uma instrução pode ser executada a qualquer momento no tempo
No sentido mais simples, a computação paralela é o uso simultâneo de múltiplos recursos computacionais para resolver um problema computacional: Um problema é dividido em partes discretas que podem ser resolvidas simultaneamente.
Cada parte é dividida em uma série de instruções.
As instruções de cada peça executam simultaneamente em diferentes processadores.
Um mecanismo geral de controle / coordenação é empregado
O processo computacional deve ser capaz de:
Ser dividido em peças discretas que podem ser resolvidas simultaneamente;
Executar várias instruções do programa a qualquer momento;
Ser resolvido em menos tempo com vários recursos de computação do que com um único recurso de computação.
Os recursos de computação são tipicamente:
Um único computador com vários processadores / núcleos
Um número arbitrário de tais computadores conectados por uma rede
Praticamente todos os computadores autônomos hoje são paralelos a partir de uma perspectiva de hardware: Várias unidades funcionais (cache L1, cache L2, ramificação, prefetch, decodificação, ponto flutuante, processamento gráfico (GPU), número inteiro, etc.)
Unidades / núcleos de execução múltipla
Múltiplos segmentos de hardware
As redes conectam múltiplos computadores autônomos (nós) para criar conjuntos de computadores paralelos maiores.
A maioria dos grandes computadores paralelos do mundo (supercomputadores) são clusters de hardware produzidos por um punhado de vendedores (principalmente) bem conhecidos
O documento descreve os principais tipos de computadores, incluindo servidores corporativos com alta capacidade de processamento, desktops, notebooks portáteis, netbooks com recursos limitados, tablets sem teclado, smartphones e palmtops populares no início dos anos 2000.
Introdução a Informática (material de apoio)André Silva
O documento discute os principais componentes de um computador pessoal, incluindo hardware como a unidade central de processamento, memória e disco rígido, e periféricos como monitor, teclado e rato. Também explica os diferentes tipos de computadores como desktops, laptops, mainframes e supercomputadores, e o software necessário para operá-los.
O documento descreve os principais componentes de um computador, incluindo a placa-mãe, processador, memória, gabinete e outros. Explica como esses componentes interagem através do BIOS para inicializar o computador e permitir que o sistema operacional funcione. Também fornece detalhes sobre diferentes tipos de computadores como desktops, notebooks e servidores.
O documento descreve a evolução das aplicações corporativas ao longo dos anos, começando com os mainframes nas décadas de 1950-1970, depois os microcomputadores na década de 1970, a arquitetura cliente-servidor na década de 1980, e o desenvolvimento da web na década de 1990. Também discute a necessidade de integração entre sistemas, levando ao desenvolvimento de arquiteturas SOA e padrões de integração.
O documento discute a mobilidade corporativa e as ferramentas que permitem o trabalho móvel, como notebooks e dispositivos sem fio. A computação móvel tem crescido com o desenvolvimento de redes sem fio e dispositivos portáteis que fornecem maior produtividade aos funcionários. As empresas estão investindo mais em soluções móveis, apesar de algumas preocupações com segurança e cobertura de rede.
A computação em nuvem permite que usuários acessem aplicações e armazenem dados em servidores remotos ao invés de em seus próprios computadores. Isso reduz custos com hardware e software para empresas e permite acesso a dados de qualquer lugar. No entanto, questões de privacidade e segurança de dados precisam ser abordadas para que a computação em nuvem se torne mais amplamente adotada.
O documento descreve a evolução dos computadores ao longo das gerações, desde os primeiros modelos gigantes que utilizavam válvulas elétricas até os computadores portáteis e de múltiplos núcleos de hoje. A miniaturização dos componentes eletrônicos, como os transistores e microprocessadores, permitiu reduzir drasticamente o tamanho dos computadores ao longo do tempo. Marcos importantes incluem o desenvolvimento dos circuitos integrados e dos primeiros computadores pessoais da Apple e Altair.
O documento discute conceitos básicos de informática, incluindo hardware, software, sistemas operacionais e aplicativos comuns. Também apresenta diferentes tipos de computadores como desktops, notebooks, all-in-one e tablets, destacando suas características e aplicações. Por fim, descreve dispositivos de entrada e saída como teclado, mouse, monitor e impressora.
O documento discute as principais arquiteturas de computadores pessoais, especificamente PCs e Macs. Os PCs têm uma arquitetura aberta que permite componentes de vários fabricantes, enquanto os Macs têm uma arquitetura fechada controlada pela Apple. A arquitetura aberta dos PCs levou a uma maior concorrência e padronização, tornando-os mais populares do que os Macs.
As exigências dos data centers atuais diferem muito daquelas de 5 anos atrás. Avanços na virtualização finalmente trouxeram à luz a visão de data centers realmente adaptáveis às constantes mudanças nas necessidades dos negócios de acordo com as possibilidades. Ao mesmo tempo, a virtualização também forçou uma grande mudança no gerenciamento do data center. Não é mais aceitável considerar vários aspectos de computação, armazenamento e domínios de rede como silos separados. Todas as três “pilhas” de tecnologia agora devem ser gerenciadas por um orquestrador baseado em políticas, centralizado, que entenda de virtualização, determinando automaticamente a combinação certa de hardware e software necessária para atender a uma determinada necessidade de negócios.
A virtualização também apresentou desafios adicionais ao data center em termos de otimização de capacidade. Muitos servidores dos dias de hoje não são mais servidores de aplicativos monolíticos para um único propósito, restritos pela potência do processador. Graças às máquinas virtuais (VMs), os servidores agora executam múltiplas VMs para maximizar a utilização do hardware; os avanços na virtualização agora permitem mover facilmente VMs de uma máquina para outra. Isso fez com que o total de memória disponível hoje se transformasse na principal restrição de recursos ― muito mais do que a potência de computação.
O Cisco Unified Computing System, ou UCS, é um conjunto inovador de tecnologias que define o estágio para atender aos requisitos do data center — de hoje e de amanhã. Projetado organicamente e totalmente criado pela Cisco em parceria com líderes do setor, como a BMC, a Citrix e a Intel, o UCS mostra grande potencial para colocar em prática a visão do “Data Center 3.0” da Cisco, além de permitir que os clientes implantem a solução gradativamente, aproveitando os investimentos de vários fornecedores existentes e obtendo um sólido ROI de cada estágio no processo.
Um servidor é um programa de computador que fornece serviços de rede para outros programas, chamados clientes. Servidores operam dentro de uma arquitetura cliente-servidor e executam tarefas em nome dos clientes. Servidores comuns incluem servidores de banco de dados, arquivos, email, impressão e web.
O Super do Povo implementou um projeto de virtualização da área de trabalho nos servidores para diminuir custos e problemas técnicos. Isso reduziu em 90% as chamadas de suporte e permitiu que a equipe de TI se concentrasse em tarefas estratégicas. Computadores mais leves e compactos também substituíram os desktops antigos, gerando economia e conforto aos usuários.
O documento descreve os principais componentes de hardware e tipos de computadores, incluindo: (1) a Unidade Central de Processamento como o cérebro do computador; (2) os diferentes tipos de computadores como supercomputadores, mainframes, minicomputadores e computadores pessoais; e (3) os dispositivos de entrada e saída como teclado, mouse e monitor.
O avanço dos computadores e a história da internet.nataliaalvim_
O documento descreve a história da evolução dos computadores desde as primeiras máquinas da década de 1950 até os computadores modernos, dividindo essa história em gerações. Também discute a criação e popularização da internet, que começou com fins militares mas se tornou uma importante ferramenta acadêmica e comercial.
1) O documento discute a história e evolução dos microcomputadores e circuitos especiais, desde as válvulas até os circuitos integrados.
2) Os transistores permitiram a miniaturização dos circuitos eletrônicos e o desenvolvimento dos primeiros computadores comerciais.
3) Os circuitos integrados continham cada vez mais transistores, aumentando o poder de processamento dos computadores.
0132 tarde sergio_antao_ricardo_oliveira_luis_bernardo_tipos de pcSérgio Antao
Supercomputadores são computadores extremamente rápidos e com grande capacidade de memória, utilizados para pesquisas científicas complexas que requerem muita capacidade de processamento, como pesquisas militares, químicas e médicas. Os primeiros supercomputadores foram criados na década de 1960 por Seymour Cray.
This document summarizes a student project on mobility completed in 2013 in Patos de Minas, Brazil. The project contains research on concepts of mobility including notebooks, mobile devices, and wireless networks. It discusses how mobility tools are used in corporate and educational settings.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
O documento fornece informações sobre sistemas operativos para microcomputadores. Discute brevemente a evolução dos sistemas operativos e descreve os principais componentes de um microcomputador, incluindo portáteis e handhelds. Também lista os sistemas operativos mais usados em 2014, liderados pelo Windows, Android e iOS.
O que é computação paralela?
Imagine que você precisa realizar um cálculo muito extenso em pouquíssimo tempo. Para realizar tal tarefa, você chama um grupo de amigos e divide esse cálculo em partes, uma para cada amigo. Depois de realizado o cálculo de cada parte, você junta os resultados obtidos para conseguir o resultado final desse calculo extenso.
INFORMÁTICA EM SERIE
Tradicionalmente, o software foi escrito para computação em série: Um problema é dividido em uma série discreta de instruções
As instruções são executadas sequencialmente uma após a outra
Executado em um único processador
Apenas uma instrução pode ser executada a qualquer momento no tempo
No sentido mais simples, a computação paralela é o uso simultâneo de múltiplos recursos computacionais para resolver um problema computacional: Um problema é dividido em partes discretas que podem ser resolvidas simultaneamente.
Cada parte é dividida em uma série de instruções.
As instruções de cada peça executam simultaneamente em diferentes processadores.
Um mecanismo geral de controle / coordenação é empregado
O processo computacional deve ser capaz de:
Ser dividido em peças discretas que podem ser resolvidas simultaneamente;
Executar várias instruções do programa a qualquer momento;
Ser resolvido em menos tempo com vários recursos de computação do que com um único recurso de computação.
Os recursos de computação são tipicamente:
Um único computador com vários processadores / núcleos
Um número arbitrário de tais computadores conectados por uma rede
Praticamente todos os computadores autônomos hoje são paralelos a partir de uma perspectiva de hardware: Várias unidades funcionais (cache L1, cache L2, ramificação, prefetch, decodificação, ponto flutuante, processamento gráfico (GPU), número inteiro, etc.)
Unidades / núcleos de execução múltipla
Múltiplos segmentos de hardware
As redes conectam múltiplos computadores autônomos (nós) para criar conjuntos de computadores paralelos maiores.
A maioria dos grandes computadores paralelos do mundo (supercomputadores) são clusters de hardware produzidos por um punhado de vendedores (principalmente) bem conhecidos
O documento descreve os principais tipos de computadores, incluindo servidores corporativos com alta capacidade de processamento, desktops, notebooks portáteis, netbooks com recursos limitados, tablets sem teclado, smartphones e palmtops populares no início dos anos 2000.
Introdução a Informática (material de apoio)André Silva
O documento discute os principais componentes de um computador pessoal, incluindo hardware como a unidade central de processamento, memória e disco rígido, e periféricos como monitor, teclado e rato. Também explica os diferentes tipos de computadores como desktops, laptops, mainframes e supercomputadores, e o software necessário para operá-los.
O documento descreve os principais componentes de um computador, incluindo a placa-mãe, processador, memória, gabinete e outros. Explica como esses componentes interagem através do BIOS para inicializar o computador e permitir que o sistema operacional funcione. Também fornece detalhes sobre diferentes tipos de computadores como desktops, notebooks e servidores.
O documento descreve a evolução das aplicações corporativas ao longo dos anos, começando com os mainframes nas décadas de 1950-1970, depois os microcomputadores na década de 1970, a arquitetura cliente-servidor na década de 1980, e o desenvolvimento da web na década de 1990. Também discute a necessidade de integração entre sistemas, levando ao desenvolvimento de arquiteturas SOA e padrões de integração.
O documento discute a mobilidade corporativa e as ferramentas que permitem o trabalho móvel, como notebooks e dispositivos sem fio. A computação móvel tem crescido com o desenvolvimento de redes sem fio e dispositivos portáteis que fornecem maior produtividade aos funcionários. As empresas estão investindo mais em soluções móveis, apesar de algumas preocupações com segurança e cobertura de rede.
A computação em nuvem permite que usuários acessem aplicações e armazenem dados em servidores remotos ao invés de em seus próprios computadores. Isso reduz custos com hardware e software para empresas e permite acesso a dados de qualquer lugar. No entanto, questões de privacidade e segurança de dados precisam ser abordadas para que a computação em nuvem se torne mais amplamente adotada.
O documento descreve a evolução dos computadores ao longo das gerações, desde os primeiros modelos gigantes que utilizavam válvulas elétricas até os computadores portáteis e de múltiplos núcleos de hoje. A miniaturização dos componentes eletrônicos, como os transistores e microprocessadores, permitiu reduzir drasticamente o tamanho dos computadores ao longo do tempo. Marcos importantes incluem o desenvolvimento dos circuitos integrados e dos primeiros computadores pessoais da Apple e Altair.
O documento discute conceitos básicos de informática, incluindo hardware, software, sistemas operacionais e aplicativos comuns. Também apresenta diferentes tipos de computadores como desktops, notebooks, all-in-one e tablets, destacando suas características e aplicações. Por fim, descreve dispositivos de entrada e saída como teclado, mouse, monitor e impressora.
O documento discute as principais arquiteturas de computadores pessoais, especificamente PCs e Macs. Os PCs têm uma arquitetura aberta que permite componentes de vários fabricantes, enquanto os Macs têm uma arquitetura fechada controlada pela Apple. A arquitetura aberta dos PCs levou a uma maior concorrência e padronização, tornando-os mais populares do que os Macs.
As exigências dos data centers atuais diferem muito daquelas de 5 anos atrás. Avanços na virtualização finalmente trouxeram à luz a visão de data centers realmente adaptáveis às constantes mudanças nas necessidades dos negócios de acordo com as possibilidades. Ao mesmo tempo, a virtualização também forçou uma grande mudança no gerenciamento do data center. Não é mais aceitável considerar vários aspectos de computação, armazenamento e domínios de rede como silos separados. Todas as três “pilhas” de tecnologia agora devem ser gerenciadas por um orquestrador baseado em políticas, centralizado, que entenda de virtualização, determinando automaticamente a combinação certa de hardware e software necessária para atender a uma determinada necessidade de negócios.
A virtualização também apresentou desafios adicionais ao data center em termos de otimização de capacidade. Muitos servidores dos dias de hoje não são mais servidores de aplicativos monolíticos para um único propósito, restritos pela potência do processador. Graças às máquinas virtuais (VMs), os servidores agora executam múltiplas VMs para maximizar a utilização do hardware; os avanços na virtualização agora permitem mover facilmente VMs de uma máquina para outra. Isso fez com que o total de memória disponível hoje se transformasse na principal restrição de recursos ― muito mais do que a potência de computação.
O Cisco Unified Computing System, ou UCS, é um conjunto inovador de tecnologias que define o estágio para atender aos requisitos do data center — de hoje e de amanhã. Projetado organicamente e totalmente criado pela Cisco em parceria com líderes do setor, como a BMC, a Citrix e a Intel, o UCS mostra grande potencial para colocar em prática a visão do “Data Center 3.0” da Cisco, além de permitir que os clientes implantem a solução gradativamente, aproveitando os investimentos de vários fornecedores existentes e obtendo um sólido ROI de cada estágio no processo.
Um servidor é um programa de computador que fornece serviços de rede para outros programas, chamados clientes. Servidores operam dentro de uma arquitetura cliente-servidor e executam tarefas em nome dos clientes. Servidores comuns incluem servidores de banco de dados, arquivos, email, impressão e web.
O Super do Povo implementou um projeto de virtualização da área de trabalho nos servidores para diminuir custos e problemas técnicos. Isso reduziu em 90% as chamadas de suporte e permitiu que a equipe de TI se concentrasse em tarefas estratégicas. Computadores mais leves e compactos também substituíram os desktops antigos, gerando economia e conforto aos usuários.
O documento descreve os principais componentes de hardware e tipos de computadores, incluindo: (1) a Unidade Central de Processamento como o cérebro do computador; (2) os diferentes tipos de computadores como supercomputadores, mainframes, minicomputadores e computadores pessoais; e (3) os dispositivos de entrada e saída como teclado, mouse e monitor.
O avanço dos computadores e a história da internet.nataliaalvim_
O documento descreve a história da evolução dos computadores desde as primeiras máquinas da década de 1950 até os computadores modernos, dividindo essa história em gerações. Também discute a criação e popularização da internet, que começou com fins militares mas se tornou uma importante ferramenta acadêmica e comercial.
1) O documento discute a história e evolução dos microcomputadores e circuitos especiais, desde as válvulas até os circuitos integrados.
2) Os transistores permitiram a miniaturização dos circuitos eletrônicos e o desenvolvimento dos primeiros computadores comerciais.
3) Os circuitos integrados continham cada vez mais transistores, aumentando o poder de processamento dos computadores.
0132 tarde sergio_antao_ricardo_oliveira_luis_bernardo_tipos de pcSérgio Antao
Supercomputadores são computadores extremamente rápidos e com grande capacidade de memória, utilizados para pesquisas científicas complexas que requerem muita capacidade de processamento, como pesquisas militares, químicas e médicas. Os primeiros supercomputadores foram criados na década de 1960 por Seymour Cray.
This document summarizes a student project on mobility completed in 2013 in Patos de Minas, Brazil. The project contains research on concepts of mobility including notebooks, mobile devices, and wireless networks. It discusses how mobility tools are used in corporate and educational settings.
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
1. w h ite pape r
V i rt ua liz aç ão de desk top s
Virtualização de Desktops NComputing
Resumo
Todos já nos acostumamos ao formato do PC, que permite que cada usuário
tenha sua própria CPU, seu próprio disco rígido e sua própria memória para
rodar seus aplicativos. Mas os computadores pessoais de hoje são tão poderosos
que a maioria das pessoas simplesmente não consegue usar toda a capacidade
de processamento pela qual pagou. A virtualização de desktops NComputing
é uma alternativa moderna a esse modelo consagrado: através dela, múltiplos
usuários conseguem compartilhar a capacidade de processamento de um
único computador. Essa abordagem tem diversas vantagens sobre o conceito
tradicional, incluindo custos mais baixos, maior eficiência energética e
administração simplificada.
Introdução
Nos últimos 30 anos, os PCs mudaram nossa forma de trabalhar, jogar,
aprender e pensar sobre a tecnologia de computadores. Desde os primeiros
microprocessadores, em 1971, às moderníssimas CPUs multi-core dos PCs de
hoje em dia, os usuários vêm aprendendo a compreender e controlar sua
própria capacidade de processamento. Grande parte do sucesso dos PCs está
no fato de terem tirado a capacidade de processamento dos centros de dados
para colocá-la diretamente em nossas mesas.
Mas essa capacidade de processamento e controle também trouxe uma
responsabilidade – a responsabilidade de manter, reparar e atualizar o PC
sempre que necessário. Afinal, ele é uma máquina, e todas as máquinas
precisam de cuidados regulares. Como consumidores e usuários, podemos
ter comemorado o aumento de capacidade e produtividade trazido pelos PCs,
mas ninguém nos avisou que, mesmo com a ajuda de um departamento de TI,
teríamos de passar mais de 17 horas anuais mantendo nossos PCs. (Esse número
sobe para 60 horas se não tivermos um departamento específico de TI).1
Tendências de mercado
Os gastos com serviços de TI vêm crescendo, com custos cada vez maiores
de software e suporte. Considerações ligadas a segurança, sigilo de dados,
administrabilidade, tempo de atividade, espaço, energia e refrigeração estão
levando muitas organizações a procurar alternativas ao modelo tradicional
dos PCs distribuídos. Os thin clients se enfraqueceram porque ainda são muito
“pesados” com seus sistemas operacionais locais (Windows XP Embedded, Linux
etc.), processadores full-power, memórias de PC, drives locais, vulnerabilidades
a vírus – e todos os desafios de administração associados a esses componentes.
Embora o mercado de PCs tradicionais não esteja crescendo muito rapidamente,
seu tamanho enorme continua a impulsionar inovações significativas como os
processadores multi-core. O resultado é que os PCs de hoje já são capazes de
superar servidores de alto desempenho de alguns anos atrás. Isso abre as
portas para uma nova era de computação virtual, na qual a capacidade de
um PC comum é aproveitada da forma mais eficiente possível, por múltiplos
usuários, ao mesmo tempo.
1 Informe do IDC: “Analysis of the Business Value of Windows Vista”, Dezembro de 2006
2. w h ite pape r
V i rt ua liz aç ão de desk top s
Recentemente, o Wall Street Journal publicou uma reportagem intitulada
“O PC do escritório está encolhendo”. Segundo essa reportagem, a adoção da
computação em rede vai se acelerar à medida que mais empresas procurarem
otimizar seus recursos e minimizar seus custos com o máximo de eficiência.
Grandes corporações não são mais as únicas organizações em busca de
ajustes na informática. Escolas e pequenas e médias empresas também estão
procurando novas maneiras de oferecer acesso digital. Todas essas tendências
favorecem a abordagem de computação virtual introduzida pela NComputing
e, hoje em dia, cada vez mais adotada mundo afora. Em reconhecimento
a esse rápido crescimento e ao seu impacto na indústria da computação,
o Wall Street Journal concedeu à NComputing o seu prestigioso Technology
Innovation Award.
A fim de compreender plenamente o significado da solução NComputing, é
interessante olhar para trás e relembrar como a tecnologia da computação
evoluiu ao longo dos anos.
Mainframes e servidores: o prelúdio
Como já nos acostumamos a colocar PCs em nossas mesas por todos esses anos,
muitos de nós já se esqueceram de como os computadores funcionavam antes
do advento dos PCs. Naqueles anos, a computação era feita com máquinas de
grande porte, mainframes – caixas enormes, que ficavam em salas especialmente
refrigeradas, em cima de plataformas – conectados a terminais “burros”
espalhados por toda parte. Esse computador único, centralizado, realizava
o processamento para todos os usuários. Estes, por sua vez, não tinham de
administrar aquela caixa – isso era responsabilidade dos técnicos da época.
Se um usuário tivesse um problema, tudo o que tinha de fazer era chamar a
sala de computadores e pedir ajuda, já que o suporte também tinha de ser
centralizado – exatamente como o computador. Obviamente, as grandes
desvantagens dos IBM/360 eram o custo (US$ 133.000 pelo modelo básico
em 1965) 2 e considerações ambientais (espaço, energia e refrigeração). Eles
também exigiam uma equipe dedicada para suporte e manutenção do sistema.
As pessoas passavam anos sendo treinadas para entender e executar as tarefas
necessárias a fim de manter o sistema funcionando. Isso significava que o
número de pessoas qualificadas para manter um IBM/360 era muito pequeno,
o que relegava essas máquinas a grandes empresas, governos e instituições
educacionais. O passo seguinte foi o mini-computador, que também usava re-
cursos centralizados, mas a um custo muito mais baixo do que o de um
mainframe.
Com a chegada do PC (e do seu primo, o servidor baseado em PC), os
mainframes saíram de moda. Servidores substituíram mainframes em centros
de dados, e muitas máquinas eram utilizadas para realizar as mesmas tarefas.
Isso deu origem ao conceito conhecido como “computação baseada em
servidores” (SBC), que funciona nas mesmas linhas da computação com
mainframes, com algumas diferenças. O terminal “burro” é substituído por
um PC, que se comunica com um servidor e recebe uma interface de tela,
transferida pela rede inteira. A aplicação mais popular da computação baseada
em servidores foi a instalação de um pequeno subconjunto de aplicativos em um
servidor, os quais eram acessados pelos PCs clientes. Neste modelo, o PC ainda é
usado para executar aplicativos locais, e também roda os aplicativos baseados
2 Computer History Museum:
http://www.computerhistory.org/VirtualVisibleStorage/artifact_frame.php?tax_id= 03.02.02.00
3. w h ite pape r
V i rt ua liz aç ão de desk top s
no servidor através de softwares como o Citrix ou o Microsoft Terminal
Services. Em algumas instalações SBC, uma versão “reduzida” de um PC, com
um processador de baixo desempenho e armazenamento flash, chamado thin
client é utilizada. Com a abordagem thin client, a maioria dos aplicativos –
senão todos – é executada no servidor.
O SBC deveria oferecer as mesmas vantagens do mainframe e, ao mesmo tempo,
mitigar os custos e fatores ambientais, mas criava um conjunto de desvantagens
completamente diferente, entre as quais:
• Limitações aos usuários, com baixo desempenho nos desktops,
especialmente no uso de aplicativos gráficos.
• Máquinas caras, fundamentalmente PCs que normalmente necessitam
de customizações especiais.
• Servidores caros, com componentes de alto desempenho.
• Configuração e administração complexas, exigindo administradores
de rede com conhecimentos especiais.
O próximo passo: a virtualização de desktops
NComputing
Diante desse cenário, como é possível obter os benefícios do SBC sem as suas
desvantagens, e sem voltar à tecnologia do mainframe? A resposta é um novo
modelo: a virtualização de desktops NComputing.
A virtualização de desktops NComputing permite que um único PC suporte
simultaneamente dois ou mais usuários – cada um com sua própria paleta de
aplicativos. A chave para essa solução inovadora é o fato de que todos os três
componentes centrais da tecnologia são otimizados para funcionar em conjunto:
o software que virtualiza os recursos no PC, o protocolo que estende a interface
do usuário, e o cliente ou “dispositivo de acesso”. Devido a esse alto grau de
otimização, as soluções de virtualização NComputing podem ser executadas
em PCs comuns (e não apenas em servidores). O resultado oferece todos os
benefícios do SBC sem as suas desvantagens.
Muitos dos conceitos por trás da solução NComputing são semelhantes aos
do antigo modelo thin client. No entanto, a NComputing desenvolveu uma
implementação totalmente exclusiva, que oferece melhor desempenho a um
custo mais baixo. Os dispositivos de acesso são muito menores e mais altamente
integrados do que os dos thin clients tradicionais – que, em sua maioria, são
construídos com componentes de PCs de geração anterior. A NComputing
também desenvolveu seu próprio software de virtualização, o vSpace, e seu
próprio protocolo de extensão, a fim de otimizar ainda mais o processo: em
suma, um conjunto de tecnologias que funcionam de forma integrada, para
permitir não apenas que o hardware de servidores de alto desempenho seja
compartilhado, mas também o de PCs padrão. Essa abordagem única já
demonstrou sua capacidade de estender o acesso digital a todo um novo
universo de usuários, em escolas e nos países em desenvolvimento, e de
cortar os custos de computação para pequenas, médias e grandes empresas
no mundo inteiro.
4. w h ite pape r
V i rt ua liz aç ão de desk top s
Como funciona
A exclusiva tecnologia NComputing é composta por três componentes básicos:
o software de virtualização vSpace, um protocolo de extensão de usuário e
os dispositivos de acesso. Ao combinar todos esses componentes em uma
solução integrada, a NComputing oferece desempenho inigualável a um custo
incrivelmente baixo. Soluções tradicionais como os thin clients e outras opções
com PCs sempre se baseiam em componentes separados, adquiridos em
diversos fornecedores, o que resulta em desempenho abaixo do ideal e
custos mais elevados.
1. O software de virtualização 2. O Protocolo de eXtensão 3. Os dispositivos de
de desktops vSpace cria de Usuário (UXP) oferece acesso NComputing são
desktops virtuais independentes uma interface multimídia pequenos, silenciosos,
dentro de um PC com Windows eficiente e segura. econômicos, confiáveis
ou Linux. e muito baratos.
Componentes da tecnologia NComputing
Software de virtualização de desktops vSpace
O software de virtualização de desktops vSpace foi desenvolvido para aproveitar
a capacidade ociosa dos PCs e dividir seus recursos de forma eficiente, em espaços
de trabalho virtuais independentes, a fim de dar a cada usuário a experiência
integral de um PC. Ele funciona como um gerenciador de dados, que transmite
e administra a exibição do desktop e as atividades remotas a partir do teclado,
mouse e outras interfaces de usuário. O NComputing vSpace foi desenvolvido
especificamente para os exclusivos dispositivos de acesso NComputing, a fim de
oferecer o melhor desempenho aos usuários. Também foi desenvolvido para
funcionar independentemente do sistema operacional do servidor, e pode ser
executado tanto em plataformas Windows quanto Linux. E o melhor: o vSpace é
fácil de instalar e utilizar, ao contrário dos complexos softwares tradicionalmente
associados à computação com servidores.
Protocolo de extensão
Uma peça fundamental para se conseguir a experiência integral de um PC com
computação remota é o protocolo de extensão. Sistemas thin client tradicionais
utilizam protocolos que foram desenvolvidos para uso ocasional por
administradores, em situações de controle remoto temporário. A NComputing
desenvolveu seu exclusivo Protocolo de eXtensão de Usuário (UXP) para uso
contínuo por usuários finais, que necessitam da experiência integral de um PC.
Assim, aplicações de multimídia incluindo streaming, flash e gráficos 3D podem
ser suportadas. O UXP estabelece a comunicação entre o software de virtualiza-
ção NComputing e os dispositivos de acesso, conectados diretamente (produtos
da série X) ou pela Ethernet (produtos da série L). O protocolo foi desenvolvido
para operar em uma camada de software fora do sistema operacional do PC
compartilhado e funciona tanto com Windows quanto com Linux. É o elo entre
o software vSpace e o dispositivo de acesso.
5. w h ite pape r
V i rt ua liz aç ão de desk top s
Dispositivos de acesso
Os dispositivos de acesso NComputing não usam circuitos ou processadores
baseados na arquitetura dos PCs e não executam um sistema operacional local.
Toda a funcionalidade primária está integrada em um único chip, que possui um
conjunto otimizado de recursos para trabalhar com o software de virtualização
e o protocolo de extensão. O System-on-chip (SoC) contém tecnologias
patenteadas para oferecer desempenho incomparável em um dispositivo
de baixo consumo. O aparelho também contém uma pequena quantidade
de DRAM, utilizada para a exibição local.
O SoC no dispositivo de acesso executa diversos processos, incluindo controle
de boot, inicialização, conexão de rede, decodificação de protocolo, aceleração
de bitmap em cache e administração. Essa abordagem resulta em dispositivos
de acesso com consumo muito baixo (menos de 5 watts), o que permite
economia energética significativa em comparação com os PCs individuais,
com consumo médio de mais de 100 watts cada.
dispositivo de acesso série l
o system-on-chip (soC), no coração de cada dispositivo de acesso
A tecnologia SoC da NComputing é utilizada em diversos tipos de dispositivos
de acesso, concebidos para uma variedade de aplicações e necessidades. Em
todas as soluções, o usuário final continua com seu próprio monitor, teclado,
mouse e alto-falantes. No entanto, ao invés de se conectar diretamente ao
PC, estes periféricos são conectados ao pequeno dispositivo de acesso
NComputing, colocado sobre a mesa de trabalho ou montado diretamente
atrás do monitor. O dispositivo de acesso é conectado ao computador
compartilhado – diretamente (série X) ou pela Ethernet (série L) – através
do software vSpace. Os dispositivos da série L utilizam o UXP para oferecer
a experiência de um PC através de uma conexão padrão de rede, e podem
ser adquiridos em uma variedade de versões, para cada tipo de necessidade.
kit X550
Os produtos da série X incluem uma placa PCI, a ser instalada dentro do
PC compartilhado. A placa contém o SoC NComputing e tem, conforme a
configuração, três ou quatro portas RJ-45, que se conectam diretamente aos
dispositivos de acesso da série X através de cabos STP Cat5e ou Cat6 (até 5 ou
10 metros de comprimento respectivamente).
6. w h ite pape r
V i rt ua liz aç ão de desk top s
Os diagramas abaixo mostram como os dispositivos de acesso da série L e da
série X se conectam ao PC compartilhado.
Configuração da série X – conexão direta
Configuração da série l – conexão por ethernet
Integração com outras tecnologias de virtualização
O NComputing vSpace pode ser usado em conjunto com outras tecnologias de
virtualização a fim de enfrentar necessidades empresariais específicas: softwares
de virtualização de máquinas (oferecidos por fornecedores como a VMware e
a Microsoft) podem ser utilizados para criar múltiplas “máquinas virtuais”
funcionando em um mesmo servidor. Cada máquina virtual pode executar
um sistema operacional inteiramente independente, com seu próprio conjunto
exclusivo de aplicativos.
Por exemplo, em uma configuração comumente conhecida como “VDI”,
cada usuário final recebe sua própria máquina virtual completa, incluindo
sua própria instância de um sistema operacional como o Windows XP. O
NComputing vSpace pode ser instalado em cada Windows XP a fim de permitir
uma conexão 1:1 a um ou mais dispositivos de acesso da série L. Dessa forma,
cada usuário acessa seu próprio sistema operacional remotamente através
do dispositivo de acesso NComputing e do UXP. Embora o custo operacional
necessário para a virtualização de máquinas seja muito maior do que o das
implementações NComputing padrão, alguns ambientes podem se beneficiar
das propriedades de isolamento de usuários e aplicativos possibilitadas por
esta abordagem.