SlideShare uma empresa Scribd logo
1 de 6
Baixar para ler offline
Faculdades Integradas Santa Cruz de Curitiba
Curso de Tecnólogo em Redes de Computadores – 4º Período
Disciplina: Sistemas Distribuídos
Professor: Silvio Bortoleto
Alunos: Deroci Nonato Júnior
Misael Gollub Polucheski
Rafael Romaniecki
Artigo: V Workshop de Sistemas Distribuídos Autonômicos
(WoSiDA)
RESENHA
V Workshop de Sistemas Distribuídos Autonômicos (WoSiDA). SBRC 2015 de 18 a
22 de maio – Vitória – ES. Disponível em <http://sbrc2015.ufes.br/wp-
content/uploads/proceedingsWOSIDA2015.pdf> acessado em 22/08/15 às 12:00.
Desde os primórdios da vida humana na terra o homem tenta reproduzir
ferramentas a sua semelhança. No mundo dos sistemas distribuídos não é diferente. A
tentativa de criar um sistema com as mesmas características humanas de
autoconfiguração, auto cura, auto otimização, autoproteção, entre outros é algo que a
comunidade está buscando. Os principais desafios são a variabilidade de recursos,
requisitos de usuários, intrusões e falhas no sistema. Com o tamanho final desses sistemas
se torna uma tarefa extremamente árdua de se gerenciar, pois os serviços relacionados
precisam ser escaláveis, seguros e continuamente disponíveis.
Este Workshop realizado pela SBRC 2015 foca em modelos e algoritmos de
sistemas distribuídos, ferramentas e tecnologias de engenharia de software. Os tópicos
trabalham modelos e algoritmos de sistemas distribuídos, suporte de programação,
projeto, middleware, linguagens de programação para sistemas distribuídos autônomos,
modelagem e análise de sistemas distribuídos autônomos, variação e validação, aspectos
de confiança em sistemas distribuídos autônomos, aspectos de auto-organização, suporte
ao comportamento autônomo em grades, sistemas P2P e redes de sensores, algoritmos e
técnicas inspiradas em sistemas biológicos; e rede autônomas.
O primeiro assunto tratado foi o Fornecimento de Elasticidade
Computacionais Híbridas nas Nuvens com Base em Conceitos Autônomos de
Computação. Foi realizado um projeto com base no autosserviço sob demanda, acesso à
rede ampla, agrupamento de recursos, elasticidade rápida e serviço quantificado. A
proposta é ter um ambiente autônomo responsável por gerenciar seu próprio
comportamento de acordo com as políticas e interagir com outros elementos autônomos
que prestam serviços computacionais. No artigo é descrito que a principal contribuição
dele é: Uma arquitetura híbrida baseada em alguns conceitos de Computação Autônoma
para disponibilização de elasticidade na computação em nuvem e uma experiência
realizada em uma nuvem híbrida para validar a arquitetura proposta. Também é afirmado
no artigo que Kephart e Chess baseia este conceito em malhas de controle, coletores,
atuadores, regras e configuração, porem o que foi proposto foi uma nova visão que talvez
tenha fugido do alcance dos outros, o uso de um complemento para proporcionar
elasticidade em nuvens híbridas.
Os recursos utilizados foi construir uma nuvem privada com OpenNebula
3.8, máquinas virtuais com um vCPU e 1 GB de memória RAM, Microsoft Azure com
A1, instância (1 núcleo e 1,75 GB de memória RAM), quatro máquinas virtuais, Apache
Tomcat como armazenador web, ferramenta httperf como gerador de carga de trabalho, e
NGINX como balanceador de cargas. As cargas de trabalho foram geradas diretamente no
balanceador de carga das máquinas virtuais, vindo de navegadores da web e httperf. As
regras utilizadas foram: uso da CPU acima de 70% (aloca uma nova máquina virtual),
inferior a 60% (desalocar uma máquina virtual), e entre 60% e 70% (mantém atribuição).
Eles informaram que mantiveram o nível de serviço porem ainda foi apresentado uma
pequena queda. Uma questão que poderia ter sido levantada é um timer ou medidor de
uso de processamento para contar o tempo que as maquinas “a mais” foram utilizadas,
pois pensemos em um provedor de serviço, temos um cliente que atingiu 100% e precisa
de mais processamento, e contratou este serviço de elasticidade hibrida na nuvem, será
necessário medir o tempo que foi utilizado a mais do que o contrato para realizar a devida
cobrança. Temos a oportunidade de disponibilizar um serviço global de processamento
ilimitado acionado automaticamente por qualquer um que contratar o serviço, assim
teremos recursos “ilimitados” tanto de processamento como de armazenamento. O
experimento foi realizado para verificar a disponibilidade do nível de serviço e para
provar que é possível ser utilizado. Poderia ser implementado uma verificação para
autorização de expansão. Ser enviado um e-mail ou SMS para o administrador da rede
solicitando autorização para escalabilidade, a ideia é realizar tudo automático porem o
sistema autônomo além de se auto gerenciar deve informar todas a anomalias para seu
administrador.
Os pontos levantados pelos autores é que o sistema conseguiu manter a
elasticidade acionando mais maquinas automaticamente quando necessário e as
desligando quando não. Em quase todo o percurso do teste o nível de serviço foi mantido
exceto quando foi consumido todo os recursos de todas as maquinas, ou seja, a
elasticidade chegou ao máximo. O uso dos princípios de computação autônomo foi de
nível satisfatório, sendo essencial o uso de Loops de controle, coletores, malha de controle
e atuadores de acionamento.
A conclusão do artigo foi que utilizar a Computação Autônoma para
aplicação de elasticidade de processamento em nuvem é algo que realmente funcional em
todos os aspectos possíveis. Para os trabalhos futuros irão trabalhar com outros cenários
e outros critérios para desenhar as regras, como tempo de resposta de solicitações e de
transferência. Além disso, as utilizações de outros níveis de malhas de controle podem
melhorar a eficácia da arquitetura, com foco em um melhor desempenho, também deve
ser explorada estratégias de elasticidade, como a verticalização de soluções de
elasticidade e soluções híbridas.
O assunto de outro artigo tratado é de Autogerenciamento de Peers
Distribuídos através de um Protocolo de Intenção Comum Estendido e visa a aplicação
de noções de colaboração dos Peers, em vez gerenciamento de processo externo que gere
artificialmente as interações entre eles. É registrado que a coordenação descentralizada
de autogestão dos Peers pode estabelecer propriedades incertas para o ambiente de
sistemas distribuídos. O foco do artigo e dos testes que foram elaborados é para pares
distribuídos apresentem um comportamento de autogestão colaborativa ao executar
atividades. Para este teste foi aplicado a Teoria da Vontade Comum de Levesque. Esta
teoria se baseia em processos distintos sendo capazes de se coordenar para alcançar um
objetivo através de compromissos com base em um plano que visa o mesmo resultado
final. Tais processos são construído em torno de dois conceitos principais: Meta Fraca
que especifica as condições do objetivo em um processo, e as ações que devem tomar se
a meta for cumprida, irrelevante ou impossível. E Meta Persistente Conjunta que
especificam um conjunto de compromissos em um conjunto de processos para alcançar
um objetivo em comum.
A Meta Fraca em termos práticos, um Peer solicita a execução de uma
atividade, se o Processo1 tem que realizar Atividade1, Processo1 tem um compromisso
para executar a Atividade1 (ou pelo menos tentar), ou para comunicar sua conclusão,
falha ou irrelevância para o Peer solicitante. A Meta Persistente Conjunta garante que os
processos comuns não podem ser descartados até que a Atividade1 seja mutualmente
considerada cumprida, irrelevante ou impossível. Este compromisso também garante que
um processo se mantenha atualizado sobre a situação das atividades de outros processos
e, portanto, não enfrentam riscos desnecessários ou perdem tempo com ações
improdutivas. Assim se o plano for considerado inválido, os Peers podem tentar uma
sequência diferente de ações que produzem um mesmo resultado. Setando a atividade
com a solução comum. A vontade comum obriga o compromisso entre os pares que
pretendem colaborar.
No teste que foi realizado foi utilizado 10 pares distribuídos controlando e
entidades virtuais que representa a cidade de Kobe ao longo de 150 ciclos de segundo. O
primeiro teste foi utilizando a Meta Fraca e o segundo a Meta Persistente Conjunta onde
foi possível verificar um desempenho certa de 40% maior no segundo teste devido ao as
regas de metas conjuntas entre os Peers. Nos projetos futuros os autores pretendem
explorar domínios distribuídos mais complexos e a ideia de relatórios de execução que
pode apoiar o uso de práticas de auto otimização. Poderia ser trabalhado a hierarquia de
Peers autônoma, ou seja, com base em análise de desempenho os Peers com baixíssimo
uso de recursos se tornam submissos hierarquicamente dos Peers que tem um grande uso
de recursos. Onde que, Peers de consumo equivalente são hierarquicamente equivalentes.
Os Peers hierarquicamente equivalente devem realizar a negociação para definição de
metas, e os Peers que já são submissos a um Peer a tarefa é demandada direta a ele, se
tornando assim mais rápida a negociação e a execução da tarefa. Pode ser trabalho
também uma forma em que todos os Peers ociosos fiquem constantemente sinalizando os
demais Peers, assim quando surgir uma demanda os demais Peers já tem uma tabela criada
dos Peers ociosos e já sabem a quem demanda o determinado processo.
Outro artigo abordado foi Uma Heurística Híbrida para o Roteamento por
Múltiplos Caminhos em RSSFs onde foi referenciado que em redes de computadores, os
principais desafios é conseguir níveis de alto desempenho, principalmente em uma rede
sem fio. Os autores deste contexto abrangem inicialmente o RSSFs (Redes de Sensores
Sem Fio) como sendo um tipo rede problemática, citando falhas de transmissão de dados
devido as suas interferências e quantidades de nó.
É frisado definições retiradas de referências, uma possível solução em uma
rede RSSFs, é a de Dressler and Akan que consiste em algoritmos bio inspirados que
podem oferecer uma alternativa distribuída para tratar os problemas de roteamento, ou
seja, para uma boa confiabilidade na entrada dos dados, será a utilizado protocolos de
roteamentos por múltiplos caminhos. Esta solução irá depender da quantidade de
dispositivos utilizado em pequena, grande ou larga escala, quanto mais dispositivos na
rede maior é o consumo de energia. Neste ponto que entra a ideia da heurística distribuída
muito eficiente para ambientes em larga escala, chamado comunidades, sendo um sensor
que aplica em um nó e é direcionado para um sensor chamado de VS (ou sensores
especiais) maximizando a energia entre os demais nós. Pulando para a segunda parte,
começa a descrição de como resolver toda esta questão de uma rede RSSF. Tudo o que
se pronuncia durante o contexto é a utilização de algoritmos e algumas fórmulas. Durante
as etapas, são descritas as formulas criadas para a solução de cada ponto dos problemas
mencionado acima.
Concluindo, é apresentado os testes realizados em um cenário compostos por
1.000 nós utilizando um simulador chamado OMNET++/Castalia, com isso é descoberto
quais equações obtiveram a eficiência de roteamento, transmissão e de energia no qual
poderá ser utilizada nas estruturas da rede.
No artigo Uma Proposta Arquitetural de Sistema Autônomos para Redução
do Custo de Energia em Laboratórios de Informática foi registrado que atualmente, muito
se refere a redução de custo no modo geral. Os autores deste trabalho citam um conceito
para a população, que ajudam evitar a emissão de carbono e gastos de energia
desnecessários. A internet ou Internet das Coisas vem sendo um “vilão” para a sociedade,
pois com ela, são utilizados diversos dispositivos heterogêneos interconectados em uma
rede ocasionando mais e mais uso de energia. Com isso, a TIC (Tecnologias de
Informação e Comunicação) aparece com suas ferramentas auxiliando a causa.
No texto é demostrado uma arquitetura com recursos computacionais que
serão usados para uma possível solução, entre eles são: Sensores, aplicações para reunir
dados coletados, aplicações clientes nos computadores de laboratórios e aplicações para
o dispositivo mobile. Após a análise dos aspectos funcionais proposta pelos autores,
temos por conclusão que é de grande utilidade e importância o projeto de reduzir o custo
de energia em laboratórios de informática, tendo o poder de expansão muito grande.
No artigo, Avaliando o Impacto da Disseminação Assíncrona de Operações
na QoS de Bases de Dados Replicadas, foi proposto que em ambientes como a Internet
podemos aplicar modelos de distribuição de recursos para atender requisitos de garantia
de disponibilidade, um exemplo seria através do uso de bancos de dados replicados.
Porém neste ambiente muitas aplicações como por exemplo as redes sociais, demandam
de baixo tempo de resposta e em alguns casos a replicação de dados pode comprometer a
baixa latência. Contudo, nos mostram os autores, estas aplicações podem tolerar um tipo
de consistência fraca chamada de consistência eventual, e assume que, a partir de dado
momento todas as réplicas podem retornar a mesma informação. Por ser um requisito
fundamental o tempo de resposta é definido como métrica principal para determinar o
nível de qualidade de serviço.
Sendo assim os autores defendem um modelo de replicação de dados baseado
na replicação periódica de dados em lote, denominada replicação assíncrona. Esta
estratégia é uma variação da estratégia chamada Lazy Master. Nesta estratégia qualquer
réplica pode responder requisições de leitura. Nas operações de escrita uma réplica
denominada master é atualizada pela transação original e depois propagada de maneira
assíncrona para as outras réplicas após algum intervalo de tempo, intervalo este chamado
de Delta. No decorrer dos testes apresentados no trabalho, podemos notar que o chamado
Delta possui impacto direto sob a performance das operações bem como sob a
consistência e disponibilidade das informações. O tempo médio das repostas está
diretamente ligado ao timeout da operação de replicação, a vazão média de dados
diretamente ligada ao Delta e ao aumento no número de clientes.
Como conclusão baseando-se nos resultados temos que existe uma relação
direta entre o valor do Delta utilizado na disseminação assíncrona, o tempo de resposta e
a janela de inconsistência. Se fazendo desta forma a necessidade do uso de mecanismos
de auto-gestão para modificações do ambiente de acordo com o nível de compromisso
requisitado e a janela de inconsistência.
No último artigo proposto, Adicionando CBR na Gerência Autônoma de
Redes, foi nos apresentando que em um sistema autonômico é desejável que exista um
histórico de decisões já tomadas anteriormente para que estas informações armazenadas
auxiliem na análise de novas soluções. Por outro lado, o armazenamento de informações
de um ambiente de rede complexo como de um sistema autônomo pode aumentar a
complexidade de se gerenciar o sistema. Os autores assim defendem a necessidade da
especificação de novas soluções. Como solução os autores propõem a especificação de
um motor de buscas de soluções que permita modelar o conhecimento no contexto da
gerencia de redes operando com baixa necessidade de aquisição de conhecimento sobre
a rede evitando assim erros cometidos no passado. Propõe ainda uma base de dados com
apresentações de dados de forma flexível com a possibilidade de modificação e
recuperação dos dados em tempo factível.
Os Autores relatam que o funcionamento do CBR é similar à forma humana
de resolução de problemas, onde os problemas são resolvidos tendo como base
informações de problemas anteriores. No documento é proposto o CBR oferece como
suas principais vantagens: A redução da tarefa de aquisição de conhecimento; Evita a
repetição de erros do passado; proporciona flexibilidade na aquisição de conhecimento;
Raciocínio em um domínio de pouco conhecimento; Raciocínio onde há dados
incompletos ou imprecisos. No decorrer do documento são apresentadas formulas e
formas utilizadas pelo sistema para mapeamento, determinação e formas de soluções para
um problema.
É defendido que para a utilização do CBR seja possível, é necessário a
utilização de um método capaz de armazenar e indexar as informações na forma de
experiências contextualizadas. Desse modo o método utilizado para armazenamento,
indexação e contextualização é essencial para o sucesso do sistema. É proposto ainda que
um caso consiste basicamente de duas partes: O problema e a solução e que estes podem
ser divididos em várias partes menores. No contexto do artigo são informações
relacionadas a topologia de rede, tráfego, problemas encontrados e expectativas do
administrador de redes. Diante do apresentado no artigo conclui-se que a utilização do
sistema de CBR possibilitou melhoria na eficiência e flexibilidade na busca de novas
soluções. A eficiência se deve a redução de tempo na resolução de problemas já
relacionados na base. A flexibilidade é devido a possibilidade de problemas diferentes
serem solucionados utilizando uma base não diretamente ligada ao tema, utilizando
referencias contextuais para isso.

Mais conteúdo relacionado

Semelhante a Sistemas Distribuídos Autônomos Workshop

Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...
Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...
Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...Wildtech
 
O desafio de sustentar centenas de servicos
O desafio de sustentar centenas de servicosO desafio de sustentar centenas de servicos
O desafio de sustentar centenas de servicosGraziella Bonizi
 
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...rafaelov
 
Desenvolvimento ágil de software: análise sintética a partir de KANBAN
Desenvolvimento ágil de software: análise sintética a partir de KANBANDesenvolvimento ágil de software: análise sintética a partir de KANBAN
Desenvolvimento ágil de software: análise sintética a partir de KANBANFernando Palma
 
Especificação de Requisitos de Software
Especificação de Requisitos de SoftwareEspecificação de Requisitos de Software
Especificação de Requisitos de SoftwareRalph Rassweiler
 
Como DDD e Strategic Design estão nos ajudando a modernizar um Legado
Como DDD e Strategic Design estão nos ajudando a modernizar um LegadoComo DDD e Strategic Design estão nos ajudando a modernizar um Legado
Como DDD e Strategic Design estão nos ajudando a modernizar um LegadoLuiz Costa
 
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdf
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdfO_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdf
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdfAthena542429
 
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...Colaborativismo
 
Colaboração e Inclusão Digital - Completo
Colaboração e Inclusão Digital - CompletoColaboração e Inclusão Digital - Completo
Colaboração e Inclusão Digital - CompletoDiego Henrique Miranda
 
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...Adoção de metodologias ágeis para produção de jogos sociais com times distrib...
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...Lenin Abadie
 
Workflow, Business Intelligence e Ferramentas Colaborativas
Workflow, Business Intelligence e Ferramentas ColaborativasWorkflow, Business Intelligence e Ferramentas Colaborativas
Workflow, Business Intelligence e Ferramentas Colaborativasigorc2
 
Usando serviços Web semânticos e agentes de software num framework para adapt...
Usando serviços Web semânticos e agentes de software num framework para adapt...Usando serviços Web semânticos e agentes de software num framework para adapt...
Usando serviços Web semânticos e agentes de software num framework para adapt...Luiz Henrique Zambom Santana
 
ALM - Testes Exploratórios
ALM - Testes ExploratóriosALM - Testes Exploratórios
ALM - Testes ExploratóriosAlan Carlos
 

Semelhante a Sistemas Distribuídos Autônomos Workshop (20)

Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...
Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...
Implementação de um módulo de gestão de projetos baseado em Scrum para o Expr...
 
Trabalho individual
Trabalho individualTrabalho individual
Trabalho individual
 
O desafio de sustentar centenas de servicos
O desafio de sustentar centenas de servicosO desafio de sustentar centenas de servicos
O desafio de sustentar centenas de servicos
 
escalonamento de processos
escalonamento de processosescalonamento de processos
escalonamento de processos
 
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...
Artigo Threads O Problema Dos Leitores E Escritores Implementado Em C# Rafael...
 
Desenvolvimento ágil de software: análise sintética a partir de KANBAN
Desenvolvimento ágil de software: análise sintética a partir de KANBANDesenvolvimento ágil de software: análise sintética a partir de KANBAN
Desenvolvimento ágil de software: análise sintética a partir de KANBAN
 
Naked Objects
Naked ObjectsNaked Objects
Naked Objects
 
Especificação de Requisitos de Software
Especificação de Requisitos de SoftwareEspecificação de Requisitos de Software
Especificação de Requisitos de Software
 
Como DDD e Strategic Design estão nos ajudando a modernizar um Legado
Como DDD e Strategic Design estão nos ajudando a modernizar um LegadoComo DDD e Strategic Design estão nos ajudando a modernizar um Legado
Como DDD e Strategic Design estão nos ajudando a modernizar um Legado
 
Sld 4
Sld 4Sld 4
Sld 4
 
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdf
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdfO_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdf
O_Ciclo_de_Vida_do_Desenvolvimento_de_Sistemas.pdf
 
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...
Implantação do SEI na Universidade Tecnológica Federal do Paraná - Módulo Meu...
 
Colaboração e Inclusão Digital - Completo
Colaboração e Inclusão Digital - CompletoColaboração e Inclusão Digital - Completo
Colaboração e Inclusão Digital - Completo
 
Revista programar 14
Revista programar 14Revista programar 14
Revista programar 14
 
Sistemas Multiagentes Baseados em Modelagem por Redes de Petri: um estudo de ...
Sistemas Multiagentes Baseados em Modelagem por Redes de Petri: um estudo de ...Sistemas Multiagentes Baseados em Modelagem por Redes de Petri: um estudo de ...
Sistemas Multiagentes Baseados em Modelagem por Redes de Petri: um estudo de ...
 
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...Adoção de metodologias ágeis para produção de jogos sociais com times distrib...
Adoção de metodologias ágeis para produção de jogos sociais com times distrib...
 
Workflow, Business Intelligence e Ferramentas Colaborativas
Workflow, Business Intelligence e Ferramentas ColaborativasWorkflow, Business Intelligence e Ferramentas Colaborativas
Workflow, Business Intelligence e Ferramentas Colaborativas
 
Usando serviços Web semânticos e agentes de software num framework para adapt...
Usando serviços Web semânticos e agentes de software num framework para adapt...Usando serviços Web semânticos e agentes de software num framework para adapt...
Usando serviços Web semânticos e agentes de software num framework para adapt...
 
Oficina cake php
Oficina cake phpOficina cake php
Oficina cake php
 
ALM - Testes Exploratórios
ALM - Testes ExploratóriosALM - Testes Exploratórios
ALM - Testes Exploratórios
 

Mais de Deroci Nonato Júnior

Utilização de sistemas distribuidos
Utilização de sistemas distribuidosUtilização de sistemas distribuidos
Utilização de sistemas distribuidosDeroci Nonato Júnior
 
Sistema de Banco de Dados Distribuídos
Sistema de Banco de Dados DistribuídosSistema de Banco de Dados Distribuídos
Sistema de Banco de Dados DistribuídosDeroci Nonato Júnior
 
SIG - Sistema de Informações Gerenciais
SIG - Sistema de Informações GerenciaisSIG - Sistema de Informações Gerenciais
SIG - Sistema de Informações GerenciaisDeroci Nonato Júnior
 
COBIT - Control Objectives for Information and related Technology
COBIT - Control Objectives for Information and related TechnologyCOBIT - Control Objectives for Information and related Technology
COBIT - Control Objectives for Information and related TechnologyDeroci Nonato Júnior
 
Sistema de Informacoes Gerenciais - SIG
Sistema de Informacoes Gerenciais - SIGSistema de Informacoes Gerenciais - SIG
Sistema de Informacoes Gerenciais - SIGDeroci Nonato Júnior
 
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas Relacionadas
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas RelacionadasCOBIT - Objetivo de Controle para Tecnologia da Informação e Áreas Relacionadas
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas RelacionadasDeroci Nonato Júnior
 
Interconexão de redes - Documentação de Rede
Interconexão de redes - Documentação de RedeInterconexão de redes - Documentação de Rede
Interconexão de redes - Documentação de RedeDeroci Nonato Júnior
 
Proposta Executiva do Projeto - Asterisk
Proposta Executiva do Projeto - AsteriskProposta Executiva do Projeto - Asterisk
Proposta Executiva do Projeto - AsteriskDeroci Nonato Júnior
 
Queijos Nacionais - Proposta de Negócio
Queijos Nacionais - Proposta de NegócioQueijos Nacionais - Proposta de Negócio
Queijos Nacionais - Proposta de NegócioDeroci Nonato Júnior
 
Histórico das comunicações, teleprocessamento e tipos de processamento
Histórico das comunicações, teleprocessamento e tipos de processamentoHistórico das comunicações, teleprocessamento e tipos de processamento
Histórico das comunicações, teleprocessamento e tipos de processamentoDeroci Nonato Júnior
 

Mais de Deroci Nonato Júnior (17)

Utilização de sistemas distribuidos
Utilização de sistemas distribuidosUtilização de sistemas distribuidos
Utilização de sistemas distribuidos
 
Nova Genesis - Internet do Futuro
Nova Genesis - Internet do FuturoNova Genesis - Internet do Futuro
Nova Genesis - Internet do Futuro
 
Sistema de Banco de Dados Distribuídos
Sistema de Banco de Dados DistribuídosSistema de Banco de Dados Distribuídos
Sistema de Banco de Dados Distribuídos
 
Nova Genesis - Internet do Futuro
Nova Genesis - Internet do FuturoNova Genesis - Internet do Futuro
Nova Genesis - Internet do Futuro
 
SIG - Sistema de Informações Gerenciais
SIG - Sistema de Informações GerenciaisSIG - Sistema de Informações Gerenciais
SIG - Sistema de Informações Gerenciais
 
COBIT - Control Objectives for Information and related Technology
COBIT - Control Objectives for Information and related TechnologyCOBIT - Control Objectives for Information and related Technology
COBIT - Control Objectives for Information and related Technology
 
Sistema de Informacoes Gerenciais - SIG
Sistema de Informacoes Gerenciais - SIGSistema de Informacoes Gerenciais - SIG
Sistema de Informacoes Gerenciais - SIG
 
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas Relacionadas
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas RelacionadasCOBIT - Objetivo de Controle para Tecnologia da Informação e Áreas Relacionadas
COBIT - Objetivo de Controle para Tecnologia da Informação e Áreas Relacionadas
 
Segurança de redes wi fi - WPA
Segurança de redes wi fi - WPASegurança de redes wi fi - WPA
Segurança de redes wi fi - WPA
 
Segurança de rede wi fi - WPA
Segurança de rede wi fi - WPASegurança de rede wi fi - WPA
Segurança de rede wi fi - WPA
 
Interconexão de redes - Documentação de Rede
Interconexão de redes - Documentação de RedeInterconexão de redes - Documentação de Rede
Interconexão de redes - Documentação de Rede
 
Projeto Asterisk - Empresa
Projeto Asterisk - EmpresaProjeto Asterisk - Empresa
Projeto Asterisk - Empresa
 
Proposta Executiva do Projeto - Asterisk
Proposta Executiva do Projeto - AsteriskProposta Executiva do Projeto - Asterisk
Proposta Executiva do Projeto - Asterisk
 
Queijos Nacionais - Proposta de Negócio
Queijos Nacionais - Proposta de NegócioQueijos Nacionais - Proposta de Negócio
Queijos Nacionais - Proposta de Negócio
 
Automação Residencial
Automação ResidencialAutomação Residencial
Automação Residencial
 
Windows Server
Windows ServerWindows Server
Windows Server
 
Histórico das comunicações, teleprocessamento e tipos de processamento
Histórico das comunicações, teleprocessamento e tipos de processamentoHistórico das comunicações, teleprocessamento e tipos de processamento
Histórico das comunicações, teleprocessamento e tipos de processamento
 

Sistemas Distribuídos Autônomos Workshop

  • 1. Faculdades Integradas Santa Cruz de Curitiba Curso de Tecnólogo em Redes de Computadores – 4º Período Disciplina: Sistemas Distribuídos Professor: Silvio Bortoleto Alunos: Deroci Nonato Júnior Misael Gollub Polucheski Rafael Romaniecki Artigo: V Workshop de Sistemas Distribuídos Autonômicos (WoSiDA) RESENHA V Workshop de Sistemas Distribuídos Autonômicos (WoSiDA). SBRC 2015 de 18 a 22 de maio – Vitória – ES. Disponível em <http://sbrc2015.ufes.br/wp- content/uploads/proceedingsWOSIDA2015.pdf> acessado em 22/08/15 às 12:00. Desde os primórdios da vida humana na terra o homem tenta reproduzir ferramentas a sua semelhança. No mundo dos sistemas distribuídos não é diferente. A tentativa de criar um sistema com as mesmas características humanas de autoconfiguração, auto cura, auto otimização, autoproteção, entre outros é algo que a comunidade está buscando. Os principais desafios são a variabilidade de recursos, requisitos de usuários, intrusões e falhas no sistema. Com o tamanho final desses sistemas se torna uma tarefa extremamente árdua de se gerenciar, pois os serviços relacionados precisam ser escaláveis, seguros e continuamente disponíveis. Este Workshop realizado pela SBRC 2015 foca em modelos e algoritmos de sistemas distribuídos, ferramentas e tecnologias de engenharia de software. Os tópicos trabalham modelos e algoritmos de sistemas distribuídos, suporte de programação, projeto, middleware, linguagens de programação para sistemas distribuídos autônomos, modelagem e análise de sistemas distribuídos autônomos, variação e validação, aspectos de confiança em sistemas distribuídos autônomos, aspectos de auto-organização, suporte ao comportamento autônomo em grades, sistemas P2P e redes de sensores, algoritmos e técnicas inspiradas em sistemas biológicos; e rede autônomas. O primeiro assunto tratado foi o Fornecimento de Elasticidade Computacionais Híbridas nas Nuvens com Base em Conceitos Autônomos de Computação. Foi realizado um projeto com base no autosserviço sob demanda, acesso à rede ampla, agrupamento de recursos, elasticidade rápida e serviço quantificado. A
  • 2. proposta é ter um ambiente autônomo responsável por gerenciar seu próprio comportamento de acordo com as políticas e interagir com outros elementos autônomos que prestam serviços computacionais. No artigo é descrito que a principal contribuição dele é: Uma arquitetura híbrida baseada em alguns conceitos de Computação Autônoma para disponibilização de elasticidade na computação em nuvem e uma experiência realizada em uma nuvem híbrida para validar a arquitetura proposta. Também é afirmado no artigo que Kephart e Chess baseia este conceito em malhas de controle, coletores, atuadores, regras e configuração, porem o que foi proposto foi uma nova visão que talvez tenha fugido do alcance dos outros, o uso de um complemento para proporcionar elasticidade em nuvens híbridas. Os recursos utilizados foi construir uma nuvem privada com OpenNebula 3.8, máquinas virtuais com um vCPU e 1 GB de memória RAM, Microsoft Azure com A1, instância (1 núcleo e 1,75 GB de memória RAM), quatro máquinas virtuais, Apache Tomcat como armazenador web, ferramenta httperf como gerador de carga de trabalho, e NGINX como balanceador de cargas. As cargas de trabalho foram geradas diretamente no balanceador de carga das máquinas virtuais, vindo de navegadores da web e httperf. As regras utilizadas foram: uso da CPU acima de 70% (aloca uma nova máquina virtual), inferior a 60% (desalocar uma máquina virtual), e entre 60% e 70% (mantém atribuição). Eles informaram que mantiveram o nível de serviço porem ainda foi apresentado uma pequena queda. Uma questão que poderia ter sido levantada é um timer ou medidor de uso de processamento para contar o tempo que as maquinas “a mais” foram utilizadas, pois pensemos em um provedor de serviço, temos um cliente que atingiu 100% e precisa de mais processamento, e contratou este serviço de elasticidade hibrida na nuvem, será necessário medir o tempo que foi utilizado a mais do que o contrato para realizar a devida cobrança. Temos a oportunidade de disponibilizar um serviço global de processamento ilimitado acionado automaticamente por qualquer um que contratar o serviço, assim teremos recursos “ilimitados” tanto de processamento como de armazenamento. O experimento foi realizado para verificar a disponibilidade do nível de serviço e para provar que é possível ser utilizado. Poderia ser implementado uma verificação para autorização de expansão. Ser enviado um e-mail ou SMS para o administrador da rede solicitando autorização para escalabilidade, a ideia é realizar tudo automático porem o sistema autônomo além de se auto gerenciar deve informar todas a anomalias para seu administrador. Os pontos levantados pelos autores é que o sistema conseguiu manter a elasticidade acionando mais maquinas automaticamente quando necessário e as desligando quando não. Em quase todo o percurso do teste o nível de serviço foi mantido exceto quando foi consumido todo os recursos de todas as maquinas, ou seja, a elasticidade chegou ao máximo. O uso dos princípios de computação autônomo foi de nível satisfatório, sendo essencial o uso de Loops de controle, coletores, malha de controle e atuadores de acionamento. A conclusão do artigo foi que utilizar a Computação Autônoma para aplicação de elasticidade de processamento em nuvem é algo que realmente funcional em todos os aspectos possíveis. Para os trabalhos futuros irão trabalhar com outros cenários e outros critérios para desenhar as regras, como tempo de resposta de solicitações e de transferência. Além disso, as utilizações de outros níveis de malhas de controle podem
  • 3. melhorar a eficácia da arquitetura, com foco em um melhor desempenho, também deve ser explorada estratégias de elasticidade, como a verticalização de soluções de elasticidade e soluções híbridas. O assunto de outro artigo tratado é de Autogerenciamento de Peers Distribuídos através de um Protocolo de Intenção Comum Estendido e visa a aplicação de noções de colaboração dos Peers, em vez gerenciamento de processo externo que gere artificialmente as interações entre eles. É registrado que a coordenação descentralizada de autogestão dos Peers pode estabelecer propriedades incertas para o ambiente de sistemas distribuídos. O foco do artigo e dos testes que foram elaborados é para pares distribuídos apresentem um comportamento de autogestão colaborativa ao executar atividades. Para este teste foi aplicado a Teoria da Vontade Comum de Levesque. Esta teoria se baseia em processos distintos sendo capazes de se coordenar para alcançar um objetivo através de compromissos com base em um plano que visa o mesmo resultado final. Tais processos são construído em torno de dois conceitos principais: Meta Fraca que especifica as condições do objetivo em um processo, e as ações que devem tomar se a meta for cumprida, irrelevante ou impossível. E Meta Persistente Conjunta que especificam um conjunto de compromissos em um conjunto de processos para alcançar um objetivo em comum. A Meta Fraca em termos práticos, um Peer solicita a execução de uma atividade, se o Processo1 tem que realizar Atividade1, Processo1 tem um compromisso para executar a Atividade1 (ou pelo menos tentar), ou para comunicar sua conclusão, falha ou irrelevância para o Peer solicitante. A Meta Persistente Conjunta garante que os processos comuns não podem ser descartados até que a Atividade1 seja mutualmente considerada cumprida, irrelevante ou impossível. Este compromisso também garante que um processo se mantenha atualizado sobre a situação das atividades de outros processos e, portanto, não enfrentam riscos desnecessários ou perdem tempo com ações improdutivas. Assim se o plano for considerado inválido, os Peers podem tentar uma sequência diferente de ações que produzem um mesmo resultado. Setando a atividade com a solução comum. A vontade comum obriga o compromisso entre os pares que pretendem colaborar. No teste que foi realizado foi utilizado 10 pares distribuídos controlando e entidades virtuais que representa a cidade de Kobe ao longo de 150 ciclos de segundo. O primeiro teste foi utilizando a Meta Fraca e o segundo a Meta Persistente Conjunta onde foi possível verificar um desempenho certa de 40% maior no segundo teste devido ao as regas de metas conjuntas entre os Peers. Nos projetos futuros os autores pretendem explorar domínios distribuídos mais complexos e a ideia de relatórios de execução que pode apoiar o uso de práticas de auto otimização. Poderia ser trabalhado a hierarquia de Peers autônoma, ou seja, com base em análise de desempenho os Peers com baixíssimo uso de recursos se tornam submissos hierarquicamente dos Peers que tem um grande uso de recursos. Onde que, Peers de consumo equivalente são hierarquicamente equivalentes. Os Peers hierarquicamente equivalente devem realizar a negociação para definição de metas, e os Peers que já são submissos a um Peer a tarefa é demandada direta a ele, se tornando assim mais rápida a negociação e a execução da tarefa. Pode ser trabalho também uma forma em que todos os Peers ociosos fiquem constantemente sinalizando os
  • 4. demais Peers, assim quando surgir uma demanda os demais Peers já tem uma tabela criada dos Peers ociosos e já sabem a quem demanda o determinado processo. Outro artigo abordado foi Uma Heurística Híbrida para o Roteamento por Múltiplos Caminhos em RSSFs onde foi referenciado que em redes de computadores, os principais desafios é conseguir níveis de alto desempenho, principalmente em uma rede sem fio. Os autores deste contexto abrangem inicialmente o RSSFs (Redes de Sensores Sem Fio) como sendo um tipo rede problemática, citando falhas de transmissão de dados devido as suas interferências e quantidades de nó. É frisado definições retiradas de referências, uma possível solução em uma rede RSSFs, é a de Dressler and Akan que consiste em algoritmos bio inspirados que podem oferecer uma alternativa distribuída para tratar os problemas de roteamento, ou seja, para uma boa confiabilidade na entrada dos dados, será a utilizado protocolos de roteamentos por múltiplos caminhos. Esta solução irá depender da quantidade de dispositivos utilizado em pequena, grande ou larga escala, quanto mais dispositivos na rede maior é o consumo de energia. Neste ponto que entra a ideia da heurística distribuída muito eficiente para ambientes em larga escala, chamado comunidades, sendo um sensor que aplica em um nó e é direcionado para um sensor chamado de VS (ou sensores especiais) maximizando a energia entre os demais nós. Pulando para a segunda parte, começa a descrição de como resolver toda esta questão de uma rede RSSF. Tudo o que se pronuncia durante o contexto é a utilização de algoritmos e algumas fórmulas. Durante as etapas, são descritas as formulas criadas para a solução de cada ponto dos problemas mencionado acima. Concluindo, é apresentado os testes realizados em um cenário compostos por 1.000 nós utilizando um simulador chamado OMNET++/Castalia, com isso é descoberto quais equações obtiveram a eficiência de roteamento, transmissão e de energia no qual poderá ser utilizada nas estruturas da rede. No artigo Uma Proposta Arquitetural de Sistema Autônomos para Redução do Custo de Energia em Laboratórios de Informática foi registrado que atualmente, muito se refere a redução de custo no modo geral. Os autores deste trabalho citam um conceito para a população, que ajudam evitar a emissão de carbono e gastos de energia desnecessários. A internet ou Internet das Coisas vem sendo um “vilão” para a sociedade, pois com ela, são utilizados diversos dispositivos heterogêneos interconectados em uma rede ocasionando mais e mais uso de energia. Com isso, a TIC (Tecnologias de Informação e Comunicação) aparece com suas ferramentas auxiliando a causa. No texto é demostrado uma arquitetura com recursos computacionais que serão usados para uma possível solução, entre eles são: Sensores, aplicações para reunir dados coletados, aplicações clientes nos computadores de laboratórios e aplicações para o dispositivo mobile. Após a análise dos aspectos funcionais proposta pelos autores, temos por conclusão que é de grande utilidade e importância o projeto de reduzir o custo de energia em laboratórios de informática, tendo o poder de expansão muito grande. No artigo, Avaliando o Impacto da Disseminação Assíncrona de Operações na QoS de Bases de Dados Replicadas, foi proposto que em ambientes como a Internet podemos aplicar modelos de distribuição de recursos para atender requisitos de garantia
  • 5. de disponibilidade, um exemplo seria através do uso de bancos de dados replicados. Porém neste ambiente muitas aplicações como por exemplo as redes sociais, demandam de baixo tempo de resposta e em alguns casos a replicação de dados pode comprometer a baixa latência. Contudo, nos mostram os autores, estas aplicações podem tolerar um tipo de consistência fraca chamada de consistência eventual, e assume que, a partir de dado momento todas as réplicas podem retornar a mesma informação. Por ser um requisito fundamental o tempo de resposta é definido como métrica principal para determinar o nível de qualidade de serviço. Sendo assim os autores defendem um modelo de replicação de dados baseado na replicação periódica de dados em lote, denominada replicação assíncrona. Esta estratégia é uma variação da estratégia chamada Lazy Master. Nesta estratégia qualquer réplica pode responder requisições de leitura. Nas operações de escrita uma réplica denominada master é atualizada pela transação original e depois propagada de maneira assíncrona para as outras réplicas após algum intervalo de tempo, intervalo este chamado de Delta. No decorrer dos testes apresentados no trabalho, podemos notar que o chamado Delta possui impacto direto sob a performance das operações bem como sob a consistência e disponibilidade das informações. O tempo médio das repostas está diretamente ligado ao timeout da operação de replicação, a vazão média de dados diretamente ligada ao Delta e ao aumento no número de clientes. Como conclusão baseando-se nos resultados temos que existe uma relação direta entre o valor do Delta utilizado na disseminação assíncrona, o tempo de resposta e a janela de inconsistência. Se fazendo desta forma a necessidade do uso de mecanismos de auto-gestão para modificações do ambiente de acordo com o nível de compromisso requisitado e a janela de inconsistência. No último artigo proposto, Adicionando CBR na Gerência Autônoma de Redes, foi nos apresentando que em um sistema autonômico é desejável que exista um histórico de decisões já tomadas anteriormente para que estas informações armazenadas auxiliem na análise de novas soluções. Por outro lado, o armazenamento de informações de um ambiente de rede complexo como de um sistema autônomo pode aumentar a complexidade de se gerenciar o sistema. Os autores assim defendem a necessidade da especificação de novas soluções. Como solução os autores propõem a especificação de um motor de buscas de soluções que permita modelar o conhecimento no contexto da gerencia de redes operando com baixa necessidade de aquisição de conhecimento sobre a rede evitando assim erros cometidos no passado. Propõe ainda uma base de dados com apresentações de dados de forma flexível com a possibilidade de modificação e recuperação dos dados em tempo factível. Os Autores relatam que o funcionamento do CBR é similar à forma humana de resolução de problemas, onde os problemas são resolvidos tendo como base informações de problemas anteriores. No documento é proposto o CBR oferece como suas principais vantagens: A redução da tarefa de aquisição de conhecimento; Evita a repetição de erros do passado; proporciona flexibilidade na aquisição de conhecimento; Raciocínio em um domínio de pouco conhecimento; Raciocínio onde há dados incompletos ou imprecisos. No decorrer do documento são apresentadas formulas e
  • 6. formas utilizadas pelo sistema para mapeamento, determinação e formas de soluções para um problema. É defendido que para a utilização do CBR seja possível, é necessário a utilização de um método capaz de armazenar e indexar as informações na forma de experiências contextualizadas. Desse modo o método utilizado para armazenamento, indexação e contextualização é essencial para o sucesso do sistema. É proposto ainda que um caso consiste basicamente de duas partes: O problema e a solução e que estes podem ser divididos em várias partes menores. No contexto do artigo são informações relacionadas a topologia de rede, tráfego, problemas encontrados e expectativas do administrador de redes. Diante do apresentado no artigo conclui-se que a utilização do sistema de CBR possibilitou melhoria na eficiência e flexibilidade na busca de novas soluções. A eficiência se deve a redução de tempo na resolução de problemas já relacionados na base. A flexibilidade é devido a possibilidade de problemas diferentes serem solucionados utilizando uma base não diretamente ligada ao tema, utilizando referencias contextuais para isso.