SlideShare uma empresa Scribd logo
1 de 17
Luciano Vargas
• Especialista em Governança de TI
• Programador aos 17 anos (Basic, Pascal, C/C++, Clipper, Cobol)
• Experiência em TI Corporativa, programação, arquitetura, infraestrutura,
segurança da informação, gerência de projetos, administração de ERP,
analista de informações e analista de BI
• Experiência profissional:
• CVI Refrigerantes (13 anos)
• UNIPAMPA (1 ano)
• Consultoria*
• DBA Oracle, SQL-Server, DB2 IBM, MySQL
• Delphi/Java/PHP/Progress 4GL
• Salient Margin Minder/Qlik View
• Geração X - “Adapt or die” (1960-1970)
lucianovar@gmail.com (55)8158-4196
Fonte: http://www.tecmundo.com.br/internet/42483-o-que-acontece-na-internet-em-60-segundos-.htm
http://oglobo.globo.com/infograficos/bigdata/
http://www.ibmbigdatahub.com/tag/587
velocidade, volume, variedade, veracidade (*valor)
Uma investigação, feita pela
Universidade de Cambridge,
que, após analisar as páginas
do Facebook de 58 mil pessoas,
descobriu que pessoas com alto
Quociente de Inteligência apre-
ciam a voz do actor Morgan
Freeman.
Ninguém sabe por
quê.
A análise do Big Data pode
estabelecer uma correlação,
mas não é capaz de apontar
uma causa.
Moneyball, 2011.
O filme é baseado no livro Moneyball:
The Art of Winning an Unfair Game de
Michael Lewis, que por sua vez é
baseado na história verdadeira de Billy
Beane, gerente geral do time de basebol
do Oakland Athletics.
Moneyball se foca nas tentativas de
Beane de criar um time competitivo para
a temporada de 2002 de Oakland, apesar
da situação financeira desfavorável da
equipe, usando uma sofisticada análise
estatística dos jogadores.
http://pt.wikipedia.org/wiki/Moneyball
http://www.baguete.com.br/noticias/29/10/2014/twitter-abre-dados-para-ibm
“Segundo dados divulgados pela
rede social esta semana, o Twitter
conta com cerca de 284 milhões de
usuários ativos.”
“Em caso que vocês se estejam se
perguntando porque diabos uma
fabricante de fritadoras quer saber
do Twitter, a resposta é que a
companhia busca queixas sobre
batata frita mal feita para poder
despachar técnicos para o local.”
“As empresas quiseram ter acesso ao
que o consumidor está pensando
desde sempre. Com esse acordo, já
não será necessário inferir isso.”
Database
X
Escalabilidade (petabytes de
dados, milhares de
servidores)
Flexibilidade para aceitar
todos os formatos de dados
(schema)
Eficiência e tolerância a
falhas transparente
Hardware/software como
commodity (inexpressivo)
Performance (milhares de
índices, tuning, dicionário,
storage...)
Regras ACID (Atomicidade,
Consistência, Isolamento e
Durabilidade)
Tolerância a falhas não é
transparente (não-simples)
H/W extremamente
significativo!
• Hadoop é um framework de software para processamento
distribuído, paralelo e em grade - de dados gigantes em clusters de
computadores
• Qual o tamanho?
• Datasets gigantes: Terabytes ou petabytes de dados
• Clusters gigantes: centenas ou milhares de máquinas!
• Implementação open-source do Google MapReduce
• Utiliza um modelo de programação extremamente simples conhecido
como “MapReduce”
• É baseado em um modelo “único” de dados, capaz de armazenar
qualquer tipo de informação
• Alto nível de abstração tecnológica (ex: driver/S.O/protocolo, etc)
O framework Hadoop framework contém apenas duas
camadas:
• Distributed file system (HDFS)
• Execution engine (MapReduce)
HDSF = Hadoop Distributed File System. Sistema de
arquivos distribuído nativo, embutido na solução. Armazena
e sincroniza grandes volumes de dados em hardware barato.
Gigante: cada instância de um nó HDFS pode conter
centenas ou milhares de máquinas, cada uma armazenando
uma parte dos dados
Replicação: os dados são replicados várias vezes (default é 3)
Falhas: uma falha é um evento normal, não uma exceção
Tolerância a falha: o processo de detecção de falhas é
extremamente rápido, e promove recuperação automática
(transparente). Essa característica é a mais importante da
arquitetura HDFS
Nós: cada nó é constantemente monitorado para detectar
falhas
• Arquitetura de software introduzida pelo Google
• É a combinação de dois processos chamados Map e Reduce
• Implementa programação paralela e distribuída de forma transparente
• No processo Map, o nó mestre recebe a informação, divide-a em
subtarefas menores e distribui essas tarefas para nós funcionais. O nó
funcional processa essa tarefa menor e devolve a resposta ao nó mestre.
• No processo Reduce, o nó mestre recebe as respostas de todas as
subtarefas e as combina de modo a obterem a saída, que é o resultado
da tarefa original.
• Vantagem: distribuição do processamento e tolerância a falhas
• É altamente dependente do nó “mestre”, eficiente apenas para volumes
de dados muito grandes
SGBD Distribuído Hadoop
Modelo
computacional
- Controle de transações
- Transação é a unidade de trabalho
- Controle de tarefas
- Tarefa é a unidade de trabalho
Modelo de dados - Dados estruturados com esquema
esquema conhecido
- Operações Read/Write
- Dados estruturados
- Dados se encaixam em
esquema “livre”
- Operação ReadOnly
- Dados estruturados ou não
Custo - Servidores caros - Servidores baratos
Tolerância a falhas - Falhas são raras
- Mecanismos de recuperação
- Falhas são comuns em
milhares de máquinas
- Tolerância a falhas simples,
mas eficiente
Características-
chave
- Eficiência, otimização, ajuste fino
(tunning)
- Escalabilidade, flexibilidade,
tolerância a falhas
Apache Hadoop Foundation - http://hadoop.apache.org/
• BigData favoreceu o cloud computing
• Permite administrar o ambiente sem interrupções
• Busca e mineração de muita informação em pouco tempo
• Simplificou operações (tolerância a falhas/programação paralela)
• Respostas para a coisa “internet”
• Ferramenta sempre disponível
• Oferece informações relevantes em tempo real
• Mais informação, “menos” tecnologia
Conclusão
Artigo: http://www.ibm.com/developerworks/br/linux/library/au-
cloud_apache/
Yi Ming Huang, Software Engineer, IBM
Zhao Hui Nie, Software Engineer, IBM
Hitachi Data Systems, 2012
Hitachi Data Systems Hadoop Solution
http://www.hds.com/solutions/big-data/
Apache Hadoop: conceitos teóricos e práticos, evolução e novas
possibilidades
Alfredo Goldman, Fabio Kon, Francisco Pereira Junior, Ivanilton Polato e
Rosangela de Fátima Pereira
Biblioteca Digital Brasileira de Computação:
http://www.lbd.dcc.ufmg.br/bdbcomp/servlet/Trabalho?id=12577
Apache Hadoop Foundation
http://hadoop.apache.org/
Big Data - Como Extrair Volume, Variedade, Velocidade e Valor da Avalanche
de Informação Cotidiana. Autores: Cukier, KennethMayer-schönberger,
Viktor
Edt. CAMPUS, 2013

Mais conteúdo relacionado

Mais procurados

Cenário das Plataformas de Dados 2017/2018
Cenário das Plataformas de Dados 2017/2018Cenário das Plataformas de Dados 2017/2018
Cenário das Plataformas de Dados 2017/2018Raul Oliveira
 
MySQL do ISAM ao NoSQL
MySQL do ISAM ao NoSQLMySQL do ISAM ao NoSQL
MySQL do ISAM ao NoSQLAirton Lastori
 
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...iMasters
 
Entendendo a Arquitetura de Armazenamento, parte 1
Entendendo a Arquitetura de Armazenamento, parte 1Entendendo a Arquitetura de Armazenamento, parte 1
Entendendo a Arquitetura de Armazenamento, parte 1Rodolfo Mendes
 
Analise de Performance Usando o SO
Analise de Performance Usando o SOAnalise de Performance Usando o SO
Analise de Performance Usando o SORaul Oliveira
 
Arquitetura SQL Server
Arquitetura SQL ServerArquitetura SQL Server
Arquitetura SQL ServerRaul Oliveira
 
Inter Dev Ops Conf 2016 - IaaS behind the scenes
Inter Dev Ops Conf 2016 - IaaS behind the scenesInter Dev Ops Conf 2016 - IaaS behind the scenes
Inter Dev Ops Conf 2016 - IaaS behind the scenesRoberto Gaiser
 
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0Marcos William Valentini
 
Mais performance com o MySQL 5.6
Mais performance com o MySQL 5.6Mais performance com o MySQL 5.6
Mais performance com o MySQL 5.6MySQL Brasil
 

Mais procurados (11)

Hbase trabalho final
Hbase trabalho finalHbase trabalho final
Hbase trabalho final
 
Cenário das Plataformas de Dados 2017/2018
Cenário das Plataformas de Dados 2017/2018Cenário das Plataformas de Dados 2017/2018
Cenário das Plataformas de Dados 2017/2018
 
MySQL do ISAM ao NoSQL
MySQL do ISAM ao NoSQLMySQL do ISAM ao NoSQL
MySQL do ISAM ao NoSQL
 
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...
Datawarehouse - Obtenha insights consistentes para o seu negócio: conheça o n...
 
Dev vs. Ops
Dev vs. OpsDev vs. Ops
Dev vs. Ops
 
Entendendo a Arquitetura de Armazenamento, parte 1
Entendendo a Arquitetura de Armazenamento, parte 1Entendendo a Arquitetura de Armazenamento, parte 1
Entendendo a Arquitetura de Armazenamento, parte 1
 
Analise de Performance Usando o SO
Analise de Performance Usando o SOAnalise de Performance Usando o SO
Analise de Performance Usando o SO
 
Arquitetura SQL Server
Arquitetura SQL ServerArquitetura SQL Server
Arquitetura SQL Server
 
Inter Dev Ops Conf 2016 - IaaS behind the scenes
Inter Dev Ops Conf 2016 - IaaS behind the scenesInter Dev Ops Conf 2016 - IaaS behind the scenes
Inter Dev Ops Conf 2016 - IaaS behind the scenes
 
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0
Pgday Campinas 2015 - Uma visão do PPAS 9.4 e PEM 5.0
 
Mais performance com o MySQL 5.6
Mais performance com o MySQL 5.6Mais performance com o MySQL 5.6
Mais performance com o MySQL 5.6
 

Semelhante a Especialista em TI com vasta experiência em governança, programação, arquitetura, segurança e gerência de projetos

Filesystem distribuído com hadoop!!!
Filesystem distribuído com hadoop!!! Filesystem distribuído com hadoop!!!
Filesystem distribuído com hadoop!!! Alessandro Binhara
 
[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data
[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data
[DTC21] Lucas Gomes - Do 0 ao 100 no Big DataDeep Tech Brasil
 
Bigdata na pratica: Resolvendo problemas de performance com hadoop
Bigdata na pratica: Resolvendo problemas de performance com hadoopBigdata na pratica: Resolvendo problemas de performance com hadoop
Bigdata na pratica: Resolvendo problemas de performance com hadooptdc-globalcode
 
Big data para programadores convencionais
Big data para programadores convencionaisBig data para programadores convencionais
Big data para programadores convencionaisRoberto Oliveira
 
Tecnologias para mineração de dados nas nuvens
Tecnologias para mineração de dados nas nuvensTecnologias para mineração de dados nas nuvens
Tecnologias para mineração de dados nas nuvensAlessandro Binhara
 
Big Data Open Source com Hadoop
Big Data Open Source com HadoopBig Data Open Source com Hadoop
Big Data Open Source com HadoopAmbiente Livre
 
Escalabilidade, as modas, (No)SQL
Escalabilidade, as modas, (No)SQLEscalabilidade, as modas, (No)SQL
Escalabilidade, as modas, (No)SQLFernando Ike
 
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - Curitiba
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - CuritibaPalestra: Big Data Open Source com Hadoop - FLISOL 2014 - Curitiba
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - CuritibaMarcio Junior Vieira
 
Tesi Dados Final
Tesi Dados FinalTesi Dados Final
Tesi Dados Finaljcaroso
 
[DTC21] André Marques - Jornada do Engenheiro de Dados
[DTC21] André Marques - Jornada do Engenheiro de Dados[DTC21] André Marques - Jornada do Engenheiro de Dados
[DTC21] André Marques - Jornada do Engenheiro de DadosDeep Tech Brasil
 
Interoperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadosInteroperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadospichiliani
 
Interoperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadosInteroperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadospichiliani
 
ClusterizaçãO De AplicaçõEs Php
ClusterizaçãO De AplicaçõEs PhpClusterizaçãO De AplicaçõEs Php
ClusterizaçãO De AplicaçõEs PhpCampus Party Brasil
 
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Ambiente Livre
 
PHPMyadmin - Introdução
PHPMyadmin - IntroduçãoPHPMyadmin - Introdução
PHPMyadmin - IntroduçãoMarco Pinheiro
 
Arquitetura para solução Big Data – open source
Arquitetura para solução Big Data – open sourceArquitetura para solução Big Data – open source
Arquitetura para solução Big Data – open sourceFelipe RENZ - MBA TI / Big
 
Cientista de Dados – Dominando o Big Data com Software Livre
Cientista de Dados – Dominando o Big Data com Software Livre Cientista de Dados – Dominando o Big Data com Software Livre
Cientista de Dados – Dominando o Big Data com Software Livre Ambiente Livre
 

Semelhante a Especialista em TI com vasta experiência em governança, programação, arquitetura, segurança e gerência de projetos (20)

Filesystem distribuído com hadoop!!!
Filesystem distribuído com hadoop!!! Filesystem distribuído com hadoop!!!
Filesystem distribuído com hadoop!!!
 
[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data
[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data
[DTC21] Lucas Gomes - Do 0 ao 100 no Big Data
 
Bigdata na pratica: Resolvendo problemas de performance com hadoop
Bigdata na pratica: Resolvendo problemas de performance com hadoopBigdata na pratica: Resolvendo problemas de performance com hadoop
Bigdata na pratica: Resolvendo problemas de performance com hadoop
 
Big data para programadores convencionais
Big data para programadores convencionaisBig data para programadores convencionais
Big data para programadores convencionais
 
Treinamento hadoop - dia3
Treinamento hadoop - dia3Treinamento hadoop - dia3
Treinamento hadoop - dia3
 
Tecnologias para mineração de dados nas nuvens
Tecnologias para mineração de dados nas nuvensTecnologias para mineração de dados nas nuvens
Tecnologias para mineração de dados nas nuvens
 
Big Data Open Source com Hadoop
Big Data Open Source com HadoopBig Data Open Source com Hadoop
Big Data Open Source com Hadoop
 
Escalabilidade, as modas, (No)SQL
Escalabilidade, as modas, (No)SQLEscalabilidade, as modas, (No)SQL
Escalabilidade, as modas, (No)SQL
 
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - Curitiba
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - CuritibaPalestra: Big Data Open Source com Hadoop - FLISOL 2014 - Curitiba
Palestra: Big Data Open Source com Hadoop - FLISOL 2014 - Curitiba
 
Tesi Dados Final
Tesi Dados FinalTesi Dados Final
Tesi Dados Final
 
[DTC21] André Marques - Jornada do Engenheiro de Dados
[DTC21] André Marques - Jornada do Engenheiro de Dados[DTC21] André Marques - Jornada do Engenheiro de Dados
[DTC21] André Marques - Jornada do Engenheiro de Dados
 
Interoperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadosInteroperabilidade entre bancos de dados
Interoperabilidade entre bancos de dados
 
Interoperabilidade entre bancos de dados
Interoperabilidade entre bancos de dadosInteroperabilidade entre bancos de dados
Interoperabilidade entre bancos de dados
 
Trabalho de sgbd
Trabalho de sgbdTrabalho de sgbd
Trabalho de sgbd
 
ClusterizaçãO De AplicaçõEs Php
ClusterizaçãO De AplicaçõEs PhpClusterizaçãO De AplicaçõEs Php
ClusterizaçãO De AplicaçõEs Php
 
Clusterização de Aplicações PHP
Clusterização de Aplicações PHPClusterização de Aplicações PHP
Clusterização de Aplicações PHP
 
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
Pentaho com Hadoop – O Canivete Suíço do Cientistas de Dados para Big Data An...
 
PHPMyadmin - Introdução
PHPMyadmin - IntroduçãoPHPMyadmin - Introdução
PHPMyadmin - Introdução
 
Arquitetura para solução Big Data – open source
Arquitetura para solução Big Data – open sourceArquitetura para solução Big Data – open source
Arquitetura para solução Big Data – open source
 
Cientista de Dados – Dominando o Big Data com Software Livre
Cientista de Dados – Dominando o Big Data com Software Livre Cientista de Dados – Dominando o Big Data com Software Livre
Cientista de Dados – Dominando o Big Data com Software Livre
 

Especialista em TI com vasta experiência em governança, programação, arquitetura, segurança e gerência de projetos

  • 1. Luciano Vargas • Especialista em Governança de TI • Programador aos 17 anos (Basic, Pascal, C/C++, Clipper, Cobol) • Experiência em TI Corporativa, programação, arquitetura, infraestrutura, segurança da informação, gerência de projetos, administração de ERP, analista de informações e analista de BI • Experiência profissional: • CVI Refrigerantes (13 anos) • UNIPAMPA (1 ano) • Consultoria* • DBA Oracle, SQL-Server, DB2 IBM, MySQL • Delphi/Java/PHP/Progress 4GL • Salient Margin Minder/Qlik View • Geração X - “Adapt or die” (1960-1970) lucianovar@gmail.com (55)8158-4196
  • 2.
  • 6. Uma investigação, feita pela Universidade de Cambridge, que, após analisar as páginas do Facebook de 58 mil pessoas, descobriu que pessoas com alto Quociente de Inteligência apre- ciam a voz do actor Morgan Freeman. Ninguém sabe por quê. A análise do Big Data pode estabelecer uma correlação, mas não é capaz de apontar uma causa.
  • 7. Moneyball, 2011. O filme é baseado no livro Moneyball: The Art of Winning an Unfair Game de Michael Lewis, que por sua vez é baseado na história verdadeira de Billy Beane, gerente geral do time de basebol do Oakland Athletics. Moneyball se foca nas tentativas de Beane de criar um time competitivo para a temporada de 2002 de Oakland, apesar da situação financeira desfavorável da equipe, usando uma sofisticada análise estatística dos jogadores. http://pt.wikipedia.org/wiki/Moneyball
  • 8.
  • 9. http://www.baguete.com.br/noticias/29/10/2014/twitter-abre-dados-para-ibm “Segundo dados divulgados pela rede social esta semana, o Twitter conta com cerca de 284 milhões de usuários ativos.” “Em caso que vocês se estejam se perguntando porque diabos uma fabricante de fritadoras quer saber do Twitter, a resposta é que a companhia busca queixas sobre batata frita mal feita para poder despachar técnicos para o local.” “As empresas quiseram ter acesso ao que o consumidor está pensando desde sempre. Com esse acordo, já não será necessário inferir isso.”
  • 10. Database X Escalabilidade (petabytes de dados, milhares de servidores) Flexibilidade para aceitar todos os formatos de dados (schema) Eficiência e tolerância a falhas transparente Hardware/software como commodity (inexpressivo) Performance (milhares de índices, tuning, dicionário, storage...) Regras ACID (Atomicidade, Consistência, Isolamento e Durabilidade) Tolerância a falhas não é transparente (não-simples) H/W extremamente significativo!
  • 11. • Hadoop é um framework de software para processamento distribuído, paralelo e em grade - de dados gigantes em clusters de computadores • Qual o tamanho? • Datasets gigantes: Terabytes ou petabytes de dados • Clusters gigantes: centenas ou milhares de máquinas! • Implementação open-source do Google MapReduce • Utiliza um modelo de programação extremamente simples conhecido como “MapReduce” • É baseado em um modelo “único” de dados, capaz de armazenar qualquer tipo de informação • Alto nível de abstração tecnológica (ex: driver/S.O/protocolo, etc)
  • 12. O framework Hadoop framework contém apenas duas camadas: • Distributed file system (HDFS) • Execution engine (MapReduce)
  • 13. HDSF = Hadoop Distributed File System. Sistema de arquivos distribuído nativo, embutido na solução. Armazena e sincroniza grandes volumes de dados em hardware barato. Gigante: cada instância de um nó HDFS pode conter centenas ou milhares de máquinas, cada uma armazenando uma parte dos dados Replicação: os dados são replicados várias vezes (default é 3) Falhas: uma falha é um evento normal, não uma exceção Tolerância a falha: o processo de detecção de falhas é extremamente rápido, e promove recuperação automática (transparente). Essa característica é a mais importante da arquitetura HDFS Nós: cada nó é constantemente monitorado para detectar falhas
  • 14. • Arquitetura de software introduzida pelo Google • É a combinação de dois processos chamados Map e Reduce • Implementa programação paralela e distribuída de forma transparente • No processo Map, o nó mestre recebe a informação, divide-a em subtarefas menores e distribui essas tarefas para nós funcionais. O nó funcional processa essa tarefa menor e devolve a resposta ao nó mestre. • No processo Reduce, o nó mestre recebe as respostas de todas as subtarefas e as combina de modo a obterem a saída, que é o resultado da tarefa original. • Vantagem: distribuição do processamento e tolerância a falhas • É altamente dependente do nó “mestre”, eficiente apenas para volumes de dados muito grandes
  • 15. SGBD Distribuído Hadoop Modelo computacional - Controle de transações - Transação é a unidade de trabalho - Controle de tarefas - Tarefa é a unidade de trabalho Modelo de dados - Dados estruturados com esquema esquema conhecido - Operações Read/Write - Dados estruturados - Dados se encaixam em esquema “livre” - Operação ReadOnly - Dados estruturados ou não Custo - Servidores caros - Servidores baratos Tolerância a falhas - Falhas são raras - Mecanismos de recuperação - Falhas são comuns em milhares de máquinas - Tolerância a falhas simples, mas eficiente Características- chave - Eficiência, otimização, ajuste fino (tunning) - Escalabilidade, flexibilidade, tolerância a falhas Apache Hadoop Foundation - http://hadoop.apache.org/
  • 16. • BigData favoreceu o cloud computing • Permite administrar o ambiente sem interrupções • Busca e mineração de muita informação em pouco tempo • Simplificou operações (tolerância a falhas/programação paralela) • Respostas para a coisa “internet” • Ferramenta sempre disponível • Oferece informações relevantes em tempo real • Mais informação, “menos” tecnologia Conclusão
  • 17. Artigo: http://www.ibm.com/developerworks/br/linux/library/au- cloud_apache/ Yi Ming Huang, Software Engineer, IBM Zhao Hui Nie, Software Engineer, IBM Hitachi Data Systems, 2012 Hitachi Data Systems Hadoop Solution http://www.hds.com/solutions/big-data/ Apache Hadoop: conceitos teóricos e práticos, evolução e novas possibilidades Alfredo Goldman, Fabio Kon, Francisco Pereira Junior, Ivanilton Polato e Rosangela de Fátima Pereira Biblioteca Digital Brasileira de Computação: http://www.lbd.dcc.ufmg.br/bdbcomp/servlet/Trabalho?id=12577 Apache Hadoop Foundation http://hadoop.apache.org/ Big Data - Como Extrair Volume, Variedade, Velocidade e Valor da Avalanche de Informação Cotidiana. Autores: Cukier, KennethMayer-schönberger, Viktor Edt. CAMPUS, 2013