Guia sobre análise de dados e aprendizado de máquina para CIO.Lucas Modesto
1. As empresas enfrentam três novos desafios com o volume, diversidade e velocidade dos dados gerados.
2. O armazenamento em nuvem e data warehousing na nuvem ajudam as empresas a centralizar os dados brutos e prepará-los para análise, superando os silos de dados.
3. Isso permite armazenar grandes volumes de dados a baixo custo e postergar a estruturação dos dados até que seja necessária uma análise.
O documento discute a importância do log para as empresas na era digital. O log pode fornecer informações valiosas sobre o comportamento dos clientes e desempenho dos sistemas que podem ser usadas para melhorar o negócio e aumentar os lucros. Além disso, o armazenamento adequado dos logs é essencial para atender aos requisitos da Lei Geral de Proteção de Dados.
Hackathon Inmetrics e Fiap: Desafios do Big Datainmetrics
O documento discute os principais desafios do Big Data, incluindo volume, velocidade e variedade de dados, além de veracidade, valor e desafios arquiteturais e de implementação. É destacado que a variedade, e não o volume, será o maior desafio em 2015 e que a extração de valor é crucial para obter vantagem competitiva.
1. O documento discute as tendências que vão mudar a estratégia de dados no futuro, incluindo aprendizado de máquina e inteligência artificial para simplificar a gestão e tomada de decisões com dados.
2. A inteligência artificial está sendo incorporada em ferramentas de gestão de dados para automatizar processos como identificação de dados sensíveis.
3. Arquiteturas híbridas e "Data Fabrics" que unificam dados em nuvens e on-premise se tornarão mais comuns.
As 10 maiores tendências em business intelligence para 2014Tableau Software
A inovação nos dados e nas análises continua agilizando as coisas, transformando o setor de business intelligence mais sério, antigo, em uma fonte importante para a empresa. O resultado tem sido dados nas mãos de mais pessoas e a possibilidade de tomada de decisões melhores. E a onda de inovação não está sequer próxima de terminar.
White Paper Frost & Sullivan PortuguesFelipe Lamus
Este white paper discute como as empresas estão implementando novas tecnologias de forma individualizada e pontual, em vez de uma estratégia holística, aumentando riscos e custos. Também aborda como os CIOs precisam adotar uma visão mais ampla para conectar pessoas, processos e dados com soluções flexíveis, a fim de apoiar as necessidades de negócio e novas tecnologias transformadoras.
Por que tudo que você achava que sabia sobre implementar novas tecnologias mu...Cisco do Brasil
Este white paper discute como as empresas estão implementando novas tecnologias de forma individualizada e pontual, em vez de uma estratégia holística, aumentando riscos e custos. Também aborda como os CIOs precisam adotar uma visão mais ampla para conectar pessoas, processos e dados com soluções flexíveis, e como escolher um parceiro de tecnologia pode ajudar nessa transformação.
O documento discute o tema de Big Data, definindo-o como grandes volumes de dados de alta velocidade e variedade que exigem novas formas de processamento de baixo custo para percepção e tomada de decisão. As definições de Gartner, IBM e Forrester sobre Big Data são apresentadas, assim como exemplos de como empresas como Netflix, Amazon e Casas Bahia utilizam Big Data no marketing.
Guia sobre análise de dados e aprendizado de máquina para CIO.Lucas Modesto
1. As empresas enfrentam três novos desafios com o volume, diversidade e velocidade dos dados gerados.
2. O armazenamento em nuvem e data warehousing na nuvem ajudam as empresas a centralizar os dados brutos e prepará-los para análise, superando os silos de dados.
3. Isso permite armazenar grandes volumes de dados a baixo custo e postergar a estruturação dos dados até que seja necessária uma análise.
O documento discute a importância do log para as empresas na era digital. O log pode fornecer informações valiosas sobre o comportamento dos clientes e desempenho dos sistemas que podem ser usadas para melhorar o negócio e aumentar os lucros. Além disso, o armazenamento adequado dos logs é essencial para atender aos requisitos da Lei Geral de Proteção de Dados.
Hackathon Inmetrics e Fiap: Desafios do Big Datainmetrics
O documento discute os principais desafios do Big Data, incluindo volume, velocidade e variedade de dados, além de veracidade, valor e desafios arquiteturais e de implementação. É destacado que a variedade, e não o volume, será o maior desafio em 2015 e que a extração de valor é crucial para obter vantagem competitiva.
1. O documento discute as tendências que vão mudar a estratégia de dados no futuro, incluindo aprendizado de máquina e inteligência artificial para simplificar a gestão e tomada de decisões com dados.
2. A inteligência artificial está sendo incorporada em ferramentas de gestão de dados para automatizar processos como identificação de dados sensíveis.
3. Arquiteturas híbridas e "Data Fabrics" que unificam dados em nuvens e on-premise se tornarão mais comuns.
As 10 maiores tendências em business intelligence para 2014Tableau Software
A inovação nos dados e nas análises continua agilizando as coisas, transformando o setor de business intelligence mais sério, antigo, em uma fonte importante para a empresa. O resultado tem sido dados nas mãos de mais pessoas e a possibilidade de tomada de decisões melhores. E a onda de inovação não está sequer próxima de terminar.
White Paper Frost & Sullivan PortuguesFelipe Lamus
Este white paper discute como as empresas estão implementando novas tecnologias de forma individualizada e pontual, em vez de uma estratégia holística, aumentando riscos e custos. Também aborda como os CIOs precisam adotar uma visão mais ampla para conectar pessoas, processos e dados com soluções flexíveis, a fim de apoiar as necessidades de negócio e novas tecnologias transformadoras.
Por que tudo que você achava que sabia sobre implementar novas tecnologias mu...Cisco do Brasil
Este white paper discute como as empresas estão implementando novas tecnologias de forma individualizada e pontual, em vez de uma estratégia holística, aumentando riscos e custos. Também aborda como os CIOs precisam adotar uma visão mais ampla para conectar pessoas, processos e dados com soluções flexíveis, e como escolher um parceiro de tecnologia pode ajudar nessa transformação.
O documento discute o tema de Big Data, definindo-o como grandes volumes de dados de alta velocidade e variedade que exigem novas formas de processamento de baixo custo para percepção e tomada de decisão. As definições de Gartner, IBM e Forrester sobre Big Data são apresentadas, assim como exemplos de como empresas como Netflix, Amazon e Casas Bahia utilizam Big Data no marketing.
O documento discute as novas regras para o e-commerce no Brasil estabelecidas pelo Decreto 7.962/13, que exigem melhores práticas de atendimento ao cliente. Isso trará mudanças significativas para o setor de contact center, especialmente para pequenas empresas. Apesar dos desafios, as novas regras podem melhorar a experiência do cliente e o crescimento do e-commerce caso as empresas invistam em tecnologias e profissionais de atendimento qualificados.
Quebra de paradigmas na coleta e governança de dados sucesu68
1. O documento discute a abordagem tradicional versus a abordagem da Informatica para integração de dados, citando que 87% das empresas ainda usam codificação manual.
2. Apresenta a plataforma da Informatica para integração de dados de forma abrangente, unificada, aberta e econômica através de várias soluções como data warehouse, migração de dados e gerenciamento de dados mestres.
3. Destaca um caso de sucesso no Brasil onde a Informatica reduziu o consumo de recursos do mainframe
O documento discute clustering, uma técnica de data mining para agrupar dados de acordo com seu grau de semelhança. Apresenta o algoritmo k-means para realizar clustering e explica que clustering é útil para identificar padrões em grandes conjuntos de dados.
O documento discute a adoção do modelo de pensamento orientado a eventos (event-driven thinking) pelas empresas para lidar com as constantes mudanças do mercado. O modelo permite capturar e processar dados em tempo real para antecipar eventos, explorar oportunidades e melhorar a tomada de decisão. A adoção de tecnologias como Apache Kafka torna possível implementar esse modelo de forma a gerar valor para os negócios.
O documento apresenta os conceitos e desafios do Big Data, discutindo como os dados estão crescendo exponencialmente em volume, velocidade e variedade. Aprensenta as tecnologias necessárias para armazenar, processar e analisar grandes volumes de dados, incluindo MapReduce, NoSQL, aprendizado de máquina e computação em nuvem. Discutem os desafios de lidar com os 6 V's do Big Data e a necessidade de novas abordagens para extrair valor destes dados.
1) O documento discute a abordagem de "Data Mesh" como uma mudança de paradigma na arquitetura de dados descentralizada e orientada por domínio;
2) Essa abordagem envolve tratar os dados como produtos e distribuir a propriedade dos dados entre times focados em domínios específicos;
3) Isso visa resolver problemas comuns em arquiteturas de dados atuais como data warehouses e data lakes, como dificuldades em escalar consumo e fontes de dados.
Big Data e Data Science - Tecnologia e MercadoHélio Silva
1) O documento discute os conceitos de Big Data, Data Science e as tecnologias e mercado relacionados.
2) Grandes volumes de dados continuam a ser gerados diariamente pela internet e dispositivos conectados.
3) A análise de dados em larga escala requer novas abordagens de engenharia e armazenamento para lidar com a variedade e volume crescentes.
O documento discute como as empresas podem usar a tecnologia da informação para obter vantagens competitivas, como reduzir custos e melhorar a diferenciação de produtos. A TI está transformando as cadeias de valor e a estrutura dos setores, e as empresas devem avaliar como a TI pode criar novas oportunidades de negócios.
Introdução - Big Data e Business IntelligenceLeandro Guerra
O documento discute conceitos de business intelligence e big data. Apresenta definições de termos como data warehouse, OLTP e OLAP. Também discute a importância dos dados e da informação para o processo de tomada de decisão nas empresas.
O documento discute o conceito de Big Data e como a enorme quantidade de dados digitais gerados diariamente podem ser analisados para diferentes fins, como prever crimes, fazer negócios ou catalogar o cosmos. A geração exponencial de dados está ligada ao crescimento da internet, das redes sociais e dos dispositivos conectados. Empresas como a Amazon e o Walmart usam análises de Big Data em suas estratégias de negócios.
O Big Data surge como um conceito que vem causando muito falatório no mercado. Muitos dizem que ele revolucionará a forma de tratar informações, outros dizem que ele pode até prever acontecimentos. No entanto, poucos sabem dizer ao certo o que realmente é o Big Data. Por isso, entrevistamos Cezar Taurion, gerente de novas tecnologias da IBM Brasil, para falar sobre o assunto.
O documento descreve um curso de especialização em arquitetura de nuvem com foco em big data oferecido em setembro de 2014. O curso terá 4 dias de duração cobrindo tópicos como apresentação e conceitos de big data, infraestrutura para big data, análise de big data e tendências futuras. O primeiro dia incluirá uma apresentação da disciplina e conceitos introdutórios sobre big data.
Big Data Analytics - Data Science - Aplicação e TecnologiaHélio Silva
1) O documento discute o crescimento exponencial da quantidade de dados gerados, especialmente na ciência e pela internet das coisas.
2) Empresas e governos coletam grandes volumes de dados de dispositivos móveis para criar perfis detalhados de usuários e tomar decisões.
3) Cientistas de dados precisam de habilidades amplas em programação, estatística e modelagem para extrair valor destes grandes conjuntos de dados.
O documento discute o conceito de Big Data, definindo-o como o foco em grandes volumes de dados e velocidades de processamento. Explora os 5 V's do Big Data (Velocidade, Volume, Variedade, Veracidade e Valor) e apresenta exemplos de como empresas usam Big Data para identificar padrões e tomar decisões mais rápidas. Finalmente, discute tecnologias como Hadoop usadas para armazenar e processar grandes volumes de dados distribuídos.
O documento apresenta os conceitos e características de Big Data, destacando que se trata de dados de alto volume, velocidade e variedade que exigem novas formas de processamento e análise para obter insights. É descrito o modelo tradicional de dados e suas limitações, e em seguida o modelo de Big Data que permite obter, transportar, transformar, armazenar, reportar, analisar e gerenciar grandes volumes de dados diversos.
O documento discute a importância dos sistemas de informação para a competitividade logística. Ele explica que sistemas de informação permitem maior eficiência e eficácia nas operações logísticas e na gestão da cadeia de suprimentos. O documento também descreve os diferentes níveis funcionais dos sistemas de informações logísticas, incluindo sistemas transacionais, controle gerencial, apoio à decisão e planejamento estratégico.
Big data é a capacidade de analisar grandes volumes de dados digitais em tempo real. Isso permite analisar qualquer tipo de informação digital para tomar decisões. Os dados podem ser estruturados ou não estruturados e são caracterizados por volume, variedade e velocidade. Lidar com essa quantidade de dados requer tecnologia para processamento em larga escala.
Este documento discute como a tecnologia Kafka rodando no Google Cloud pode agregar valor para negócios de marketplace online, permitindo a integração de sistemas, processamento de dados em tempo real e transformação e enriquecimento de dados.
O documento discute os conceitos básicos da computação em nuvem, incluindo: (1) Software como Serviço, onde o software é executado em servidores remotos; (2) Infraestrutura como Serviço, que fornece recursos de computação virtualizados; e (3) Plataforma como Serviço, que oferece plataformas para desenvolvimento de aplicativos. O documento também discute os aspectos relevantes e modelos de implantação de nuvens, como nuvens privadas, públicas e híbridas.
O documento discute as novas regras para o e-commerce no Brasil estabelecidas pelo Decreto 7.962/13, que exigem melhores práticas de atendimento ao cliente. Isso trará mudanças significativas para o setor de contact center, especialmente para pequenas empresas. Apesar dos desafios, as novas regras podem melhorar a experiência do cliente e o crescimento do e-commerce caso as empresas invistam em tecnologias e profissionais de atendimento qualificados.
Quebra de paradigmas na coleta e governança de dados sucesu68
1. O documento discute a abordagem tradicional versus a abordagem da Informatica para integração de dados, citando que 87% das empresas ainda usam codificação manual.
2. Apresenta a plataforma da Informatica para integração de dados de forma abrangente, unificada, aberta e econômica através de várias soluções como data warehouse, migração de dados e gerenciamento de dados mestres.
3. Destaca um caso de sucesso no Brasil onde a Informatica reduziu o consumo de recursos do mainframe
O documento discute clustering, uma técnica de data mining para agrupar dados de acordo com seu grau de semelhança. Apresenta o algoritmo k-means para realizar clustering e explica que clustering é útil para identificar padrões em grandes conjuntos de dados.
O documento discute a adoção do modelo de pensamento orientado a eventos (event-driven thinking) pelas empresas para lidar com as constantes mudanças do mercado. O modelo permite capturar e processar dados em tempo real para antecipar eventos, explorar oportunidades e melhorar a tomada de decisão. A adoção de tecnologias como Apache Kafka torna possível implementar esse modelo de forma a gerar valor para os negócios.
O documento apresenta os conceitos e desafios do Big Data, discutindo como os dados estão crescendo exponencialmente em volume, velocidade e variedade. Aprensenta as tecnologias necessárias para armazenar, processar e analisar grandes volumes de dados, incluindo MapReduce, NoSQL, aprendizado de máquina e computação em nuvem. Discutem os desafios de lidar com os 6 V's do Big Data e a necessidade de novas abordagens para extrair valor destes dados.
1) O documento discute a abordagem de "Data Mesh" como uma mudança de paradigma na arquitetura de dados descentralizada e orientada por domínio;
2) Essa abordagem envolve tratar os dados como produtos e distribuir a propriedade dos dados entre times focados em domínios específicos;
3) Isso visa resolver problemas comuns em arquiteturas de dados atuais como data warehouses e data lakes, como dificuldades em escalar consumo e fontes de dados.
Big Data e Data Science - Tecnologia e MercadoHélio Silva
1) O documento discute os conceitos de Big Data, Data Science e as tecnologias e mercado relacionados.
2) Grandes volumes de dados continuam a ser gerados diariamente pela internet e dispositivos conectados.
3) A análise de dados em larga escala requer novas abordagens de engenharia e armazenamento para lidar com a variedade e volume crescentes.
O documento discute como as empresas podem usar a tecnologia da informação para obter vantagens competitivas, como reduzir custos e melhorar a diferenciação de produtos. A TI está transformando as cadeias de valor e a estrutura dos setores, e as empresas devem avaliar como a TI pode criar novas oportunidades de negócios.
Introdução - Big Data e Business IntelligenceLeandro Guerra
O documento discute conceitos de business intelligence e big data. Apresenta definições de termos como data warehouse, OLTP e OLAP. Também discute a importância dos dados e da informação para o processo de tomada de decisão nas empresas.
O documento discute o conceito de Big Data e como a enorme quantidade de dados digitais gerados diariamente podem ser analisados para diferentes fins, como prever crimes, fazer negócios ou catalogar o cosmos. A geração exponencial de dados está ligada ao crescimento da internet, das redes sociais e dos dispositivos conectados. Empresas como a Amazon e o Walmart usam análises de Big Data em suas estratégias de negócios.
O Big Data surge como um conceito que vem causando muito falatório no mercado. Muitos dizem que ele revolucionará a forma de tratar informações, outros dizem que ele pode até prever acontecimentos. No entanto, poucos sabem dizer ao certo o que realmente é o Big Data. Por isso, entrevistamos Cezar Taurion, gerente de novas tecnologias da IBM Brasil, para falar sobre o assunto.
O documento descreve um curso de especialização em arquitetura de nuvem com foco em big data oferecido em setembro de 2014. O curso terá 4 dias de duração cobrindo tópicos como apresentação e conceitos de big data, infraestrutura para big data, análise de big data e tendências futuras. O primeiro dia incluirá uma apresentação da disciplina e conceitos introdutórios sobre big data.
Big Data Analytics - Data Science - Aplicação e TecnologiaHélio Silva
1) O documento discute o crescimento exponencial da quantidade de dados gerados, especialmente na ciência e pela internet das coisas.
2) Empresas e governos coletam grandes volumes de dados de dispositivos móveis para criar perfis detalhados de usuários e tomar decisões.
3) Cientistas de dados precisam de habilidades amplas em programação, estatística e modelagem para extrair valor destes grandes conjuntos de dados.
O documento discute o conceito de Big Data, definindo-o como o foco em grandes volumes de dados e velocidades de processamento. Explora os 5 V's do Big Data (Velocidade, Volume, Variedade, Veracidade e Valor) e apresenta exemplos de como empresas usam Big Data para identificar padrões e tomar decisões mais rápidas. Finalmente, discute tecnologias como Hadoop usadas para armazenar e processar grandes volumes de dados distribuídos.
O documento apresenta os conceitos e características de Big Data, destacando que se trata de dados de alto volume, velocidade e variedade que exigem novas formas de processamento e análise para obter insights. É descrito o modelo tradicional de dados e suas limitações, e em seguida o modelo de Big Data que permite obter, transportar, transformar, armazenar, reportar, analisar e gerenciar grandes volumes de dados diversos.
O documento discute a importância dos sistemas de informação para a competitividade logística. Ele explica que sistemas de informação permitem maior eficiência e eficácia nas operações logísticas e na gestão da cadeia de suprimentos. O documento também descreve os diferentes níveis funcionais dos sistemas de informações logísticas, incluindo sistemas transacionais, controle gerencial, apoio à decisão e planejamento estratégico.
Big data é a capacidade de analisar grandes volumes de dados digitais em tempo real. Isso permite analisar qualquer tipo de informação digital para tomar decisões. Os dados podem ser estruturados ou não estruturados e são caracterizados por volume, variedade e velocidade. Lidar com essa quantidade de dados requer tecnologia para processamento em larga escala.
Este documento discute como a tecnologia Kafka rodando no Google Cloud pode agregar valor para negócios de marketplace online, permitindo a integração de sistemas, processamento de dados em tempo real e transformação e enriquecimento de dados.
O documento discute os conceitos básicos da computação em nuvem, incluindo: (1) Software como Serviço, onde o software é executado em servidores remotos; (2) Infraestrutura como Serviço, que fornece recursos de computação virtualizados; e (3) Plataforma como Serviço, que oferece plataformas para desenvolvimento de aplicativos. O documento também discute os aspectos relevantes e modelos de implantação de nuvens, como nuvens privadas, públicas e híbridas.
O documento lista 4 razões para adotar a tecnologia Kafka no negócio: 1) Eficiência da operação ao melhorar a precisão dos dados em tempo real; 2) Adição de inteligência nos dados para tomada de decisão; 3) Visão 360 graus da base de clientes para ofertas personalizadas; 4) Ponte entre dados locais e em nuvem para dinamizar a infraestrutura de forma híbrida.
Esse e-book mostra como simplificar a infraestrutura de tecnologia com o uso do Kafka. Mostra algumas ideias de como simplificar e também um case de uso do Kafka.
Solução de erp na nuvem controle e eficiência sempre em mãosRafael Sales
Um roteiro com as principais observações de como implantar, migrar e disponibilizar o ERP Odoo em cloud. Mais informações entre em contato com a Trye - www.trye.com.br
Aspectos Atuais em Sistemas de InformaçãoElvis Fusco
O documento discute as tendências e desafios do mercado de trabalho para profissionais de TI no Brasil. Apresenta a carência de profissionais qualificados, as funções em evolução e as tecnologias emergentes, e prevê um crescimento acentuado na área nos próximos anos, com a abertura de 100 mil novos empregos a partir de 2010.
O documento apresenta os resultados da 30a edição da Pesquisa FEBRABAN de Tecnologia Bancária, que será divulgada em três volumes. Este primeiro volume explora as tendências em tecnologia para o setor bancário em 2022. As principais tendências incluem a inteligência artificial, automação, nuvem, segurança cibernética, Open Finance e transformação da TI, com foco na experiência do cliente, eficiência e oportunidades de negócio. A pesquisa foi realizada com 24 bancos que representam 90% dos ativos bancários
O documento discute o Software como Serviço (SaaS), um modelo de negócios em que softwares são oferecidos como serviços online baseados na nuvem. Apresenta as vantagens do SaaS para consumidores e desenvolvedores e prevê que o mercado de SaaS crescerá significativamente nos próximos anos, tornando-se uma parte importante do mercado de software corporativo.
PaaS (Plataforma Como Serviço) é o Verdadeiro Pote de Ouro de Cloud ComputingCI&T
O documento discute como a Plataforma como Serviço (PaaS) pode gerar valor para empresas através da nuvem, fornecendo uma infraestrutura escalável e de alta disponibilidade para aplicações customizadas com baixo custo, confiabilidade e tempo de entrega reduzido. A PaaS permite que as empresas foquem apenas no desenvolvimento de negócios, enquanto a plataforma cuida da infraestrutura e escalabilidade de forma transparente.
Teoria de Sistemas de Informação - Atividade: Tecnologia e SIAlessandro Almeida
O documento discute a virtualização, definindo-a como a criação de um ambiente virtual que simula um ambiente real. Explica que a virtualização permite que múltiplas máquinas virtuais funcionem em um mesmo hardware físico de forma isolada. Também descreve os principais conceitos como hypervisor, máquinas virtuais e os tipos de virtualização I e II.
Posicionamento Brasscom - Internet as CoisasBrasscom
A Internet das Coisas trará grandes oportunidades de negócios e crescimento para o Brasil, mas o país precisa agir rapidamente para desenvolver as infraestruturas e políticas públicas necessárias. O documento recomenda que o Brasil foque em áreas onde pode se tornar líder global e adote rápido padrões internacionais em outras áreas. Também é necessário investir em datacenters, capacitação humana, acesso à internet e proteção de dados pessoais para aproveitar todo o potencial da Internet das Coisas.
O documento discute o conceito de inteligência de negócios e sua importância para o sucesso das organizações. Aborda Inteligência de Negócios como a capacidade de reunir informações, pessoas e tecnologia para tomar melhores decisões mais rápido e converter dados em informações úteis. Também discute assuntos relacionados à privacidade e segurança na internet.
O documento discute uma solução para processar dados em tempo real e por lotes para atender clientes em múltiplos canais. A pesquisa propõe o Apache Storm para ingestão e análise de dados em streaming de redes sociais e outros dados por lotes. A arquitetura Hortonworks suporta essa solução híbrida de processamento em tempo real e por lotes.
A SAP e a Teklogix oferecem uma parceria para fornecer informações em tempo real ao Supply Chain Management. A solução integra o software SAP R/3 com a tecnologia de coleta de dados sem fio da Teklogix para melhorar a tomada de decisões. A parceria ajuda empresas a reduzir custos e ser mais flexíveis.
Cloud Computing: a chave para inovar durante a criseCisco do Brasil
O documento discute como a adoção de nuvem pode ajudar as empresas a inovar durante períodos econômicos instáveis. Aproximadamente 55% das empresas brasileiras já usam soluções de nuvem e 67% dos executivos planejam aumentar os investimentos em nuvem em mais de 5% em 2016 para reduzir custos e direcionar esses ganhos para projetos de inovação. A adoção de nuvem pode reduzir custos operacionais em até 87% e custos totais em até 66%. Isso permite que os executivos foque
O documento discute as tendências para a computação em nuvem em 2018. A adoção da nuvem está se tornando uma realidade, com 93% das empresas já tendo migrado ou planejando migrar para a nuvem. Até 2021, os gastos com serviços de nuvem devem dobrar e ultrapassar US$ 530 bilhões. A nuvem pública se tornará a melhor plataforma para acelerar a transformação digital com novas tecnologias. Além disso, a "borda da nuvem" ou "computação na borda" é a
Possibilidades para o mercado de trabalho na área de TIEduardo Ricoldi
O documento discute as possibilidades de emprego na área de TI no Brasil, identificando as áreas em maior demanda como cloud computing, desenvolvimento de aplicativos e segurança da informação. Apresenta também os desafios de encontrar profissionais qualificados para preencher as vagas existentes.
O documento resume uma masterclass sobre cloud computing. Apresenta conceitos básicos como o que é cloud computing e seus benefícios em relação ao modelo tradicional de TI. Também descreve a Amazon Web Services, incluindo sua história, serviços, cultura de inovação e clientes. Por fim, discute a jornada para adoção da nuvem e novas tecnologias como inteligência artificial e internet das coisas.
10 tendências estratégicas para o mercado de tecnologia em 2015SpinEngenharia
A Spin Engenharia está de olho nas tendências do mercado de tecnologia para 2015. Esse documento é um resumo que construímos com base em uma publicação do site IT Business Edge para os funcionários da empresa, mas está acessível para quem desejar se informar.
O documento discute a importância da qualidade de dados no Modern Data Stack e apresenta o Great Expectations como uma ferramenta para validar dados armazenados em data lakes. O documento também mostra como configurar o Great Expectations para executar testes de qualidade em dados armazenados no S3 da AWS usando Spark, gerar documentação dos resultados e integrá-lo com soluções como EMR e Glue.
Semelhante a 5 motivos para adotar o Event-Driven com Kafka (20)
Material utilizado no evento Kafka MeetUp no dia 29/9/2021 sobre a adoção da tecnologia no negócio endereçando o tema de interoperabilidade, desempenho no processamento e transformação dos dados através do uso do Kafka.
This case shows how Kafka can extracts data from SAP on-premises, transforms and moves to the Webservices on cloud-computing. Techrom has developed it.
Superare - Facebook Messenger Bots: um novo canal de relacionamentoTechrom Tecnologia
O documento discute o potencial do uso de bots no Facebook Messenger para melhorar a experiência do cliente e os resultados de negócios. Ele apresenta exemplos de como empresas como Burger King, 1-800-Flowers e KLM usam bots para agilizar pedidos, atendimento ao cliente e personalizar conteúdo.
TAM has personalized the interaction with its customers by using Superare Platform. User selects the stretch that would like to be notified when the ticket is on sale.
The First Chrome Notification Case in Brazil. By Superare, customers can personalize the interactions with customers. Superare is the pioneer of multichannel notification in Latin America.
Twitter Direct Messages Case - Universal Pictures BrazilTechrom Tecnologia
Universal Pictures Brazil launched a Twitter Direct Message campaign for the movie Jurassic World using the hashtags #jurassicworld and #jurassicpark to engage with followers. Followers who tweeted these hashtags received personalized DMs from Argos4.me with content from Universal about the film, resulting in positive sentiment and interaction with fans to publicize the movie.
Twitter Direct Messages in Brazil - Universal PicturesTechrom Tecnologia
Universal Pictures Brazil launched a Twitter Direct Message campaign for the movie Jurassic World using the hashtags #jurassicworld and #jurassicpark to engage with followers. Followers who tweeted these hashtags received personalized DMs from Argos4.me with content from Universal about the film, resulting in positive sentiment and interaction with fans to publicize the movie.
The document discusses how companies can use Facebook notifications to engage consumers in an innovative and personalized way. It introduces Argos4.me, a solution that allows companies to send relevant notifications to different user profiles based on their interests and preferences. Companies can schedule notifications, view user insights and filter users. Notifications allow targeted communication with consumers and help companies better understand customer demand. The solution aims to improve customer interactions through a more segmented and relevant approach compared to traditional Facebook posts or ads.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
Este certificado confirma que Gabriel de Mattos Faustino concluiu com sucesso um curso de 42 horas de Gestão Estratégica de TI - ITIL na Escola Virtual entre 19 de fevereiro de 2014 a 20 de fevereiro de 2014.
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Guardioes Digitais em ação: Como criar senhas seguras!
5 motivos para adotar o Event-Driven com Kafka
1.
TECHROM TECNOLOGIA
5 Motivos para você adotar o Event-Driven
Data Streaming com Kafka
A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
2.
Introdução
Estamos iniciando uma nova década com a perspectiva de que o volume de dados aumentará
exponencialmente, principalmente com a evolução do 5G e a proliferação dos sensores
inteligentes (IoT).
Com base no estudo feito pela consultoria americana McKinsey, o IoT deverá adicionar US$
200 Bilhões em ganhos para a economia brasileiro em 2025.
A última década foi marcada fortemente pelos temas SMACIT (Social, Mobile, Analytics, Cloud
e Internet of Things), assim como o amadurecimento da Inteligência Artificial, BlockChain,
impressão 3D entre outras tecnologias.
Influenciado pelo SMACIT, o tema de transformação digital tem estado na agenda dos
principais executivos das grandes corporações, com os propósitos de estruturar a maneira
com as empresas utilizam os dados gerados, criar novos modelos de negócios, trabalhar a
base de clientes, usar novas ferramentas como BOT, melhorar a eficiência da operação do
negócio, montar sala de desempenho exibindo alguns indicadores em tempo real entre outros
objetivos.
2 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
3.
Para os próximos anos, a empresa de pesquisa americana Gartner prevê que os temas abaixo
instigarão o uso do Event-Driven:
● Data Fabric : Geração de valor com o enriquecimento do dado bruto, utilização um
pipeline inteligente, reprocessamento dos dados e a possibilidade de conectar com
outras ferramentas para análises além da troca de informações entre empresas
parceiras;
● Multiexperiência: Com o aprimoramento das tecnologias realidade aumentada (AR),
realidade virtual (VR), plataforma conversacional, robotização e futuras tecnologias que
surgirão, a qualidade dos dados será essencial para a utilização destas tecnologias
impactando na interação do usuário com esses recursos;
● Persistência dos dados: Com a tendência de crescimento do volume de dados e a
necessidade cada vez maior de reuso e reprocessamento, a persistência se torna
fundamental para que as empresas possam ter a flexibilidade de trabalhar com as
informações.
3 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
4.
4 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
5.
Motivações para o uso do Event-Driven
A arquitetura de event-driven vem ganhando cada vez mais adeptos à adoção nas empresas
globais e brasileiras com base na tecnologia Kafka.
Destacam-se 5 motivos para a adoção do Event-Driven:
★ Mudança da arquitetura de dados para eventos: Tendo em vista a dinâmica do
mundo atual, ter uma arquitetura voltada para event-driven que permite compreender o
contexto, antecipar os possíveis novos eventos dos usuários, processar e reprocessar
dados no menor tempo possível, ter a persistência dos dados para consultas e
trabalhar com diversos tipos de dados (estruturados e não estruturados), é fundamental
para acompanhar as mutações do negócio. Manter uma arquitetura no modelo
request-driven cuja atuação é passiva, complexa e onerosa, prejudicará a empresa na
tomada de decisão tardia. Um exemplo de empresa que adotou esse formato é o Royal
Bank of Canada, que usou a tecnologia Kafka em parceria com a empresa americana
Confluent, para melhorar a experiência dos clientes e reduzir o custo da área de
tecnologia.
5 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
6.
★ Processamento de dados instantâneo: A necessidade de captar e processar os
dados em streaming tem crescimento principalmente num cenário de mudanças cada
vez mais rápidas ( concorrência, preferências dos consumidores, econômicas, etc.).
Tecnologias que realizam o processamento em lotes (batch) estão sendo repensadas
ou substituídas por tecnologias como o Kafka, que processam de forma contínua e
instantânea. Um exemplo de uso é na detecção de ataques na rede ou de fraudes,
onde é imprescindível a identificação de comportamentos suspeitos que fogem do
padrão. Outro exemplo é no modelo omnichannel, em que o varejista precisa realizar a
atualização instantânea do estoque para não perder a venda, ou gerar uma experiência
ruim para o consumidor. Uma referência de uso é a Target, para a atualização do
inventários das suas lojas.
6 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
7.
★ Datahub de eventos: É crucial a criação de um hub único, eliminando as ilhas de
dados (silos) e aprimorando a geração de valor dos dados dentro das empresas. Mais
do que nunca, a centralização dos dados é imperativo para que o time executivo possa
acessar, analisar e extrair informações úteis para o negócio. Além disso, para o uso de
ferramentas como bot e machine learning, os dados são o insumo básico para o uso
pleno destas tecnologias. Um exemplo é a Bayer, com a criação de um datahub global
usando o Kafka como o componente central.
7 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
8.
★ Conexão com o legado: A evolução do uso do processamento em nuvem
(cloud-computing) tem evoluído ao redor do mundo, e as empresas tradicionais
precisam lidar com os dados que estão nos sistemas legados o que torna complexa a
gestão do ambiente tecnológico. Neste cenário, obter ferramentas que possam fazer a
gestão dos ambientes híbridos, como também transferir e utilizar os dados de maneira
simples e flexível, traz vantagens relevantes para a empresa. Um exemplo de uso é o
processamento de uma transação de uma loja on-line que ocorre na nuvem mas que
precisa fazer uma validação do cadastro do usuário numa base que está no legado
(on-premises). Uma ferramenta que pode auxiliar neste caso é o Replicator, da
empresa americana Confluent, que permite movimentar os dados de forma rápida e
fácil.
8 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
9.
★ Transformação e enriquecimento de dados: Ter uma tubulação de dados (pipeline)
sem a inteligência necessária para realizar cálculos rápidos, agregar informações de
tabelas de dados diferentes ou fazer o enriquecimento de dados, pode implicar em
perda de oportunidade de mercado (time-to-market), produtividade do time interno e
de possíveis erros nas métricas. A automatização do processo de manipulação dos
dados ganhará força nas empresas para reduzir o trabalho manual e obter os
resultados de forma rápida. O recurso KsqlDB, que é a ferramenta de transformação de
dados voltado para o Kafka, permite realizar o enriquecimento de base de dados (ex.:
acrescentar os 4 últimos números do CPF do usuário) em uma tabela dinâmica para
avaliar o potencial de comprar de um determinado segmento de consumidores em
streaming. Um exemplo de empresa que usa é a Ticketmaster que usa para realizar
transformações dos dados em tempo real.
9 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
10.
Metamorfose mercadológica
No último livro lançado pelo Peter Diamandis ( The Future is Faster Than you Think) relata a
rápida transformação que o mundo e os negócios estão passando principalmente pela
evolução tecnológica (poder computacional, machine learning, robotização, carros autônomos,
etc.) que houve nos últimos anos e que a tendência será uma metamorfose mais acelerada e
intensa para os próximos anos.
Paradoxalmente, grande partes das empresas ainda precisam resolver problemas básicos
como integração de várias fontes de dados, eliminação dos silos, simplificação da conexão
com outros sistemas, obtenção de métricas confiáveis para a tomada de decisão, governança
do ambiente tecnológico entre outros pontos, para poder utilizar as novas tecnologias
explorando todo o seu potencial.
A quebra de paradigma será mandatória para aproveitar as futuras oportunidades e os dados
serão a peça chave para a era digital.
10 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka
11.
Referências:
Event-Driven 2.0 :
https://www.confluent.de/blog/event-driven-2-0/
Gartner Identifies the Top 10 Strategic Technology Trends for 2020:
https://www.gartner.com/en/newsroom/press-releases/2019-10-21-gartner-identifies-the-top-10-strateg
ic-technology-trends-for-2020
Gartner Top 10 Data and Analytics Trends :
https://www.gartner.com/smarterwithgartner/gartner-top-10-data-analytics-trends/
Gartner The 5 Steps Toward Pervasive Event-Driven Architecture :
https://www.gartner.com/doc/reprints?first_name=ROm&last_name=cesar&work_email=rom%40techro
m.co&company=Techrom&job_title=Founder&country=Brazil&Email_OptIn=true&id=1-1DUXVP4V&ct=19
0710&st=sb
Mckinsey - Brazil 2020 Opportunity Tree:
https://www.mckinsey.com.br/our-insights/brazil-2020-opportunity-tree
Case Bayer:
https://www.confluent.io/kafka-summit-sf18/bringing-streaming-data-to-the-masses
Case Target:
https://www.confluent.io/kafka-summit-nyc17/simplifying-omni-channel-retail-at-scale/inv/
Streaming in the Clouds: Where to Start:
https://www.confluent.io/blog/streaming-in-the-clouds-where-to-start
Case Royal Bank of Canada:
https://www.confluent.io/customers/rbc/
Case Ticketmaster:
https://www.confluent.io/online-talks/an-intro-to-ksql-and-kafka-streams-processing-with-ticketmaster/
11 A Techrom é a primeira startup no Brasil especializada em data streaming com base na tecnologia Kafka