O documento descreve um curso sobre a tecnologia Apache Kafka. Apache Kafka é uma plataforma de streaming de dados em tempo real utilizada por grandes empresas como Uber, Netflix e LinkedIn. O curso ensina conceitos básicos de Kafka, arquitetura de dados, componentes e casos de uso, preparando os alunos para trabalhar com grandes volumes de dados.
Slides Lição 4, Betel, Ordenança quanto à contribuição financeira, 2Tr24.pptx
Template_Faculdade_Apache Kafka.pdf
1. Quer ser protagonista na nova era
digital? Quer saber como extrair
métricas de várias bases de
dados em tempo real?
Faça o curso da
tecnologia Apache Kafka
2. Quer aprender a criar
uma arquitetura de dados
usando uma tecnologia
revolucionária?
Faça o curso da
tecnologia Apache Kafka
3. A tecnologia Apache
Kafka é utilizada por
empresas inovadoras
como Uber, Netflix,
Airbnb, LinkedIn entre
outras.
Quer saber o por quê?
3
4. Sobre a tecnologia
O Apache Kafka surgiu em 2009 num projeto para a rede social LinkedIn com o propósito de
simplificar a integração de várias bases de dados e disponibilizar o acesso aos dados no
menor tempo possível. Devido ao êxito dos resultados gerados, o Apache Kafka passou a
ser utilizado por outras empresas como Activision Blizzard, Audi, Walmart, The New York
Times, Apple entre outras.
Por que tem crescido de forma acelerada o uso da tecnologia?
• Capacidade de processar grande volume de dados no menor tempo possível
• Cria um hub com diversas bases de dados integradas simplificando a área de TI
• Permite lançar novos produtos e serviços de forma rápida
• Possibilita a criação da visão 360 dos clientes
• Pode reduzir o custo com a infraestrutura de dados
4
5. O que agrega para a área
de negocios
Grandes empresas internacionais e brasileiras têm adotado a tecnologia com os
seguintes propósitos:
• Gerar de métricas e insights, em tempo real, para a tomada de decisão
• Ingerir e processar dados oriundos de sensores inteligentes (IoT) para análise
• Reduzir a complexidade da área de tecnologia
• Disponibilizar os dados para usar com os recursos de inteligência artificial (AI) e machine
learning (ML)
• Aumentar o conhecimento da base de clientes para melhorar as vendas
• Acelerar o lançamento de novos produto / serviços
• Identificar transações fraudulentas
5
6. Sobre o curso
O curso tem como objetivo mostrar os conceitos básicos sobre a tecnologia Apache Kafka, arquitetura de dados, os
componentes utilizados pela tecnologia e casos de uso.
Serão discutidos também alguns exemplos práticos de uso da tecnologia Apache Kafka.
Este é um curso prático que conta com a seguinte estrutura*:
• Conceito de data streaming
• Introdução sobre o Apache Kafka
• Como instalar
• Principais componentes do Apache Kafka: Broker, Connectors, Zookeeper, Schema Registry e Stream
• Integração com bancos de dados
• Integração com Elastic
• Casos de uso
6
*Não é necessário o conhecimento prévio nas tecnologias abordadas
7. Público-alvo
• Desenvolvedores em linguagens (Java, Python, Node, Scala)
• Arquiteto de solução
• Engenheiro de Dados
• Cientista de dados
• Analista de segurança de dados
• Analista de dados voltados para Business Intelligence (BI)
• Praticantes
7
8. Instrutores do curso
Fabio da Silva Neto
É consultor da startup Techrom
Formado em Ciências de Computação na USP, e
desenvolve há 10 anos, contando com experiência
em diversos frameworks desktop, web e mobile.
Trabalhou no Banco Itaú-Unibanco, na área de
pagamentos digitais, e participou de projetos que
demandaram a utilização de tecnologias como
Apache Kafka para incremento de performance e
escalabilidade.
8
Rom Cesar
É fundador da startup Techrom.
Fundador da startup Techrom, focada em data streaming,
com base em Apache Kafka, traz a experiência de sua
passagem por outra startup de tecnologia e de empresas
americanas onde atuou no desenvolvimento de grandes
projetos.
Economista com MBA em gestão de mercados na FGV.
9. Referencias
9
https://www.confluent.io/kafka-summit-nyc17/source-truth-new-york-times-stores-every-piece-content-ever-published-kafka/
Exemplo de uso: Jornal The New Your Times
https://www.confluent.io/kafka-summit-nyc17/every-message-counts-kafka-foundation-highly-reliable-logging-airbnb/
Exemplo de uso: Airbnb
https://www.confluent.io/kafka-summit-nyc17/scalable-real-time-complex-event-processing-at-uber/
Exemplo de uso: Uber
https://www.confluent.io/kafka-summit-ny19/maintaining-consistency-for-financial-event-driven-architecture
Exemplo de uso: Nubank
https://www.confluent.io/kafka-summit-sf18/operating-multi-tenant-clusters-at-scale
Exemplo de uso: Apple
https://kafka.apache.org/
Sobre a tecnologia Apache Kafka
https://www.confluent.io/kafka-summit-ny19/kafka-streams-at-scale
Exemplo de uso: Walmart
https://www.confluent.io/kafka-summit-london18/keynote-fast-cars-in-a-streaming-world-reimagining-transportation-at-audi
Exemplo de uso: Audi
https://www.confluent.io/resources/kafka-summit-2016/kafka-scale-cloud/
Exemplo de uso: Netflix