O slideshow foi denunciado.
Seu SlideShare está sendo baixado. ×

Marketing digital como instrumento de controle

Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Carregando em…3
×

Confira estes a seguir

1 de 21 Anúncio

Mais Conteúdo rRelacionado

Semelhante a Marketing digital como instrumento de controle (20)

Mais de Luiz Agner (20)

Anúncio

Mais recentes (20)

Marketing digital como instrumento de controle

  1. 1. O marketing digital como instrumento de controle nas redes sociais Luiz Agner (Facha, RJ) Juliana Hofstetter (Facha, RJ) XI Simpósio Nacional da ABCIBER Juiz de Fora/ UFJF, 2018
  2. 2. Introdução • Mundo interconectado, IoT • PNAD/IBGE: 70% domicílios conectados • Marketing digital e redes sociais • Objetos conectados: 8,4 bilhões • 20,4 bilhões de dispositivos conectados até 2020 (Gartner) (iluminação, aquecimento, ventilação e ar condicionado, e sistemas de segurança).
  3. 3. Objetivos • Analisar aspectos do modo de atuação do controle e do poder exercido pela vigilância na sociedade digital; • Ética, a segurança e o potencial de controle dos algoritmos, que coletam dados, os armazenam, combinam, analisam e criam padrões que revelam tendências; • Escândalo do vazamento de dados de usuários na rede social Facebook e seu emprego como estratégia de marketing político pela consultoria Cambridge Analytica.
  4. 4. • Foucault: relações de poder ao longo da história e suas articulações; • Configuração de sociedades disciplinares. • O panoptismo: analogia com um sistema de vigilância total e individualizante, em que a estrutura circular permite a observação sistemática dos vigiados, preservando a opacidade dos vigilantes. Sociedade disciplinar Panóptico
  5. 5. • Gilles Deleuze: • A partir do final séc. 20 e séc. 21 • Poder não é mais hierárquico, disperso em rede planetária e difusa. • Natureza reticular, interconectada. • Interpenetração dos espaços, num tempo contínuo; • Em uma matriz onipresente que regula as malhas do tecido social. Sociedade de controle
  6. 6. • Bauman & Lyon; Bruno: • Armas de sedução do marketing vão utilizar os resultados da vigilância sistemática; • Bancos de dados, algoritmos, aprendizado de máquina e perfis computacionais • Buscar a apropriação e processamento de dados e metadados comportamentais dos consumidores. Marketing e vigilância
  7. 7. • Domingues (2016): • Conhecer e controlar o que os cidadãos pensam ou postam nas mídias sociais é a estratégia central de marketing e de tomada de decisão a ser praticada por todo tipo de atores: • iniciativa privada, governos, potenciais governantes, movimentos sociais, partidos políticos etc. Publicidade de controle Panóptico
  8. 8. • Tecnologias que usam IA e aprendizado de máquina permitem que a arquitetura da persuasão no universo online seja construída de forma individualizada: • Facebook, Google, Amazon, Alibaba • Interferência em diversas escalas da vida dos indivíduos, produzindo um novo modelo de controle social. • Os dados de bilhões são usados para influenciar a opinião pública e o mercado financeiro. Machine learning e IA
  9. 9. Cambridge Analytica
  10. 10. • Subsidiária da SCL (Strategic Communication Laboratories). • SCL foi fundada há 25 anos com vários braços: publicitário, militar, eleitoral e analítico. • Especializada em op-psy. • Clientes: OTAN, o Ministério da Defesa Britânico, a National Security Agency (NSA), o Depto. de Estado EUA. • CA participou de eleições em uma infinidade de países com técnicas duvidosas, além do Brexit. • Missão da CA: Utilizar a análise de dados em larga escala para “alterar o comportamento da audiência” (site oficial). • Vice-presidente: Steve Bannon (proprietário Breitbart News) Cambridge Analytica
  11. 11. • CA analisou likes para identificar opiniões políticas, convicções religiosas, personalidade, inteligência, grau de satisfação, orientação sexual, e se os pais são divorciados. • Até 5.000 tipos de dados de nacionalidade, política, consumo, e estilo de vida de cada eleitor. • Mais a camada de classificação de personalidade baseada em abertura, consciência, extroversão, amabilidade e neurose (modelo OCEAN). Cambridge Analytica
  12. 12. Cambridge Analytica
  13. 13. Cambridge Analytica
  14. 14. • 10 likes: o algoritmo conhece o usuário melhor que um colega de trabalho; • 100 likes: conhece melhor que os seus pais; • 230 likes: conhece melhor que o seu cônjuge. • Dark post: mensagem hiper-personalizada que não aparece para os demais usuários; não é público; • 77 mil votos somados em 3 estados-chave deram a vitória a Trump, que recebeu 3 milhões de votos a menos. • A democracia é o novo campo de disrupção e de instabilidade causada pela tecnologia. Cambridge Analytica
  15. 15. • FGV descreve a atuação dos social bots. • São contas controladas por software que mimetizam ações humanas e atuam de forma perniciosa nas redes sociais, através de perfis falsos, impulsionando debates, forjando discussões e disseminando fake news. • O Whatsapp foi utilizado de modo ilegal na campanha de 2018, com envio de massa de mensagens com desinformação. A empresa bloqueou contas ligadas às agências Quickmobile, Yacows, Croc Services, SMS Market. Desdobramentos no Brasil
  16. 16. • Consequências humanas de uma sociedade tecnológica orientada por grandes volumes de dados e por algoritmos com base em inteligência artificial? • São ferramentas encapsuladas em caixas pretas, segredos comerciais. • Os cidadãos não têm acesso ao funcionamento e não as podem compreender. Pontos para discussão Pasquale (2015)
  17. 17. • Era digital gerou o enfraquecimento dos gatekeepers tradicionais, como a mídia, o governo e a academia, em prol de novos gatekeepers algorítmicos. • Esfera pública confusa, poluída e repleta de ruídos, onde proliferaram discursos extremistas e desinformação. • Os novos gatekeepers algorítmicos não têm neutralidade, • Modelos de negócios que incentivam as preferências enviesadas. Pontos para discussão Tufekci (2018)
  18. 18. • Qualquer pessoa pode postar os seus pensamentos; • “Era de ouro” da liberdade de expressão? • A capacidade de disseminar ideias não é mais limitada pela infraestrutura centralizada e cara de broadcasting. • O limite é a nossa habilidade de captar atenção, • dominada por poucas plataformas e por seus algoritmos de vigilância massiva. Pontos para discussão
  19. 19. • Formas mais eficazes de censura: • campanhas coordenadas de assédio, ameaças e ódio, epidemias de desinformação, viralização da distração, descrédito das fontes tradicionais de informação: a academia, a imprensa. • Objetivo das velhas formas de censura: impedir a criação e a propagação das idéias. Pontos para discussão
  20. 20. • O modelo de negócios - captar a atenção das pessoas através de uma infraestrutura de vigilância massiva para vender anúncios automatizados. • É mais compatível com regimes autoritários, propaganda, desinformação e polarização. • Do que com o conceito de liberdade de pensamento e expressão. Pontos para discussão
  21. 21. Obrigado! luizagner@gmail.com www.agner.com.br FACHA - Rio de Janeiro, RJ

×