O marketing digital como instrumento
de controle nas redes sociais
Luiz Agner (Facha, RJ)
Juliana Hofstetter (Facha, RJ)
XI Simpósio Nacional da ABCIBER
Juiz de Fora/ UFJF, 2018
Introdução
• Mundo interconectado, IoT
• PNAD/IBGE: 70% domicílios conectados
• Marketing digital e redes sociais
• Objetos conectados: 8,4 bilhões
• 20,4 bilhões de dispositivos conectados até 2020 (Gartner)
(iluminação, aquecimento, ventilação e ar condicionado, e sistemas de segurança).
Objetivos
• Analisar aspectos do modo de atuação do
controle e do poder exercido pela vigilância na
sociedade digital;
• Ética, a segurança e o potencial de controle
dos algoritmos, que coletam dados, os armazenam,
combinam, analisam e criam padrões que revelam
tendências;
• Escândalo do vazamento de dados de usuários
na rede social Facebook e seu emprego como
estratégia de marketing político pela consultoria
Cambridge Analytica.
• Foucault: relações de poder ao longo
da história e suas articulações;
• Configuração de sociedades
disciplinares.
• O panoptismo: analogia com
um sistema de vigilância total e
individualizante, em que a estrutura
circular permite a observação sistemática
dos vigiados, preservando a opacidade dos
vigilantes.
Sociedade disciplinar
Panóptico
• Gilles Deleuze:
• A partir do final séc. 20 e séc. 21
• Poder não é mais hierárquico,
disperso em rede planetária e difusa.
• Natureza reticular, interconectada.
• Interpenetração dos espaços, num
tempo contínuo;
• Em uma matriz onipresente que
regula as malhas do tecido social.
Sociedade de controle
• Bauman & Lyon; Bruno:
• Armas de sedução do marketing
vão utilizar os resultados da vigilância
sistemática;
• Bancos de dados, algoritmos,
aprendizado de máquina e perfis
computacionais
• Buscar a apropriação e
processamento de dados e metadados
comportamentais dos consumidores.
Marketing e vigilância
• Domingues (2016):
• Conhecer e controlar o que os
cidadãos pensam ou postam nas
mídias sociais é a estratégia central de
marketing e de tomada de decisão a ser
praticada por todo tipo de atores:
• iniciativa privada, governos,
potenciais governantes, movimentos
sociais, partidos políticos etc.
Publicidade de controle
Panóptico
• Tecnologias que usam IA e
aprendizado de máquina permitem que
a arquitetura da persuasão no universo
online seja construída de forma
individualizada:
• Facebook, Google, Amazon, Alibaba
• Interferência em diversas escalas
da vida dos indivíduos, produzindo um
novo modelo de controle social.
• Os dados de bilhões são usados
para influenciar a opinião pública e o
mercado financeiro.
Machine learning e IA
Cambridge Analytica
• Subsidiária da SCL (Strategic Communication Laboratories).
• SCL foi fundada há 25 anos com vários braços: publicitário,
militar, eleitoral e analítico.
• Especializada em op-psy.
• Clientes: OTAN, o Ministério da Defesa Britânico, a National
Security Agency (NSA), o Depto. de Estado EUA.
• CA participou de eleições em uma infinidade de países com
técnicas duvidosas, além do Brexit.
• Missão da CA: Utilizar a análise de dados em larga escala
para “alterar o comportamento da audiência” (site oficial).
• Vice-presidente: Steve Bannon (proprietário Breitbart News)
Cambridge Analytica
• CA analisou likes para identificar
opiniões políticas, convicções religiosas,
personalidade, inteligência, grau de
satisfação, orientação sexual, e se os pais
são divorciados.
• Até 5.000 tipos de dados de
nacionalidade, política, consumo, e estilo de
vida de cada eleitor.
• Mais a camada de classificação de
personalidade baseada em abertura,
consciência, extroversão, amabilidade e
neurose (modelo OCEAN).
Cambridge Analytica
Cambridge Analytica
Cambridge Analytica
• 10 likes: o algoritmo conhece o usuário melhor que um
colega de trabalho;
• 100 likes: conhece melhor que os seus pais;
• 230 likes: conhece melhor que o seu cônjuge.
• Dark post: mensagem hiper-personalizada que não aparece
para os demais usuários; não é público;
• 77 mil votos somados em 3 estados-chave deram a vitória a
Trump, que recebeu 3 milhões de votos a menos.
• A democracia é o novo campo de disrupção e de
instabilidade causada pela tecnologia.
Cambridge Analytica
• FGV descreve a atuação dos social bots.
• São contas controladas por software que
mimetizam ações humanas e atuam de forma
perniciosa nas redes sociais, através de perfis
falsos, impulsionando debates, forjando discussões
e disseminando fake news.
• O Whatsapp foi utilizado de modo ilegal
na campanha de 2018, com envio de massa
de mensagens com desinformação. A empresa
bloqueou contas ligadas às agências Quickmobile,
Yacows, Croc Services, SMS Market.
Desdobramentos no Brasil
• Consequências humanas de uma
sociedade tecnológica orientada
por grandes volumes de dados e por
algoritmos com base em inteligência
artificial?
• São ferramentas encapsuladas em
caixas pretas, segredos comerciais.
• Os cidadãos não têm acesso ao
funcionamento e não as podem
compreender.
Pontos para discussão
Pasquale (2015)
• Era digital gerou o enfraquecimento dos
gatekeepers tradicionais, como a mídia, o
governo e a academia, em prol de novos
gatekeepers algorítmicos.
• Esfera pública confusa, poluída e repleta de
ruídos, onde proliferaram discursos extremistas e
desinformação.
• Os novos gatekeepers algorítmicos não têm
neutralidade,
• Modelos de negócios que incentivam as
preferências enviesadas.
Pontos para discussão
Tufekci (2018)
• Qualquer pessoa pode postar os seus
pensamentos;
• “Era de ouro” da liberdade de
expressão?
• A capacidade de disseminar ideias
não é mais limitada pela infraestrutura
centralizada e cara de broadcasting.
• O limite é a nossa habilidade de
captar atenção,
• dominada por poucas plataformas
e por seus algoritmos de vigilância
massiva.
Pontos para discussão
• Formas mais eficazes de censura:
• campanhas coordenadas de assédio, ameaças
e ódio, epidemias de desinformação, viralização
da distração, descrédito das fontes tradicionais
de informação: a academia, a imprensa.
• Objetivo das velhas formas de censura:
impedir a criação e a propagação das idéias.
Pontos para discussão
• O modelo de negócios - captar a
atenção das pessoas através de uma
infraestrutura de vigilância massiva para
vender anúncios automatizados.
• É mais compatível com regimes
autoritários, propaganda, desinformação
e polarização.
• Do que com o conceito de liberdade
de pensamento e expressão.
Pontos para discussão
Obrigado!
luizagner@gmail.com
www.agner.com.br
FACHA - Rio de Janeiro, RJ

Marketing digital como instrumento de controle

  • 1.
    O marketing digitalcomo instrumento de controle nas redes sociais Luiz Agner (Facha, RJ) Juliana Hofstetter (Facha, RJ) XI Simpósio Nacional da ABCIBER Juiz de Fora/ UFJF, 2018
  • 2.
    Introdução • Mundo interconectado,IoT • PNAD/IBGE: 70% domicílios conectados • Marketing digital e redes sociais • Objetos conectados: 8,4 bilhões • 20,4 bilhões de dispositivos conectados até 2020 (Gartner) (iluminação, aquecimento, ventilação e ar condicionado, e sistemas de segurança).
  • 3.
    Objetivos • Analisar aspectosdo modo de atuação do controle e do poder exercido pela vigilância na sociedade digital; • Ética, a segurança e o potencial de controle dos algoritmos, que coletam dados, os armazenam, combinam, analisam e criam padrões que revelam tendências; • Escândalo do vazamento de dados de usuários na rede social Facebook e seu emprego como estratégia de marketing político pela consultoria Cambridge Analytica.
  • 4.
    • Foucault: relaçõesde poder ao longo da história e suas articulações; • Configuração de sociedades disciplinares. • O panoptismo: analogia com um sistema de vigilância total e individualizante, em que a estrutura circular permite a observação sistemática dos vigiados, preservando a opacidade dos vigilantes. Sociedade disciplinar Panóptico
  • 5.
    • Gilles Deleuze: •A partir do final séc. 20 e séc. 21 • Poder não é mais hierárquico, disperso em rede planetária e difusa. • Natureza reticular, interconectada. • Interpenetração dos espaços, num tempo contínuo; • Em uma matriz onipresente que regula as malhas do tecido social. Sociedade de controle
  • 6.
    • Bauman &Lyon; Bruno: • Armas de sedução do marketing vão utilizar os resultados da vigilância sistemática; • Bancos de dados, algoritmos, aprendizado de máquina e perfis computacionais • Buscar a apropriação e processamento de dados e metadados comportamentais dos consumidores. Marketing e vigilância
  • 7.
    • Domingues (2016): •Conhecer e controlar o que os cidadãos pensam ou postam nas mídias sociais é a estratégia central de marketing e de tomada de decisão a ser praticada por todo tipo de atores: • iniciativa privada, governos, potenciais governantes, movimentos sociais, partidos políticos etc. Publicidade de controle Panóptico
  • 8.
    • Tecnologias queusam IA e aprendizado de máquina permitem que a arquitetura da persuasão no universo online seja construída de forma individualizada: • Facebook, Google, Amazon, Alibaba • Interferência em diversas escalas da vida dos indivíduos, produzindo um novo modelo de controle social. • Os dados de bilhões são usados para influenciar a opinião pública e o mercado financeiro. Machine learning e IA
  • 9.
  • 10.
    • Subsidiária daSCL (Strategic Communication Laboratories). • SCL foi fundada há 25 anos com vários braços: publicitário, militar, eleitoral e analítico. • Especializada em op-psy. • Clientes: OTAN, o Ministério da Defesa Britânico, a National Security Agency (NSA), o Depto. de Estado EUA. • CA participou de eleições em uma infinidade de países com técnicas duvidosas, além do Brexit. • Missão da CA: Utilizar a análise de dados em larga escala para “alterar o comportamento da audiência” (site oficial). • Vice-presidente: Steve Bannon (proprietário Breitbart News) Cambridge Analytica
  • 11.
    • CA analisoulikes para identificar opiniões políticas, convicções religiosas, personalidade, inteligência, grau de satisfação, orientação sexual, e se os pais são divorciados. • Até 5.000 tipos de dados de nacionalidade, política, consumo, e estilo de vida de cada eleitor. • Mais a camada de classificação de personalidade baseada em abertura, consciência, extroversão, amabilidade e neurose (modelo OCEAN). Cambridge Analytica
  • 12.
  • 13.
  • 14.
    • 10 likes:o algoritmo conhece o usuário melhor que um colega de trabalho; • 100 likes: conhece melhor que os seus pais; • 230 likes: conhece melhor que o seu cônjuge. • Dark post: mensagem hiper-personalizada que não aparece para os demais usuários; não é público; • 77 mil votos somados em 3 estados-chave deram a vitória a Trump, que recebeu 3 milhões de votos a menos. • A democracia é o novo campo de disrupção e de instabilidade causada pela tecnologia. Cambridge Analytica
  • 15.
    • FGV descrevea atuação dos social bots. • São contas controladas por software que mimetizam ações humanas e atuam de forma perniciosa nas redes sociais, através de perfis falsos, impulsionando debates, forjando discussões e disseminando fake news. • O Whatsapp foi utilizado de modo ilegal na campanha de 2018, com envio de massa de mensagens com desinformação. A empresa bloqueou contas ligadas às agências Quickmobile, Yacows, Croc Services, SMS Market. Desdobramentos no Brasil
  • 16.
    • Consequências humanasde uma sociedade tecnológica orientada por grandes volumes de dados e por algoritmos com base em inteligência artificial? • São ferramentas encapsuladas em caixas pretas, segredos comerciais. • Os cidadãos não têm acesso ao funcionamento e não as podem compreender. Pontos para discussão Pasquale (2015)
  • 17.
    • Era digitalgerou o enfraquecimento dos gatekeepers tradicionais, como a mídia, o governo e a academia, em prol de novos gatekeepers algorítmicos. • Esfera pública confusa, poluída e repleta de ruídos, onde proliferaram discursos extremistas e desinformação. • Os novos gatekeepers algorítmicos não têm neutralidade, • Modelos de negócios que incentivam as preferências enviesadas. Pontos para discussão Tufekci (2018)
  • 18.
    • Qualquer pessoapode postar os seus pensamentos; • “Era de ouro” da liberdade de expressão? • A capacidade de disseminar ideias não é mais limitada pela infraestrutura centralizada e cara de broadcasting. • O limite é a nossa habilidade de captar atenção, • dominada por poucas plataformas e por seus algoritmos de vigilância massiva. Pontos para discussão
  • 19.
    • Formas maiseficazes de censura: • campanhas coordenadas de assédio, ameaças e ódio, epidemias de desinformação, viralização da distração, descrédito das fontes tradicionais de informação: a academia, a imprensa. • Objetivo das velhas formas de censura: impedir a criação e a propagação das idéias. Pontos para discussão
  • 20.
    • O modelode negócios - captar a atenção das pessoas através de uma infraestrutura de vigilância massiva para vender anúncios automatizados. • É mais compatível com regimes autoritários, propaganda, desinformação e polarização. • Do que com o conceito de liberdade de pensamento e expressão. Pontos para discussão
  • 21.