A personalização da esfera pública e a bolha de filtros
1. A Personalização da Esfera Pública e a Bolha de Filtros
Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE
Vista como uma fonte diversificada, plural e aberta de informações sob os mais diversos
pontos de vista, a internet nos remete a uma imagem de uma enorme biblioteca, com serviços
como Google propiciando um mapa universal. Presumimos que a internet seja um grande
instrumento para nos conectar e nos aproximar, e para ajudar a criar um mundo melhor,
verdadeiramente mais plural e mais democrático. Não obstante, alguns indícios nos levam a
suspeitar de que no momento a realidade pode ser bem diferente. Os anúncios que nos são
exibidos, assim como os resultados de busca que obtemos na internet, e até mesmo as notícias
veiculadas nos portais de grandes conglomerados jornalísticos e agregadores de notícias estão
cada vez mais baseados em critérios automatizados de seleção: os chamados algoritmos de
classificação estão personalizando o que chega até cada um de nós, e o mais grave é que não
conhecemos e nem sequer somos alertados sobre os critérios adotados. É como se
estivéssemos vivendo numa bolha de informações que proíbe a entrada de visões e
perspectivas que divergem das nossas.
A personalização é viável devido sobretudo às tecnologias de rastreamento da navegação na
rede. O fato é que, para melhorar a relevância dos anúncios e garantir uma melhor experiência
online ao usuário, anunciantes e empresas de serviços na internet, aí incluídos busca, redes
sociais, e-mail e comércio eletrônico, todos fazem uso de tecnologias de rastreamento das
atividades do usuário por meio da gravação de pequenos arquivos conhecidos como “cookies”
no sistema de arquivos do usuário. A partir dos dados gravados nos cookies é possível
construir um perfil “comportamental” e demográfico do usuário, e daí personalizar sua
experiência online.
O fenômeno da personalização da esfera pública já havia sido analisado por Cass Sunstein,
influente jurista americano e hoje administrador do “Office of Information and Regulatory
Affairs” do governo Obama, em seu livro “Republic.com” (Princeton Univ Press, 2002).
Argumentando que a democracia depende de experiências compartilhadas e requer que os
cidadãos sejam expostos a tópicos e idéias que não teriam escolhido antecipadamente, Sustein
já revelava preocupação com os possíveis efeitos negativos trazidos pela internet com a
facilidade de personalização do noticiário e a criação do que ele chamou de “Daily Me”
(“Diário Eu”): “no ciberespaço, já temos a capacidade de filtrar tudo exceto o que desejamos
ver, ouvir e ler”. Numa espécie de segunda edição reformulada sob a ótica da chamada
“internet interativa”, Sustein em “Republic.com 2.0” (Princeton Univ Press, 2009) defende que,
ao gravitar apenas em torno de blogs, podcasts e outras mídias sociais que reforçam suas
próprias visões, o cidadão vai se privando de entrar em contato com perspectivas diferentes, e
o sentido de “empoderamento” pessoal posteriormente associado a “liberdade” acaba
alimentando o efeito “câmara de eco”, que substitui um sentido de unidade democrática com
polarização acelerada. E essa tendência de se isolar em “casulos de informações” pode
representar um dos efeitos mais perniciosos da internet sobre a esfera pública, argumenta
Sunstein.
2. Se há alguma legitimidade na preocupação de Sustein com o excesso de personalização que os
próprios cidadãos estariam promovendo através do uso da tecnologia, imagine o cenário em
que a personalização é feita por máquinas, algoritmos. Eli Pariser, ativista e coordenador da
organização não-governamental americana de cunho político MoveOn.org, em palestra no
portal TED.com intitulada “Beware online ‘filter bubbles’” (Março 2011) chama a atenção para
o fato de que, à medida que as empresas da web buscam incessantemente adaptar seus
serviços (aí incluídos noticiários e engenhos de busca) às preferências pessoais de cada um dos
seus clientes, surge um perigoso efeito colateral: o cidadão se vê preso numa “bolha de filtros”
e não é exposto a informações que poderiam questionar ou ampliar sua própria visão de
mundo. E o resultado é que “os filtros de personalização servem a um tipo de autopropaganda
invisível, nos doutrinando com nossas próprias idéias, amplificando nossos desejos por coisas
que nos são familiares e nos deixando cegos aos perigos à espreita no território negro do
desconhecido.”
Como resultado de suas reflexões sobre as implicações sociais dessa bolha de filtros, Pariser,
em seu livro “The Filter Bubble: What the Internet Is Hiding from You” (The Penguin Press HC,
Maio 2011), chama a atenção para o fato de que, diferentemente do que se presume, os
resultados de uma busca no engenho da Google não são os mesmos para todos os usuários,
nem idênticos para o mesmo usuário em momentos distintos. Desde Dezembro de 2009 que o
algoritmo da Google de ordenação dos resultados usa diversas variáveis (vide o post
“Personalized Search for everyone” publicado no “The Official Google Blog” em 04/12/2009),
mais de 50 segundo fontes seguras, que envolvem desde o tipo de computador que está sendo
usado, a história de navegação associada àquele usuário, até o tipo de navegador através do
qual a busca foi solicitada, incluindo o local associado ao endereço de IP da máquina do
usuário. Assim, uma busca sobre “células tronco”, por exemplo, poderia produzir resultados
completamente diferentes dependendo da posição de quem fez a busca, se entusiasta ou
ativista contrário. Igualmente, uma busca por “prova das mudanças climáticas” pode levar a
resultados bem distintos para um ambientalista, por um lado, e para um executivo de uma
empresa de produção de energia considerada poluente, por outro lado.
Isso não ocorre apenas nos engenhos de busca. Nas redes sociais a personalização é
ingrediente fundamental na fidelização do cliente. Alguém que tem centenas de amigos no
Facebook, por exemplo, vai ver as notícias de mural provenientes apenas dos mais chegados,
pois o algoritmo por trás do serviço da Facebook se baseia nas interações, nos cliques e nas
declarações de “curtir” realizadas pelo usuário para ser capaz de fazer uma previsão do que, e
de quem, mais lhe interessa. Algo semelhante faz o Yahoo! News para descobrir qual notícia
mais interessa ao usuário com aquele perfil, a Netflix para conseguir recomendar o filme que
mais se encaixa nos gostos do cliente com aquele histórico, a Amazon para adivinhar o livro ou
produto que interessaria a alguém com perfil semelhante, a Zappos para encontrar que tipo de
sapato está dentro das preferências, etc. Dizendo-se preocupado em “garantir que esses
algoritmos carreguem um sentido de vida pública, um sentido de responsabilidade cívica,”
Pariser clama por um ativismo cibernético que busque forçar essas empresas a cumprir o que
muitas delas declaram como slogan de missão e de boas intenções (“Do no evil”, isto é, “Não
seja do mal”, é o motto da Google). Lembrando a máxima de Melvin Kranzberg (1917–1995),
um dos fundadores da Society for the History of Technology, de que “tecnologia não é do bem
nem é do mal, nem é neutra”, parece imperioso fazer o possível, seja por regulação
3. governamental ou por pressão ativista não-governamental, que os melhores valores de uma
sociedade aberta e democrática sejam refletidos no desenho da tecnologia.
Dizendo-se esperançoso de que a internet ainda venha a cumprir a promessa da interconexão
global da humanidade, Pariser reconhece que, embora se revelando perfeita no apoio à
formação de grupos de pessoas com interesses comuns, será preciso muito ativismo para
garantir que a internet seja de fato berço do verdadeiro espírito democrático de tolerância e
convivência plural. Como diz Evgeny Morozov em sua resenha do livro de Pariser (“Your Own
Facts”, New York Times, 10/06/2011), além do alerta para os perigos do excesso de
personalização, “The Filter Bubble” merece aplausos pela advertência para o crescente poder
dos intermediários da informação cujas regras, protocolos e motivações nem sempre são
visíveis.