A personalização da esfera pública e a bolha de filtros

404 visualizações

Publicada em

0 comentários
0 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

Sem downloads
Visualizações
Visualizações totais
404
No SlideShare
0
A partir de incorporações
0
Número de incorporações
1
Ações
Compartilhamentos
0
Downloads
7
Comentários
0
Gostaram
0
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

A personalização da esfera pública e a bolha de filtros

  1. 1. A Personalização da Esfera Pública e a Bolha de FiltrosRuy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPEVista como uma fonte diversificada, plural e aberta de informações sob os mais diversospontos de vista, a internet nos remete a uma imagem de uma enorme biblioteca, com serviçoscomo Google propiciando um mapa universal. Presumimos que a internet seja um grandeinstrumento para nos conectar e nos aproximar, e para ajudar a criar um mundo melhor,verdadeiramente mais plural e mais democrático. Não obstante, alguns indícios nos levam asuspeitar de que no momento a realidade pode ser bem diferente. Os anúncios que nos sãoexibidos, assim como os resultados de busca que obtemos na internet, e até mesmo as notíciasveiculadas nos portais de grandes conglomerados jornalísticos e agregadores de notícias estãocada vez mais baseados em critérios automatizados de seleção: os chamados algoritmos declassificação estão personalizando o que chega até cada um de nós, e o mais grave é que nãoconhecemos e nem sequer somos alertados sobre os critérios adotados. É como seestivéssemos vivendo numa bolha de informações que proíbe a entrada de visões eperspectivas que divergem das nossas.A personalização é viável devido sobretudo às tecnologias de rastreamento da navegação narede. O fato é que, para melhorar a relevância dos anúncios e garantir uma melhor experiênciaonline ao usuário, anunciantes e empresas de serviços na internet, aí incluídos busca, redessociais, e-mail e comércio eletrônico, todos fazem uso de tecnologias de rastreamento dasatividades do usuário por meio da gravação de pequenos arquivos conhecidos como “cookies”no sistema de arquivos do usuário. A partir dos dados gravados nos cookies é possívelconstruir um perfil “comportamental” e demográfico do usuário, e daí personalizar suaexperiência online.O fenômeno da personalização da esfera pública já havia sido analisado por Cass Sunstein,influente jurista americano e hoje administrador do “Office of Information and RegulatoryAffairs” do governo Obama, em seu livro “Republic.com” (Princeton Univ Press, 2002).Argumentando que a democracia depende de experiências compartilhadas e requer que oscidadãos sejam expostos a tópicos e idéias que não teriam escolhido antecipadamente, Susteinjá revelava preocupação com os possíveis efeitos negativos trazidos pela internet com afacilidade de personalização do noticiário e a criação do que ele chamou de “Daily Me”(“Diário Eu”): “no ciberespaço, já temos a capacidade de filtrar tudo exceto o que desejamosver, ouvir e ler”. Numa espécie de segunda edição reformulada sob a ótica da chamada“internet interativa”, Sustein em “Republic.com 2.0” (Princeton Univ Press, 2009) defende que,ao gravitar apenas em torno de blogs, podcasts e outras mídias sociais que reforçam suaspróprias visões, o cidadão vai se privando de entrar em contato com perspectivas diferentes, eo sentido de “empoderamento” pessoal posteriormente associado a “liberdade” acabaalimentando o efeito “câmara de eco”, que substitui um sentido de unidade democrática compolarização acelerada. E essa tendência de se isolar em “casulos de informações” poderepresentar um dos efeitos mais perniciosos da internet sobre a esfera pública, argumentaSunstein.
  2. 2. Se há alguma legitimidade na preocupação de Sustein com o excesso de personalização que ospróprios cidadãos estariam promovendo através do uso da tecnologia, imagine o cenário emque a personalização é feita por máquinas, algoritmos. Eli Pariser, ativista e coordenador daorganização não-governamental americana de cunho político MoveOn.org, em palestra noportal TED.com intitulada “Beware online ‘filter bubbles’” (Março 2011) chama a atenção parao fato de que, à medida que as empresas da web buscam incessantemente adaptar seusserviços (aí incluídos noticiários e engenhos de busca) às preferências pessoais de cada um dosseus clientes, surge um perigoso efeito colateral: o cidadão se vê preso numa “bolha de filtros”e não é exposto a informações que poderiam questionar ou ampliar sua própria visão demundo. E o resultado é que “os filtros de personalização servem a um tipo de autopropagandainvisível, nos doutrinando com nossas próprias idéias, amplificando nossos desejos por coisasque nos são familiares e nos deixando cegos aos perigos à espreita no território negro dodesconhecido.”Como resultado de suas reflexões sobre as implicações sociais dessa bolha de filtros, Pariser,em seu livro “The Filter Bubble: What the Internet Is Hiding from You” (The Penguin Press HC,Maio 2011), chama a atenção para o fato de que, diferentemente do que se presume, osresultados de uma busca no engenho da Google não são os mesmos para todos os usuários,nem idênticos para o mesmo usuário em momentos distintos. Desde Dezembro de 2009 que oalgoritmo da Google de ordenação dos resultados usa diversas variáveis (vide o post“Personalized Search for everyone” publicado no “The Official Google Blog” em 04/12/2009),mais de 50 segundo fontes seguras, que envolvem desde o tipo de computador que está sendousado, a história de navegação associada àquele usuário, até o tipo de navegador através doqual a busca foi solicitada, incluindo o local associado ao endereço de IP da máquina dousuário. Assim, uma busca sobre “células tronco”, por exemplo, poderia produzir resultadoscompletamente diferentes dependendo da posição de quem fez a busca, se entusiasta ouativista contrário. Igualmente, uma busca por “prova das mudanças climáticas” pode levar aresultados bem distintos para um ambientalista, por um lado, e para um executivo de umaempresa de produção de energia considerada poluente, por outro lado.Isso não ocorre apenas nos engenhos de busca. Nas redes sociais a personalização éingrediente fundamental na fidelização do cliente. Alguém que tem centenas de amigos noFacebook, por exemplo, vai ver as notícias de mural provenientes apenas dos mais chegados,pois o algoritmo por trás do serviço da Facebook se baseia nas interações, nos cliques e nasdeclarações de “curtir” realizadas pelo usuário para ser capaz de fazer uma previsão do que, ede quem, mais lhe interessa. Algo semelhante faz o Yahoo! News para descobrir qual notíciamais interessa ao usuário com aquele perfil, a Netflix para conseguir recomendar o filme quemais se encaixa nos gostos do cliente com aquele histórico, a Amazon para adivinhar o livro ouproduto que interessaria a alguém com perfil semelhante, a Zappos para encontrar que tipo desapato está dentro das preferências, etc. Dizendo-se preocupado em “garantir que essesalgoritmos carreguem um sentido de vida pública, um sentido de responsabilidade cívica,”Pariser clama por um ativismo cibernético que busque forçar essas empresas a cumprir o quemuitas delas declaram como slogan de missão e de boas intenções (“Do no evil”, isto é, “Nãoseja do mal”, é o motto da Google). Lembrando a máxima de Melvin Kranzberg (1917–1995),um dos fundadores da Society for the History of Technology, de que “tecnologia não é do bemnem é do mal, nem é neutra”, parece imperioso fazer o possível, seja por regulação
  3. 3. governamental ou por pressão ativista não-governamental, que os melhores valores de umasociedade aberta e democrática sejam refletidos no desenho da tecnologia.Dizendo-se esperançoso de que a internet ainda venha a cumprir a promessa da interconexãoglobal da humanidade, Pariser reconhece que, embora se revelando perfeita no apoio àformação de grupos de pessoas com interesses comuns, será preciso muito ativismo paragarantir que a internet seja de fato berço do verdadeiro espírito democrático de tolerância econvivência plural. Como diz Evgeny Morozov em sua resenha do livro de Pariser (“Your OwnFacts”, New York Times, 10/06/2011), além do alerta para os perigos do excesso depersonalização, “The Filter Bubble” merece aplausos pela advertência para o crescente poderdos intermediários da informação cujas regras, protocolos e motivações nem sempre sãovisíveis.

×