O poder político e ideológico do filtro bolha

O poder político e ideológico do filtro bolha

O estudo da linha do tempo do Facebook

O texto a seguir é parte do meu pré projeto para mestrado, que torno público como contribuição ao debate atual em torno da conjuntura que o Brasil vive neste início de março de 2016.

Introdução

Em Maio de 2015 pesquisadores do Facebook publicaram um estudo intitulado “Exposure to ideologically diverse news and opinion on Facebook” (BAKSHY et al., 2015). O estudo focava em duas criticas mais comuns em torno do algoritmo do Facebook: Com cada vez mais indivíduos buscando informações cívicas nas redes sociais, o algoritmo poderia criar “câmeras de eco”, onde as pessoas são mais expostas a informações compartilhadas por seus pares ideológicos. A outra questão focava como o algoritmo classificava e buscava as informações exibidas na linha do tempo da rede social. Segundo Pariser (2012) o algoritmo criava um “filtro bolha”, onde somente conteúdo ideologicamente atraente era trazido à tona, isolando o usuário da diversidade.

O resultado apresentado mostra que os usuários estão expostos a uma quantidade substancial de conteúdo a partir de amigos com pontos de vista opostos, e que o mix de conteúdo encontrado na rede social é produto de uma escolha pessoal, e que apenas entre em 5 a 10% do que não se alinha à visão política do usuário é omitido.

Por conta desta conclusão, o estudo ganhou pelos críticos, ativistas e acadêmicos, o apelido de “Facebook’s it’s not our fault study”. Destes, Zeynep Tufecki (2015), socióloga ligada ao Berkman Center, de Harvard aponta algumas inconsistências. Em primeiro lugar foram tomados dados de um pequeno grupo de usuários, aqueles que se auto-identificam politicamente. Presume-se que esses que se auto-identificam são mais propensos a criarem uma bolha informativa em torno de si, uma vez que já estão politicamente definidos. A outra questão é que há uma brutal variação entre a probabilidade de uma informação ser visualizada quando disposta no topo da página ou mais embaixo. Ou seja, o Facebook não precisa omitir determinado link ou informação, basta dispô-lo no fim da linha do tempo, reduzindo substancialmente a possibilidade de ser visto. Por exemplo, um link tem 20% de possibilidade de ser clicado estando no topo da página. Esse número cai para menos de 10% se estiver na décima posição e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse usuário. A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das publicações são dois elementos que se complementam e não podem ser analisados em separado.

Para Pariser (2015), o estudo erra em pressupor que a escolha do usuário faz mais sentido do que responsabilizar o algoritmo do Facebook. Para ele existem duas preocupações em relação ao filtro bolha: que os algoritmos ajudem os usuários a se cercarem de informações que dão suporte às suas crenças, e que os algoritmos classifiquem como menos importante o tipo de informação que é mais necessária em uma democracia – notícias e informações sobre a a maioria dos temas sociais importantes (“hard-news”). Enquanto o estudo foca no primeiro problema, ele deixa rastros para o segundo, uma vez que apenas 7% dos usuários clica no que o estudo chama de “hard-news”, noticias de carater cívico, enquanto a maioria clica em “soft-news”, que são amenidades.

Existem algumas ressalvas apontados por Pariser no estudo, O mecanismo de marcação ideológica não significa o que parece que ele significa. Como os autores do estudo mencionam, e para muitos passa despercebido, é que isto não é uma medida de polarização partidária com a publicação. É uma medida de quais artigos tendem a ser mais compartilhados por um grupo ideológico do que o outro, existem hard-news que não são partidários. É difícil calcular a média de algo que está em constante mudança e diferente para todos. É um período de tempo muito longo para uma rede social que está constantemente se reinventando, muitas coisas aconteceram no período de tempo da pesquisa (07 de Julho de 2014, a 07 de Janeiro de 2015). A amostragem do estudo representa apenas 9% dos usuários do Facebook que declaram seu posicionamento político. É realmente difícil separar “escolha individual” e o funcionamento do algoritmo. O algoritmo responde ao comportamento do usuário em lotes diferentes, há um ciclo de feedback que pode diferir drasticamente para diferentes tipos de pessoas.

Tanto o estudo apresentado pelo Facebook, quanto suas críticas, e aqui citamos apenas duas, são conseqüência de diversos estudos e criticas anteriores, das quais destacamos duas bem controversas que motivaram a proposta deste projeto de pesquisa.

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Objetivos

Este projeto de pesquisa tem por objetivo compreender a forma como o filtro bolha afeta o fluxo e a classificação de informações e consequentemente, como afeta o posicionamento político e ideológico do usuário do Facebook no Brasil.

Com base nos estudos de Zittrain (2014) e Kramer et al (2014) torna-se possível começar a desenhar este recorte. A influência política proposta transcende a mera questão eleitoral apontada por Zittrain, estamos falando do posicionamento do indivíduo frente às questões políticas e ideológicas. O estudo do contágio emocional pelas redes sociais, não deixa dúvida da existência de mecanismos passíveis de influenciar as emoções dos usuários através da manipulação do fluxo de informação, da mesma forma que é perfeitamente plausível trabalhar com as questões que envolvam seus princípios e valores.

Para atingir este objetivo é necessário identificar e compreender os principais algoritmos, ou parte destes, utilizados pelo Facebook na classificação das informações apresentadas ao usuário. Uma vez identificados estes processos, torna-se imperativo complementar com o suporte teórico para identificar de que forma os processos possam interferir no posicionamento ideológico e político deste usuário.

Justificativa

Os algoritmos dos filtro bolha, são desenvolvidos para proporcionar uma melhor experiência para o usuário, oferecendo a ele opções de conteúdo cada vez mais adequados à suas expectativas. Para atingir este objetivo eles “aprendem” através de diversos indicadores como “likes”, comentários, compartilhamentos e o tempo gasto em cada publicação no Facebook, e comparam seu perfil com outros usuários que de uma forma ou de outra, o algoritmo identifica como semelhante a você. Obviamente existem outros métodos e indicadores que aprimoram o resultado apresentado ao usuário. É importante considerar que estes algoritmos estão constantemente reavaliando suas preferências, de tal forma que se tornam recursivos, a ponto de criarem o que Pariser (2012) chama de “Síndrome do Mundo Bom”. A Síndrome do Mundo Bom é uma “purificação” dos interesses do usuário dada a forma como ele se relaciona na linha do tempo, e que o afasta de publicações que não são compatíveis com seus interesses.

Ao conectar estas questões informacionais com o conhecimento de autores de outros campos de estudo como sociologia, psicologia e filosofia, encontramos e identificamos os mecanismos pelos quais o poder político e ideológico do filtro bolha é exercido. Como exemplo, John Rendon (RAMPTON; STAUBER, 2003) se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

Partindo do principio que a grande maioria dos usuários da Internet desconhece a existência do filtro bolha, é de extrema importância produzir um estudo que possa orientar tanto os especialistas como o cidadão comum, tanto a cerca da existência de tal filtro, como seu impacto em diferentes partes de sua subjetividade.

Deixe uma resposta