Como as bolhas decidem eleições

A vitória de Trump deixou o mundo perplexo, não demorou muito para surgirem textos responsabilizando o Facebook e sua bolha pelo resultado inusitado, alias um tema que circulava mais pela esfera acadêmica e mais especializada ganhou uma popularidade fora do comum nos últimos dias, nunca vi tantos textos sobre o assunto publicados em tão curto espaço de tempo, e nos espaços reconhecidos do jornalismo global.

Sejamos justos, esta bola começou a ser levantada aqui nas nossas recentes eleições, eu mesmo no projeto Eleições 2016 ofereci dois workshops que visavam não só esta mais outras estratégias. A popularidade do tema veio a tona no Brasil com um artigo escrito pelo Professor Vinicius Wu e publicado no O Globo, onde ele falou que a maioria dos candidatos estavam na prática fazendo campanhas para suas próprias bolhas nas redes sociais.

Mas afinal o que são as bolhas e como elas podem decidir eleições?

Antes de mais nada é preciso entender uma coisa, a bolha não algo que você “entra” e muito menos coletiva, a bolha é pessoal e você mesmo a constrói em torno de si com a ajuda dos algoritmos.

O que são bolhas e algoritmos ?

É possível que você não compreenda o que é uma bolha ou filtro bolha e até mesmo o que é um algoritmo, e muito menos usar os dois para construir algo em torno de si, não se preocupe, vamos explicar.

Vamos partir do principio, Eli Pariser, um ciberativista que pesquisou o tema, e escreveu um excelente livro “O Filtro Invisível: O que a Internet está escondendo de você“, onde ele descreve didaticamente como surgiram os filtros invisíveis e dá à eles o nome de filtro bolha, também conhecido por bolha. Segundo Pariser, um dos visionários da tecnologia Nicholas Negroponte, pesquisador do MIT, já em 1994 pensava no que ele chamou de “agentes inteligentes”, que seriam algoritmos que funcionam como curador de conteúdo. As primeiras experiências com “agentes inteligentes” foram um desastre, mas Jeff Bezos desenvolveu o conceito do “agente inteligente” da Amazon com base no livreiro que te conhece e recomenda os livros que acredita lhe interessar. Para atingir este objetivo o algoritmo passou a registrar tudo que ocorria no site, quem via ou comprava um livro, e quais interessavam também, e rapidamente criou uma lógica de relacionamento capaz de apresentar com razoável margem de acerto sugestões de leitura com base em sua pesquisa, de onde acessa, e seu histórico de compra e busca, estava criada a primeira bolha eficiente.

Duas pessoas com dispositivos idênticos acessando o Google pela mesma rede, com as mesmas palavras chave nunca obterão os mesmos resultados.

Google também adotou um algoritmo com critérios que definem a relevância e aderência da busca com o que ele acredita que você esteja procurando, baseia-se em inúmeras variáveis, que envolvem desde seu histórico de busca até o local e dispositivo de onde esta sendo feita a pesquisa. Duas pessoas com dispositivos idênticos acessando pela mesma rede, com as mesmas palavras chave nunca obterão os mesmos resultados.  O mesmo acontece no Netflix, Facebook e diversas outras redes e serviços que você acessa, que estão sempre registrando e comparando um número cada vez maior de informações sobre você, seus relacionamentos e interesses para tentar acertar de forma eficiente o seu desejo. É o que ocorre com a linha do tempo do Facebook, que na prática não é ordenada cronologicamente, mas de acordo com o que algoritmo do Facebook julga relevante para você, é que você não percebe isto até prestar atenção nos detalhes.

Os problemas com as bolhas

A preguiça é da natureza humana, ter um algoritmo (curador) lhe oferecendo conteúdo e informação sob medida é quase um sonho, mas pode rapidamente se tornar um pesadelo.

Bolhas são invisíveis

O primeiro problema com as bolhas é que elas são invisíveis,  se você não sabe que elas existem, dificilmente irá percebe-las, e muitas vezes até mesmo consciente parece não perceber. As bolhas são algoritmos construidos para lhe oferecer conteúdo e informação que julgam mais adequadas para seus interesses.

Bolhas são algoritmos

Bolhas são algoritmos, modelos matemáticos, baseados em lógica, e por esta razão não são capazes de perceber elementos subjetivos como as suas emoções, linguagem corporal e contextos no qual são acionados… ainda…

Cathy O’Neil, cientista de dados apresenta em seu livro Weapons of Math Destruction, uma série de casos e levanta questões éticas e lógicas de diversos modelos matemáticos sobre big data, e como eles podem aumentar a desigualdade e ameaçar a democracia. Segundo O’Neil, modelos matemáticos são o motor de nossa economia digital e não são neutros e muito menos perfeitos, como ela apresenta nestas duas conclusões:

  1.  “Aplicações baseadas em matemática e que empoderam a Economia de Dados são baseadas em escolhas feitas por seres humanos falíveis”.
  2.  “Esses modelos matemáticos são opacos, e seu trabalho é invisível para todos, exceto os cardeais em suas áreas: matemáticos e cientistas computacionais. Seus vereditos são imunes a disputas ou apelos, mesmo quando errados ou nocivos. E tendem a punir pobres e oprimidos, enquanto tornam os ricos mais ricos em nossa sociedade”.

Você constrói a sua bolha

As bolhas não existem sem você, as bolhas que apresentam o conteúdo que acessa no Facebook, Google, Amazon, Netflix e outras são exclusivamente suas, e você às construiu. Muitos algoritmos comparam seus hábitos com outras pessoas que julgam semelhantes, mas eles precisam aprender sobre você. No Facebook por exemplo, o algoritmo chamado EdgeRank registra tudo que você faz, que postagens curte, comenta, compartilha, em quais clica, em quais passa mais ou menos tempo, e assim ele vai “aprendendo” a lhe agradar.

O problema, como visto, é que bolhas são algoritmos, modelos matemáticos, que são recursivos, ou seja, estão sempre aprimorando e aprendendo com você, quando você não presta atenção à um post ou quando rejeita postagens e bloqueia pessoas ou simplesmente as ignora, o EdgeRank entende que você não quer mais este conteúdo e os suprime da sua linha do tempo, criando uma distorção da realidade que Eli Pariser chama de “Síndrome do Mundo Bom”.  A “Síndrome do Mundo Bom” é quando sua linha do tempo está tão “purificada” que só lhe apresenta conteúdos que alinham com você ideologicamente e lhe agradam, o mundo bom, esta justamente nesta percepção distorcida da realidade, onde “todos” pensam igual a você.

As bolhas são seu senso comum

A forma como o ser humano percebe o mundo, é complexa, o cérebro usa de atalhos para tomar decisões, que em sua maioria são intuitivas. Leonard Mlodinow no livro Subliminar demonstra o quanto nossas decisões são baseadas em questões subjetivas, tanto que segundo o autor alguns cientistas estimam que só temos consciência de cerca de 5% de nossa função cognitiva. Os outros 95% vão para além da nossa consciência e exercem enorme influência em nossa vida. Podemos não perceber, mas estamos formando o entendimento de senso comum em todos os ciclos sociais, inclusive nas nossas bolhas. O senso comum formado dentro de uma bolha purificada, que atingiu a “síndrome do mundo bom” é totalmente distorcido da realidade, e pode levar ao radicalismo.

Nos somos parte das bolhas dos outros

Assim como construímos nossas bolhas com conteúdos produzidos por outras pessoas, elas constroem suas bolhas com conteúdos que podem ser também os seus, as bolhas não são reciprocas, nem sempre o autor do conteúdo que te interessa, tem interesse por seu conteúdo. Como somos responsáveis pelo conteúdo que interessa à alguém, somos em algum nível influenciadores destas pessoas.

As bolhas são a nossa Matrix

Estamos sempre acreditando que nas redes sociais, em especial no Facebook, estamos publicando para o mundo, mas na prática, estamos publicando para um público bem restrito, de 3% a 6% do seus “amigos” e seguidores. Suas publicações só conseguem um alcance maior quando alguém as compartilha. Ou seja, estamos quase sempre recebendo informações das mesmas pessoas que nos interessam, e compartilhando para as mesmas que tem interesse em você. Nos sentimos falando para um público de milhões de pessoas, mas na prática seus ouvintes caberiam na maioria das vezes na sua sala de estar.

suabolhaSe fôssemos fazer uma ilustração de como seria sua bolha, teriamos algo como um diagrama de Venn, mas seria um diagrama tridimensional, mostrando como sua bolha é construida com a conexão de outras bolhas. O tamanho do espaço de interseção seria proporcional ao nível de interesse por temas de determinada bolha. Mesmo assim é necessário destacar que as relações das bolhas do conteúdo que você consome e a do conteúdo que você produz podem ser totalmente diferentes.

Como as bolhas podem influenciar uma eleição?

Agora que você já sabe o que são algoritmos, bolhas e seus problemas fica mais fácil compreender como elas podem influenciar não só uma eleição, mas em decisões importantes como aconteceu no golpe de estado sofrido no Brasil este ano. Vamos focar inicialmente no Facebook, uma rede social de tamanho nunca antes imaginado, um “veiculo de mídia” com dois BILHÕES de usuários, que representam 2/3 de todos os usuários com acesso à Internet no mundo. Com esta dimensão é impossível dissocia-lo de fazer parte da equação que avalia mudanças globais de comportamento social, como a emergência da extrema direita e a onda de ódio e polarização.

No início deste ano tornei público parte do meu projeto de pesquisa, com o qual estou desenvolvendo minha dissertação de mestrado – O poder político e ideológico do Filtro Bolha – nele constam alguns casos relevantes de como o Facebook pode influenciar os seus usuários, tanto o resultado de uma eleição quanto o próprio comportamento:

Influenciando uma eleição

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

Influenciando o comportamento dos usuários

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Subjugando a subjetividade

Aqui é que entra o grande ponto, é possível influenciar massivamente usando o Facebook, desde que se conheça a rede e seu funcionamento, por exemplo, John Rendon (RAMPTON; STAUBER, 2003) que se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

A própria purificação da linha do tempo seria suficiente para mudar a percepção dos usuários e faze-los acreditar na sua versão dos fatos, mas apesar de muita gente construir seu senso comum pelo Facebook, há uma necessidade de reforçar a narrativa que se quer estabelecer, do contrário bastaria o usuário se afastar da rede social por alguns dias para reconstruir sua percepção de senso comum e entrar numa dissonância cognitiva em torno disto.

Como em todo bom filme de ficção, onde o protagonista é levado a crer numa realidade induzida, muitos os elementos em sua volta devem corresponder à narrativa que se quer induzir. O grande segredo está na aplicação das técnicas de comunicação radical, que usamos no ciberativismo contra o projeto de lei AI5digital, em 2008, quando ainda tínhamos o domínio absoluto das técnicas de comunicação na rede.

Na ocasião usamos as blogagens coletivas, onde dezenas de blogs postavam em uma data específica textos contra o projeto de lei, foram centenas de blogs, que mudaram radicalmente o resultado do Google quando se pesquisava sobre o tema, apresentando vários links contra o projeto no topo dos resultados.  O usuário do Facebook por exemplo costuma checar no Google sobre os temas que lhe interessam, e partindo do principio de que se ele já esta na síndrome do mundo bom, esta predisposto a compartilhar qualquer informação que corrobore com seu ponto de vista, independente da confiabilidade da fonte. Observe quantos blogs fakes surgiram nos últimos dois anos por aqui com textos contra o governo destituído.  O mesmo se deu nas eleições americanas, uma infinidade de textos falsos foram compartilhados, muitos por usuários fakes, mas parte significativa por usuários predispostos à faze-lo.

Uma outra técnica foi a de fragmentar a informação de modo a direciona-la para diferentes grupos de interlocutores, por exemplo no projeto de lei citado, um artigo propunha pena de dois anos de detenção se violado um software, na ocasião passamos a informação aos grupos de gamers, que o uso de bots daria dois anos de cadeia e a lei fosse aprovada. Com isto engaja-se mais gente, hoje com o WhatsApp a fragmentação é muito mais fácil, utiliza-se por exemplo o que O’Neil chama de marketing predatório, dialogando com o ponto de dor dos interlocutores oferecendo o alivio da dor. É assim que estão convencendo os mais inocentes à aceitar a reforma trabalhista, um dos argumentos é que o FGTS rendeu menos que uma determinada aplicação, e que seria melhor que o empregado recebesse e aplicasse o dinheiro, e impressiona como isto esta sendo disseminado. Nas eleições de 2014 e nas municipais deste ano, o volume de informação falsa contra adversários foi uma enormidade, o mesmo acredito ter sido feito nas eleições americanas.

Estes são duas das várias técnicas de comunicação radical, que podem reforçar a narrativa que se quer passar, e que passam a ganhar consistência quando devolvidas para o Facebook e compartilhadas por usuários comuns, produzindo uma grande bolha que é na verdade uma soma de milhares de bolhas individuais que estão alinhadas, e assim consegue-se subjugar a subjetividade de uma grande massa da sociedade, quanto mais se a mídia de massa também estiver alinhada na narrativa.

Por fim, este texto tem por objetivo apresentar mais uma reflexão sobre o debate, somando-se a outros tantos que foram publicados.

 

A natureza da Internet

Na construção de políticas públicas de Internet, seja nos fóruns de governança, parlamentos ou em outro espaço de construção, muito tempo e energia são investidos em torno da definição da natureza da Internet, sem que seus interlocutores em geral tomem ciência disto. Cada stakeholder defende que a natureza da rede seja a que melhor serve à seus interesses. Para uns a Internet é uma rede de negócios, para outros uma rede de telecomunicações, ou mídia para muitos, campo de batalha para outros, uma gigantesca rede de construção coletiva e cognitiva de conhecimento, uma rede de pessoas, uma rede de inclusão, uma rede de conhecimento, uma ferramenta ou até mesmo uma rede militar.

Na prática ao definir a sua visão da natureza da Internet, o interlocutor vislumbra uma “arena” na qual seus valores e pontos de vista tornam-se mais plausíveis, deixando-o mais confortável na construção de seus argumentos.  Faz parte da estratégia política e diplomática a transmutação em torno da natureza do objeto, voluntária ou involuntariamente, tanto para reforçar argumentos quanto para construir a percepção de dissenso, ou pela simples complexidade do objeto em pauta. Você pode imaginar que a simples transmutação em torno do objeto, no caso a natureza da Internet, pode inviabilizar infindáveis horas investidas em construções de políticas de Internet. Quanto este objeto é a Internet, que é relativamente novo e ainda esta sendo apropriado, temos um objeto liquido em torno do qual circulam diversas definições de sua natureza, onde todas são válidas, mas mesmo juntas não conseguem chegar a definir sua natureza.

Blind_monks_examining_an_elephant

A natureza da Internet ainda é um “anekantavada“, expressão que refere-se aos princípios do pluralismo e da multiplicidade de pontos de vista, em que a verdade e a realidade são entendidos de forma diferente consoante a perspectiva, e que nenhum ponto de vista consegue abranger toda a verdade. O anekantavada pode ser explicado facilmente pela parábola dos cegos e o elefante, onde cada cego interpretava o animal conforme sua percepção da parte que tocava. Todos tinham suas interpretações em torno da natureza do animal, e que mesmo juntas não definiriam toda a verdade à cerca da natureza do elefante.

A natureza da Internet ainda é um “anekantavada”, expressão que refere-se aos princípios do pluralismo e da multiplicidade de pontos de vista, em que a verdade e a realidade são entendidos de forma diferente consoante a perspectiva, e que nenhum ponto de vista consegue abranger toda a verdade.

Na busca desta definição vale analisar como pensadores tratam a natureza humana. O antropologista Clifford Geertz diz que seres humanos são animais inacabados, ou seja, que é da natureza humana ter uma natureza humana a qual é praticamente o produto da sociedade em que vivemos. A nossa natureza humana é muito mais criada do que é descoberta. Nos moldamos a natureza humana moldando as instituições nas quais as pessoas vivem e trabalham.

Barry Schwartz no livro Why we work diz que a natureza humana sera alterada pelas teorias que temos, que são elaboradas para explicar e nos ajudar a entender os seres humanos.

Pela ótica de Geertz e Schwartz a natureza humana é produto da sociedade em que vivemos, ou seja, a natureza humana é dependente do seu entorno, ela muito mais criada em resposta ao contexto onde esta inserida do que descoberta. Por esta linha, é interessante identificar inicialmente o contexto onde a Internet está inserida, e isto nos remete às arenas que citei anteriormente.  As arenas não são o contexto, a própria Internet é o contexto, estamos justamente buscando a natureza do contexto, as arenas são neste caso as diferentes aproximações à este contexto. Avaliar a natureza da Internet usando as mesmas ferramentas com que se avalia a natureza humana é um claro equivoco. Ainda no campo das aproximações podemos chegar ao conceito de ecossistema:

Ecossistema (grego oikos (οἶκος), casa + systema (σύστημα), sistema: sistema onde se vive) designa o conjunto formado por todas as comunidades bióticas que vivem e interagem em determinada região e pelos fatores abióticos que atuam sobre essas comunidades.

Leslie Daigle, uma das poucas pesquisadoras à estudar o tema, parece basear seu estudo “On the nature of the Internet” na busca do entendimento da natureza da Internet baseado no conceito de ecossistema, analisando três pontos:

  • Delinear a natureza técnica da Internet;
  • Articular as propriedades imutáveis ​​do Internet (os “invariantes”);
  • Buscar o equilibrio entre estes dois elementos para examinar os desafios atuais enfrentados pela Internet..

O estudo da Leslie vale a pena ser cuidadosamente lido, estudado e comentando, e a conclusão dialoga muito bem com a provocação inicial deste artigo, como segue:

A Internet não é um acidente, e enquanto ele se desenvolveu através da evolução em resposta a mudanças de requisitos, o seu desenvolvimento não foi aleatória ou impensado. Existem propriedades essenciais da Internet que deve ser apoiadas para que ela continue sua sequência de sucesso continuado. Já não é possível compreender a natureza da Internet sem considerar o mundo em que ela existe – como tal, as considerações de tecnologia podem estar no centro de determinar o que funciona (ou não) para a Internet, mas um quadro não-técnico para discutir eventuais compensações é imperativo. Os invariantes podem servir como uma estrutura útil para discutir os impactos sem ter que se aprofundar nos detalhes intrincados da tecnologia que impulsiona a Internet. Com o quadro em mente, discussões de políticas podem se concentrar no que pode ser feito para resolver um problema e avaliar os impactos potenciais sobre a Internet.

A provocação inicial deste texto visava leva-lo à uma reflexão e desejo continuar esta busca ou atualização que no meu enteder vai além do que foi visto até então.

O poder político e ideológico do filtro bolha

Foto de Colin Adamson

O poder político e ideológico do filtro bolha

O estudo da linha do tempo do Facebook

O texto a seguir é parte do meu pré projeto para mestrado, que torno público como contribuição ao debate atual em torno da conjuntura que o Brasil vive neste início de março de 2016.

Introdução

Em Maio de 2015 pesquisadores do Facebook publicaram um estudo intitulado “Exposure to ideologically diverse news and opinion on Facebook” (BAKSHY et al., 2015). O estudo focava em duas criticas mais comuns em torno do algoritmo do Facebook: Com cada vez mais indivíduos buscando informações cívicas nas redes sociais, o algoritmo poderia criar “câmeras de eco”, onde as pessoas são mais expostas a informações compartilhadas por seus pares ideológicos. A outra questão focava como o algoritmo classificava e buscava as informações exibidas na linha do tempo da rede social. Segundo Pariser (2012) o algoritmo criava um “filtro bolha”, onde somente conteúdo ideologicamente atraente era trazido à tona, isolando o usuário da diversidade.

O resultado apresentado mostra que os usuários estão expostos a uma quantidade substancial de conteúdo a partir de amigos com pontos de vista opostos, e que o mix de conteúdo encontrado na rede social é produto de uma escolha pessoal, e que apenas entre em 5 a 10% do que não se alinha à visão política do usuário é omitido.

Por conta desta conclusão, o estudo ganhou pelos críticos, ativistas e acadêmicos, o apelido de “Facebook’s it’s not our fault study”. Destes, Zeynep Tufecki (2015), socióloga ligada ao Berkman Center, de Harvard aponta algumas inconsistências. Em primeiro lugar foram tomados dados de um pequeno grupo de usuários, aqueles que se auto-identificam politicamente. Presume-se que esses que se auto-identificam são mais propensos a criarem uma bolha informativa em torno de si, uma vez que já estão politicamente definidos. A outra questão é que há uma brutal variação entre a probabilidade de uma informação ser visualizada quando disposta no topo da página ou mais embaixo. Ou seja, o Facebook não precisa omitir determinado link ou informação, basta dispô-lo no fim da linha do tempo, reduzindo substancialmente a possibilidade de ser visto. Por exemplo, um link tem 20% de possibilidade de ser clicado estando no topo da página. Esse número cai para menos de 10% se estiver na décima posição e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse usuário. A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das publicações são dois elementos que se complementam e não podem ser analisados em separado.

Para Pariser (2015), o estudo erra em pressupor que a escolha do usuário faz mais sentido do que responsabilizar o algoritmo do Facebook. Para ele existem duas preocupações em relação ao filtro bolha: que os algoritmos ajudem os usuários a se cercarem de informações que dão suporte às suas crenças, e que os algoritmos classifiquem como menos importante o tipo de informação que é mais necessária em uma democracia – notícias e informações sobre a a maioria dos temas sociais importantes (“hard-news”). Enquanto o estudo foca no primeiro problema, ele deixa rastros para o segundo, uma vez que apenas 7% dos usuários clica no que o estudo chama de “hard-news”, noticias de carater cívico, enquanto a maioria clica em “soft-news”, que são amenidades.

Existem algumas ressalvas apontados por Pariser no estudo, O mecanismo de marcação ideológica não significa o que parece que ele significa. Como os autores do estudo mencionam, e para muitos passa despercebido, é que isto não é uma medida de polarização partidária com a publicação. É uma medida de quais artigos tendem a ser mais compartilhados por um grupo ideológico do que o outro, existem hard-news que não são partidários. É difícil calcular a média de algo que está em constante mudança e diferente para todos. É um período de tempo muito longo para uma rede social que está constantemente se reinventando, muitas coisas aconteceram no período de tempo da pesquisa (07 de Julho de 2014, a 07 de Janeiro de 2015). A amostragem do estudo representa apenas 9% dos usuários do Facebook que declaram seu posicionamento político. É realmente difícil separar “escolha individual” e o funcionamento do algoritmo. O algoritmo responde ao comportamento do usuário em lotes diferentes, há um ciclo de feedback que pode diferir drasticamente para diferentes tipos de pessoas.

Tanto o estudo apresentado pelo Facebook, quanto suas críticas, e aqui citamos apenas duas, são conseqüência de diversos estudos e criticas anteriores, das quais destacamos duas bem controversas que motivaram a proposta deste projeto de pesquisa.

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Objetivos

Este projeto de pesquisa tem por objetivo compreender a forma como o filtro bolha afeta o fluxo e a classificação de informações e consequentemente, como afeta o posicionamento político e ideológico do usuário do Facebook no Brasil.

Com base nos estudos de Zittrain (2014) e Kramer et al (2014) torna-se possível começar a desenhar este recorte. A influência política proposta transcende a mera questão eleitoral apontada por Zittrain, estamos falando do posicionamento do indivíduo frente às questões políticas e ideológicas. O estudo do contágio emocional pelas redes sociais, não deixa dúvida da existência de mecanismos passíveis de influenciar as emoções dos usuários através da manipulação do fluxo de informação, da mesma forma que é perfeitamente plausível trabalhar com as questões que envolvam seus princípios e valores.

Para atingir este objetivo é necessário identificar e compreender os principais algoritmos, ou parte destes, utilizados pelo Facebook na classificação das informações apresentadas ao usuário. Uma vez identificados estes processos, torna-se imperativo complementar com o suporte teórico para identificar de que forma os processos possam interferir no posicionamento ideológico e político deste usuário.

Justificativa

Os algoritmos dos filtro bolha, são desenvolvidos para proporcionar uma melhor experiência para o usuário, oferecendo a ele opções de conteúdo cada vez mais adequados à suas expectativas. Para atingir este objetivo eles “aprendem” através de diversos indicadores como “likes”, comentários, compartilhamentos e o tempo gasto em cada publicação no Facebook, e comparam seu perfil com outros usuários que de uma forma ou de outra, o algoritmo identifica como semelhante a você. Obviamente existem outros métodos e indicadores que aprimoram o resultado apresentado ao usuário. É importante considerar que estes algoritmos estão constantemente reavaliando suas preferências, de tal forma que se tornam recursivos, a ponto de criarem o que Pariser (2012) chama de “Síndrome do Mundo Bom”. A Síndrome do Mundo Bom é uma “purificação” dos interesses do usuário dada a forma como ele se relaciona na linha do tempo, e que o afasta de publicações que não são compatíveis com seus interesses.

Ao conectar estas questões informacionais com o conhecimento de autores de outros campos de estudo como sociologia, psicologia e filosofia, encontramos e identificamos os mecanismos pelos quais o poder político e ideológico do filtro bolha é exercido. Como exemplo, John Rendon (RAMPTON; STAUBER, 2003) se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

Partindo do principio que a grande maioria dos usuários da Internet desconhece a existência do filtro bolha, é de extrema importância produzir um estudo que possa orientar tanto os especialistas como o cidadão comum, tanto a cerca da existência de tal filtro, como seu impacto em diferentes partes de sua subjetividade.