Como seria uma ditadura no Brasil de hoje?

O General Villas Boas gerou um grande desconforto, ao dizer  em uma entrevista, que a “legitimidade do novo governo pode até ser questionada”, despertando a preocupação com uma possível nova ditadura. Na sequência, o General Mourão diz que uma constituição não precisa ser feita por eleitos do povo.  A despeito dos questionamentos políticos, legais e constitucionais relacionados à estas declarações, temos uma preocupação adicional: Como seria a vigilância em uma ditadura no Brasil de hoje?

Uma ditadura no Brasil de hoje provavelmente seria menos violenta, porém, através do uso massivo de inteligência, seria implacável, sutil e invisível, detectando rapidamente qualquer movimento ou padrão que signifique ameaça, muito antes de se tornar uma. Em termos de matriz de força será extremamente desproporcional, com todo poder ao vigilante e quase nenhum ao vigiado, um verdadeiro pesadelo para qualquer cidadão e qualquer democracia.

A intensidade e profundidade desta vigilância será limitada pela permeabilidade obtida pelo governo ditatorial junto às empresas de aplicações de Internet, operadores de rede, comunicação e segurança. Uma simples mudança de protocolo, ou instalação compulsória de dispositivos, burlariam qualquer restrição técnica ou legal deste acesso, por parte do governo.

Em termos práticos, seremos vigiados 24 horas por dia, sete dias por semana, inclusive à noite, enquanto dormimos. A intensidade e profundidade desta vigilância será limitada pela permeabilidade obtida pelo governo ditatorial junto às empresas de aplicações de Internet, operadores de rede, comunicação e segurança. Uma simples mudança de protocolo, ou instalação compulsória de dispositivos, burlariam qualquer restrição técnica ou legal deste acesso, por parte do governo.

No contexto atual, a mobilidade e o crescente desenvolvimento tecnológico, são os motores do sofisticado sistema de vigilância. Algumas das novas armas da ditadura serão a Análise de Redes Sociais (ARS), Homofilia, Psicometria, inteligência artificial, machine learning, muita mineração de dados, e construção de padrões por deep learning.  Em linhas gerais todo e qualquer cidadão brasileiro estaria suscetível a esta nova vigilância, dificilmente alguém estaria fora de seu alcance.

É um padrão de vigilância que você provavelmente nunca imaginou, nem nos seus piores pesadelos. Imagine que o governo saberá que você está lendo este texto agora, a partir de qual dispositivo, qual a sua localização, se existem outras pessoas próximas a você, quem são, e se estão acessando algum serviço on-line, ou mesmo assistindo TV.

Além disto, o governo, por conhecer seu perfil psicométrico, suas particularidades, princípios, valores, e sua rede de relacionamento, saberá valorar o texto que esta lendo, e como você o processará cognitivamente. O governo também saberá quais pessoas de sua rede de relacionamento leram o texto, e qual valor deram a ele, e quais interações se deram em torno dele.

Por falar em rede de relacionamento, estas poderão ser mapeadas, mesmo que nunca tenham sido configuradas explicitamente, mesmo que você nunca tenha adicionado determinadas pessoas em sua rede social, na sua agenda de telefones, e somente as tenha contatado pessoalmente, é possível pelas tecnologias atuais inseri-las em suas redes, simplesmente por estarem próximas a você, seguindo um padrão posicional.

Em linhas gerais, você não fará nada sem que o governo saiba, ele pode não estar focado em você, mas os seus dados estarão sendo coletados, tratados, comparados, transmitidos e armazenados.

O governo saberá o que você vê, lê, ouve, compra, com que frequência, e com quem se relaciona, por onde anda, onde trabalha, mora, estuda, se diverte, se tem carro, ou como se desloca no meio urbano, ou seja, saberá toda sua rotina. O governo também saberá sobre seu relacionamento, estado civil, orientação sexual, se tem um ou mais parceiros, DST, problemas e dificuldades de relacionamento. Também terá acesso a seus dados fisiológicos e de atividades físicas, se você utiliza smartwatch ou faz algum registro online destas atividades. Em linhas gerais, você não fará nada sem que o governo saiba, ele pode não estar focado em você, mas os seus dados estarão sendo coletados, tratados, comparados, transmitidos e armazenados.

Este padrão de vigilância trabalha sobre o big data, e não sobre o indivíduo, e o foco da vigilância se dará sobre os padrões, ou seja, se você adotar algum padrão comportamental suspeito, se algum local que você tenha estado, ou se alguém de algumas de suas redes de relacionamento estiver no foco da vigilância, todos da rede e/ou todos que estiveram no local também serão alvo de vigilância.

O governo lhe conhecerá melhor do que você mesmo, construirá padrões de previsibilidade, saberá quando um determinado padrão significa uma ameaça, de que tipo e intensidade, e agirá para impedir um ilícito que poderia ser cometido, lembrando que ilícito em uma ditadura é um conceito muito ambíguo.

Você também poderá ser preso, por exemplo, por curtir publicações sobre “patinho amarelo” ou sobre o cultivo de bromélias. Isto, simplesmente, porque eventualmente um padrão identificou que pessoas que seguem as publicações do “patinho amarelo” tem 46% de chances de serem “subversivas”, e se também curtem publicações sobre o cultivo de bromélias esta probabilidade aumenta para 86%.

Você poderá ser preso simplesmente por ter estado em determinado local, e próximo à uma das pessoas envolvidas, por algumas vezes. Você também poderá ser preso, por exemplo, por curtir publicações sobre “patinho amarelo” ou sobre o cultivo de bromélias. Isto, simplesmente, porque eventualmente um padrão identificou que pessoas que seguem as publicações do “patinho amarelo” tem 46% de chances de serem “subversivas”, e se também curtem publicações sobre o cultivo de bromélias esta probabilidade aumenta para 86%. Estes padrões não são tão simples assim, mas atendem à uma lógica, que humanamente não parece fazer sentido, são padrões criados por homofilia, que significa comparar pessoas e seus hábitos, estabelecendo uma lógica relacional, e são construidos através de sofisticados processos de machine learning e  deep learning, a partir de uma quantidade gigantesca de comparações.

As possibilidades vão além da vigilância, a tecnologia atual permite um sofisticado controle social, pois como praticamente toda interação com mediação tecnológica se dá através de sofisticados algoritmos, torna-se possível controlar a informação que chegará ao indivíduo, a visibilidade de seus grupos e amigos, ocultando ou exibindo estas informações de acordo com as intenções da ditadura.

As possibilidades vão além da vigilância, a tecnologia atual permite um sofisticado controle social, pois como praticamente toda interação com mediação tecnológica se dá através de sofisticados algoritmos, torna-se possível controlar a informação que chegará ao indivíduo, a visibilidade de seus grupos e amigos, ocultando ou exibindo estas informações de acordo com as intenções da ditadura. Esta prática distorcerá seu entendimento de senso comum, você poderá ter amigos extremamente ativos “subversivamente” e nem se dará conta disto, pois os algoritmos lhe apresentarão conteúdo e pessoas que estão de acordo com os interesses do governo.

Este controle social pode ir além das redes sociais e das ferramentas de busca, estamos cedendo nossa autonomia para os aplicativos, hoje o usamos até para saber a melhor rota para um caminho usual, ou qual o melhor restaurante perto, ou qual o par perfeito para você, além de outras atividades banais do dia-a-dia.

É importante lembrar que o governo também conhecerá em detalhes todas as suas fraquezas e vulnerabilidades, e as explorará em benefício próprio.

É importante lembrar que o governo também conhecerá em detalhes todas as suas fraquezas e vulnerabilidades, e as explorará em benefício próprio. Alias não só as suas, mas também as fraquezas e vulnerabilidades dos grupos que pertence, e as exploraria da mesma forma, inclusive produzindo harmonia e discórdias quando necessário através da interação com os algoritmos.

Este poder existe, mas está contido e distribuído. A pesquisadora Cathy O’Neil chama de cardeais dos algoritmos, aqueles que detém o controle dos complexos algoritmos e gigantescas bases de dados de indivíduos, ou seja, a “biomassa humana” nas palavras de Maria Wróblewska. Como dito, este poder esta contido e distribuído, o Facebook e o Google por exemplo detém o controle sobre suas “biomassas humanas”, mas utilizam recursos como trackers, pixels e parcerias para romper, mesmo que parcialmente estas barreiras. Desta forma por exemplo, você recebe publicidade de um item recém pesquisado na Internet em seu Facebook. Se o governo ganhar o acesso amplo a todas estas redes, tornando-se um “mega cardeal do algoritmo”, se tornará praticamente um deus, com amplos poderes sobre os indivíduos, e como dito anteriormente, este poder pode ser tomado, facilmente em um regime de exceção.

Todo este controle, permitirá à ditadura perpetuar-se por anos, décadas, sem que nada venha ameaça-la, a não ser que as forças “subversivas” consigam desvencilhar-se deste complexo organismo de vigilância.  Apesar de assustador, este cenário é extremamente real e possível, com os recursos tecnológicos atuais.

A vigilância do século XXI

Para que você consiga compreender o cenário, é necessário mudar completamente o seu conceito de vigilância, que é o que tentarei nos próximos parágrafos.

Quando se fala em vigilância, logo vem a mente a imagem de uma câmera, com alguém observando atrás dos monitores. Sistemas de vigilância são naturalmente vistos desta forma, com centrais cheias de telas, e pessoas de olho nestas telas. É um modelo obsoleto, ineficiente, e está fadado a desaparecer em poucos anos, sendo substituído por uma “vigilância cega”.

O modelo de vigilância do Panóptico de Benthan, descrito por Foucault em “Vigiar e Punir“,  é similar ao modelo de vigilância da obra distópica 1984 de George Orwell, representada pela “teletela”, um dispositivo que ao mesmo tempo em que funcionava como uma TV com programação exclusiva do “partido”, servia de olhos e ouvidos para o “Grande Irmão”. O modelo panóptico baseia no par ver ser visto, a partir de um ponto de observação central, tendo o vigilante ampla visão do vigiado, e este nenhuma visão do vigilante, presumindo estar sendo vigiado. O Panóptico descrito por Foucault, por esta premissa, torna-se mais um instrumento de controle, do que propriamente vigilância. Um controle leve, eficiente, sem grades, invisível, e pela pressuposição de estar sendo vigiado.

O panóptico, que representa o modelo de vigilância vigente até o século XX, tornou-se obsoleto no século XXI. Zigmunt Bauman em “Vigilância Líquida” apresenta o conceito do “panóptico pessoal”, em que o indivíduo torna-se vigilante de si e de seus pares, e cada um carrega seu próprio Panóptico, materializado por Bauman como seus smartphones e dispositivos conectados. O que Bauman descreve, dialoga com o que Fernanda Bruno, em “Máquinas de ver, Modo de Ser. Vigilância Tecnologia e Subjetividade“, descreve como “Vigilância Distribuída”, que tira a centralidade da vigilância, principal característica do panóptico. A Vigilância Distribuída se dá a partir de vários dispositivos conectados, e não somente por um, configurando o que classifico como meta dispositivo de vigilância, que são dispositivos interconectados, como por exemplo, um smartphone conectado a um smartwatch.

O advento do big data substituiu o modelo panóptico pelo panspectro. O panspectro é uma expressão cunhada por Manuel DeLanda em 1991, no livro “Guerra na era das máquinas inteligentes”, e posteriormente usado por Sandra Braman no livro “Change of State – Information, Policy, and Power“. O foco do panspectro não é o indivíduo em particular, ele esta focado nos dados, em todos os dados, e sua ação focal se dá em resposta à padrões, como já foi descrito anteriormente. A mineração dos dados, o uso de machine learning e deep learning, configuram a vigilância cega, uma vigilância com foco em padrões onde sua visibilidade se torna necessária apenas como resposta à padrões desviantes ou ressonantes, estes dados são coletados através dos dispositivos e meta dispositivos de vigilância.

Dispositivos e meta dispositivos, pela perspectiva da Vigilância Distribuída, configuram um complexo Organismo de Vigilância, onde cada um representa um dos bilhões de nós deste organismo.  É como se estivéssemos literalmente imersos em um mega dispositivos de vigilância com alta capilaridade e invisível. São smartphones, tablets, computadores, smartwatch, wearables, câmeras de vigilância, drones, RFID, redes abertas, redes de telefonia móvel,  e qualquer outro dispositivo tecnológico conectado, doravante conhecido por “dispositivo”.

Para você ter uma ideia do potencial de vigilância dos dispositivos, os smartphones mais populares, como o iPhone e o Galaxy S possuem sensores como GPS, beacon (que são sensores que identificam a proximidade de outros dispositivos), altímetro barométrico, acelerômetro, giroscópio, sensor de proximidade e de luz ambiente, assistente inteligente, microfone, alto falante, câmera frontal e traseira, e alguma forma de identificação biométrica. Além de possuírem conectividade por Wi-fi, Bluetooth, 3G e 4G. Estes dispositivos estão na maioria das vezes coletando dados, de forma involuntária, e muito caros ao indivíduo e sua privacidade.

Temos hoje um organismo de vigilância com mais de 12,3 bilhões de dispositivos, ou seja, 1,6 dispositivos por habitante do planeta.

Em termos de grandeza concreta, segundo o Internet World Stats, em Dezembro de 2017, 4,1 bilhões de pessoas tinham acesso a Internet, considerando que o relatório da Cisco projeta que em 2020, existirão em média 3,4 dispositivos conectados à Internet por usuário, e considerando a média de 3 dispositivos, temos hoje um organismo de vigilância com mais de 12,3 bilhões de dispositivos, ou seja, 1,6 dispositivos por habitante do planeta, considerando a população atual em 7,7 bilhões, sem contar os demais dispositivos de vigilância como câmeras, drones, e outros, e sem esquecer que cada dispositivo pode ter vários sensores.

Dificilmente damos conta que carregamos conosco um dispositivo de vigilância tão poderoso, a ponto de muitos ativistas chama-los de “dispositivo de vigilância que permite fazer ligações telefônicas”.  Eles nos rastreiam mesmo quando não estamos conectados à Internet, como demonstra esta matéria da Fox News.

Mas não são somente estes os dispositivos e tecnologias que podem acabar literalmente com a nossa privacidade, em caso da instalação de uma ditadura no país. Nossos hábitos na internet também produzem dados sobre nós, além das relações mediadas por algoritmos, são cookies, trackers, remarketing que capturam dados sobre nós.

O Facebook, por exemplo, faz uso de trackers para saber o que você faz na Internet, quando não esta nele, mas também usa dados do WhatsApp e Instagram, por serem empresas do mesmo grupo. Na verdade o Facebook e o Google são a mais clara representação do que Shoshana Zuboff chama de capitalismo de vigilância. Este complexo mecanismo de captura, coleta, tratamento, analise e armazenamento de dados chamado Facebook, foi explorado em profundidade pelo ShareLab, e descrito em forma de monólogo pela Panoptykon Foundation, no vídeo a seguir.

Como pode perceber, não podemos pensar em um modelo de vigilância e controle no século XXI, com a mente do século XX, o formato e conceito de vigilância mudaram. Do Panóptico de Foucault, onde primava o par ver ser visto, ao Panspectro de Braman, onde prima a coleta indiscriminada de dados, e a vigilância se manifesta em respostas a padrões. Os dados que produzimos podem dizer muito mais sobre nós do que a simples vigilância. O modelo atual, representado na figura abaixo, tem as características visuais do Panóptico, mas apenas como elemento complementar ao vasto potencial de vigilância do Panspectro.

Vamos tomar por exemplo um caso real, o Norte Shopping, no Rio de Janeiro. Este shopping instalou um moderno sistema de câmeras de segurança que faz o reconhecimento facial de todos que transitam em seu interior, o que possibilitou inclusive a prisão de dois criminosos procurados. O sistema, segundo a empresa que o fornece, como descrito na matéria, faz o reconhecimento facial do indivíduo e o compara com um banco de dados.

Imagine então que você entre neste shopping, o sistema irá fazer uma leitura da sua face, sem que você perceba, em seguida consultará uma base de dados, e se não encontrar registro, irá criar um novo com o modelo matemático de sua face, dando o identificador hipotético “IND18A7F8E7”. O sistema então passa a registrar seu deslocamento dentro do shopping, por onde andou, em que lojas parou para ver a vitrine, em quais entrou, quanto tempo demorou, etc.  Tudo isto é feito sem nenhuma interação humana, mas tudo fica registrado, eu suponho.

Neste momento você pega seu smartphone e resolve conectar à rede wifi do shopping, que em geral pede dados cadastrais como nome, cpf, e número de telefone para conceder o acesso. Supondo que os sistemas sejam interligados, a partir deste ponto, utilizando a triangulação dos pontos de acesso wifi, sua posição pode ser determinada, e comparada com a posição do registro da câmera de vigilância, associando seus dados ao usuário IND18A7F8E7. Novamente lembramos que tudo é feito sem nenhuma interação humana.

Agora imagine, em uma ditadura, que sistemas como estes sejam interligados, e os dados sejam acessados pelo governo. Mesmo que você não esteja carregando nenhum dispositivo, sua identificação será possível por sistemas deste tipo.

Alias não precisamos ir muito longe, ainda no Rio de Janeiro, a CodingRights fez um estudo sobre o bilhete único carioca, e chegou a conclusão que os dados dos usuários, inclusive os biométricos de reconhecimento facial, são compartilhados com a polícia e a secretaria municipal de transportes. Imagine então que nem no ônibus é possível viajar incógnito.  Junte a estes sistemas de reconhecimento de placas de automóveis, que possuem câmeras espalhadas pela cidade, a nova placa com chip e QR Code, e seu carro poderá ser rastreado, os limites da vigilância não terminam ai.

Estamos há anos trocando nossa liberdade, nossa privacidade e autonomia pelo conforto da tecnologia, e pela segurança que esta proporciona, o preço desta prática só será percebido quando em uma ditadura nos tornarmos prisioneiros dela.


Veja mais sobre o tema no site de meu projeto de pesquisa, e minha página do projeto no ReserachGate.


Bibliografia

BAUMAN, Z. Vigilância Líquida. In: MEDEIROS, C. A. (trad.). [s.l.]: Zahar, 2014. 160 p. ISBN: 978-8537811566.

BRAMAN, S. Change of State – Information, Policy, and Power. Nature Publishing Group. London, England: The MIT Press, 2006. 570 p. ISBN: 9780262025973.

BRUNO, F. Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. 1 ed. Porto Alegre: Sulina, 2013. ISBN: 9788520506820.

FOUCAULT, M. Vigiar e Punir o nascimento da prisão. 29 ed. São Paulo: Editora Vozes, 2004. 266 p. ISBN: 8532605087.

O’NEIL, C. Weapons of Math Destruction, How big data increases inequality and threatens democracy. New York: Crown Publishing Group, 2016. 307 p. ISBN: 9780553418828.

ORWELL, G. 1984. In: JAHN, H. ‎; HUBNER, A. (trads.). [s.l.]: Companhia das Letras, 2009. 416 p. ISBN: 978-8535914849.

WRÓBLEWSKA, M. Monologue of the Algorithm: how Facebook turns users data into its profit. Panoptykon Foundation. 2018. Disponível em: <https://en.panoptykon.org/articles/monologue-algorithm-how-facebook-turns-users-data-its-profit-video-explained>. Acesso em: 24/ago./18.

ZUBOFF, S. Big other: Surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, [s.l.], v. 30, no 1, p. 75–89, 2015. ISBN: 02683962, ISSN: 14664437, DOI: 10.1057/jit.2015.5.

Precisamos nos desconectar do Facebook!

Me desconectei por 15 dias e foi uma experiência incrível…

O smartphone nos transformou efetivamente em ciborgues, temos em nossa mão um dispositivo computacional de alta eficiência e equipado com câmera de foto e vídeo, microfone, GPS, acelerômetro, giroscópio, magnetrômetro, sensores de luz e proximidade, além de outros recursos que permitem a criação de aplicativos cada vez mais úteis, impressionantes e viciantes.

Há 20 anos, quando ainda “entravamos” na Internet através de nossos computadores, o máximo de mobilidade era alcançada com desajeitados e pesados laptops, e mesmo assim sua mobilidade estava limitada a um ponto de conexão física de rede. Hoje carregamos literalmente o mundo no bolso.

Nossos dispositivos estão conectados vinte e quatro horas por dia, sete dias por semana, e o ano inteiro, mesmo enquanto estamos dormindo. Temos consciência desta nova camada, deste novo sentido — nossos dispositivos podem ser percebidos como um novo sentido, o oitavo sentido, já que existem linhas teóricas que afirmam existir um sétimo sentido.

Vivemos tão conectados que não percebemos estarmos sempre carregando um dispositivo biônico, o smartphone, para onde vamos, literalmente qualquer lugar. Estamos sempre checando as nossas redes, notificações que saltam na telinha do celular, com seus barulhos característicos, e quando não estamos prestando atenção, eles vibram no nosso bolso para chamar nossa atenção.

Este dispositivo biônico, através dos aplicativos, nos oferece gratuitamente inúmeras facilidade tais como obtermos a melhor rota para qualquer destino, possibilitar andarmos em qualquer lugar do mundo, medir e registrar nossos dados físicos e fisiológicos usando outros dispositivos biônicos conectados ao nosso corpo, ou monitorar nossa casa através de dispositivos conectados, interagir através das redes sociais, navegar na internet, planejar qualquer coisa, gerenciar nosso trabalho, e muito mais, tudo que temos de fazer é dar em troca nossos dados e nossa autonomia.

E as redes sociais?

Chamam de interação social, um indivíduo olhando para uma tela colorida, sociabilizando através de uma espécie de metaverso, onde ele pode interagir silenciosamente em um ambiente frenético e ruidoso. É sem dúvida um metaverso, pois toda sociabilização nestas redes é mediada por complexos algoritmos. Estes algoritmos, ou melhor conjunto de algoritmos, cuidam de registrar tudo que você faz, cada clique, like, comentário, compartilhamento, leitura, amigo, grupo, página, absolutamente tudo eles registram. Estes registros são comparados com inúmeros outros que foram coletados de outros usuários, criando um perfil tão preciso, que bastam apenas 300 curtidas para o Facebook saber mais sobre você do que sua(seu) parceira(o). Conhecendo-o tão bem, os algoritmos irão lhe oferecer experiências sociais tão gratificantes, que o manterá cada vez mais fiel, e viciado.

Além de lhe proporcionar boas experiências, os algoritmos do Facebook podem influenciar seu humor, sua opinião, sua percepção do mundo, o principal objetivo dele é obter receita por suas interações, só de Julho à Setembro do ano passado, ele faturou 10,14 bilhões de dólares em publicidade, para isto ele precisa que você interaja mais, e segundo a neurocientista Molly Crocket, a forma mais eficiente de fazer isto é apresentar uma postagem que te provoque, literalmente. Ao fazer isto ele garante que você irá reagir e produzir um burburinho na sua bolha pessoal de amigos. Segundo Crocket as redes sociais neste processo provocam em nos uma montanha russa emocional, e ainda não se sabe as consequências disto.

Na verdade o Facebook é o maior laboratório social do mundo, estudando e registrando absolutamente tudo sobre mais de 2 bilhões de pessoas, ele possui perfis super detalhados por segmentos e até indivíduos das mais diversas culturas, isto confere à rede social um poder nunca antes imaginado.

Estamos nos tornando tão dependentes das relações sociais mediadas por algoritmos, que já existem patologias específicas como a FoMO — Fear of Missing Out, que é literalmente o medo de ficar de fora nas redes sociais.

Estes são apenas alguns dos problemas encontrados, mas foram a gota d’água que faltava para eu me entregar à uma experiência interessante e gratificante.

A Experiência

Foram quinze dias sem acesso ao Facebook, entre 18 de Dezembro de 2017 e 01 de Janeiro de 2018. Desinstalei tanto o aplicativo do Facebook como o Messenger de todos os meus dispositivos, e não acessei a rede social pelo computador no período.

Para avaliar a experiência, usei oito indicadores subjetivos:

  1. Ansiedade — com objetivo de medir o nível de ansiedade/tranqüilidade. Sendo 10 ansiedade extrema e 1 tranqüilidade extrema.
  2. Otimismo — com objetivo de medir o nível de otimismo/pessimismo. Sendo 10 extremamente otimista e 1 extremamente pessimista.
  3. Percepção da realidade — com o objetivo de medir o quanto positiva ou negativa. Sendo 10 extremamente positiva e 1 extremamente negativa.
  4. Felicidade — com o objetivo de medir a felicidade/tristeza. Sendo 10 extremamente feliz e 1 extremamente triste.
  5. Stress — com o objetivo de medir o nível de stress como um todo. Sendo 10 extremamente estressado e 1 extremamente calmo.
  6. Produtividade — Indicador subjetivo da percepção de produtividade. Sendo 10 extremamente produtivo, e 1 improdutivo ao extremo.
  7. Sensação de alienação social — Indicador bem subjetivo da percepção de alienação social, geralmente percebida com o número, frequência e densidade das interações sociais. Sendo 10 totalmente alienado, e 1 totalmente engajado.
  8. Sensação de alienação informacional — Com o objetivo de medir a percepção de informação de conjuntura e contexto, geralmente dada por noticias e novidades compartilhadas por seus pares. Sendo 10 totalmente alienado e 1 totalmente por dentro.

Como eu sabia como quantificar os indicadores, não me preocupei em criar elementos para sua avaliação, o que se tornará indispensável para a próxima fase da experiência com outros voluntários. Também se tornará imperante estabelecer o período e amostragem necessária para termos um melhor critério científico.

O que aconteceu?

A primeira preocupação foi em como eu “sobreviveria” sem o Facebook por 15 longos dias, percebi que estamos tão habituados a acessar a rede frequentemente que me pareceu uma decisão radical demais para ser tomada. Esta preocupação seguiu pelos dois primeiros dias.

No primeiro dia a ansiedade e o stress estavam altíssimos, e caíram abruptamente a partir do terceiro dia.

A sensação de aumento de produtividade se deu logo no segundo dia, e subiu rapidamente. Em busca de uma justificativa percebi que o habito de checar o Facebook regularmente, ou simplesmente a ideia de faze-lo nos deixa um estado de “semi conectividade” — é como estivéssemos o tempo todo em um tipo de “sleep mode” e qualquer notificação em nossos dispositivos nos “acordava” para ele — isto acaba consumindo muito de nossa atenção. Deixar o celular fora de nosso alcance ou simplesmente dentro da bolsa com avisos sonoros desligados pode ter um impacto enorme sobre nossa produtividade. No terceiro dia a sensação já estava tão positiva que percebia ter tempo de sobra e foi subindo até atingir o pico no sétimo dia mantendo-se então até o final da experiência.

O otimismo e a sensação de felicidade foram outros sentimentos que tiveram uma evolução positiva e significativa a partir do terceiro dia. Já a sensação de alienação social cresceu muito nos três primeiros dias chegando a uma percepção de quase total alienação no quarto dia, e em seguida caiu vertiginosamente até chegar a valores insignificantes. Já a percepção de alienação informacional foi a mais difícil de lidar, percebi o quanto me informo pelos meus pares no Facebook, mas apesar de atingir o pico de quase total alienação nos quatro primeiros dias, caiu a níveis mais baixos, chegando à uma média percepção de alienação informacional.

Ao longo da experiência aumentei minha interação social presencial, e a interação pelo Twitter, WhatsApp e Telegram, acredito ter feito assim uma substituição que impactou nos indicadores de alienação social e informacional.

Após o décimo quinto dia, não retornei ao Facebook, só fui acessar a rede social pela primeira vez cinco dias depois. A sensação de bem estar tomou conta de mim, e a alienação continuou reduzindo significativamente, continuo me informando pelos meus pares, mas agora voltei ao velho hábito de buscar informação diretamente. Minha forma de usar o Facebook mudou totalmente, não pretendo instalar novamente os aplicativos no meus dispositivos, e não sinto vontade de acessa-lo mais que uma ou duas vezes ao dia, e não permaneço mais do que 15 minutos. Tenho postado a partir de aplicativos externos, o Instagram, o Buffer, e compartilhamento a partir de aplicativos.

Conclusão

A experiência foi gratificante, e chama a atenção para um problema que deve ser levado à sério, a nossa relação com nossos dispositivos biônicos e principalmente com nossas relações sociais mediadas por algoritmos. É necessário e urgente estudos multidisciplinares sobre o tema, na busca de formas de construirmos uma sociedade de ciborgues saudáveis, uma vez que não usar a tecnologia pode ser tão desastroso como usa-la de forma intensiva. É preciso, antes de mais nada, estabelecer limites, definir ao menos um dia da semana para ficar totalmente desconectado(a) e usar os recursos tecnológicos com moderação.

É necessário um cuidado ainda maior com as crianças, que estão aprendendo a serem seres sociais. Tenho me incomodado muito o hábito crescente dos país que entregam às crianças dispositivos para que estas se ocupem, enquanto os mesmos estão sociabilizando em restaurantes e eventos sociais. Estas crianças não estão aprendendo a sociabilizar, estão aprendendo desde cedo que podem se alienar através de seus dispositivos, aprisionando-as em um futuro no qual elas não terão a menor autonomia, e não saberão se relacionar pessoalmente.

Próximos passos

Pretendo fazer esta experiência com voluntários, com critério científico, para um estudo mais sério e profundo, caso tenha interesse em se tornar um(a) voluntário(a), por favor preencha este breve formulário até julho de 2018.

Obrigado!


Publicado originalmente no Medium

Como as bolhas decidem eleições

A vitória de Trump deixou o mundo perplexo, não demorou muito para surgirem textos responsabilizando o Facebook e sua bolha pelo resultado inusitado, alias um tema que circulava mais pela esfera acadêmica e mais especializada ganhou uma popularidade fora do comum nos últimos dias, nunca vi tantos textos sobre o assunto publicados em tão curto espaço de tempo, e nos espaços reconhecidos do jornalismo global.

Sejamos justos, esta bola começou a ser levantada aqui nas nossas recentes eleições, eu mesmo no projeto Eleições 2016 ofereci dois workshops que visavam não só esta mais outras estratégias. A popularidade do tema veio a tona no Brasil com um artigo escrito pelo Professor Vinicius Wu e publicado no O Globo, onde ele falou que a maioria dos candidatos estavam na prática fazendo campanhas para suas próprias bolhas nas redes sociais.

Mas afinal o que são as bolhas e como elas podem decidir eleições?

Antes de mais nada é preciso entender uma coisa, a bolha não algo que você “entra” e muito menos coletiva, a bolha é pessoal e você mesmo a constrói em torno de si com a ajuda dos algoritmos.

O que são bolhas e algoritmos ?

É possível que você não compreenda o que é uma bolha ou filtro bolha e até mesmo o que é um algoritmo, e muito menos usar os dois para construir algo em torno de si, não se preocupe, vamos explicar.

Vamos partir do principio, Eli Pariser, um ciberativista que pesquisou o tema, e escreveu um excelente livro “O Filtro Invisível: O que a Internet está escondendo de você“, onde ele descreve didaticamente como surgiram os filtros invisíveis e dá à eles o nome de filtro bolha, também conhecido por bolha. Segundo Pariser, um dos visionários da tecnologia Nicholas Negroponte, pesquisador do MIT, já em 1994 pensava no que ele chamou de “agentes inteligentes”, que seriam algoritmos que funcionam como curador de conteúdo. As primeiras experiências com “agentes inteligentes” foram um desastre, mas Jeff Bezos desenvolveu o conceito do “agente inteligente” da Amazon com base no livreiro que te conhece e recomenda os livros que acredita lhe interessar. Para atingir este objetivo o algoritmo passou a registrar tudo que ocorria no site, quem via ou comprava um livro, e quais interessavam também, e rapidamente criou uma lógica de relacionamento capaz de apresentar com razoável margem de acerto sugestões de leitura com base em sua pesquisa, de onde acessa, e seu histórico de compra e busca, estava criada a primeira bolha eficiente.

Duas pessoas com dispositivos idênticos acessando o Google pela mesma rede, com as mesmas palavras chave nunca obterão os mesmos resultados.

Google também adotou um algoritmo com critérios que definem a relevância e aderência da busca com o que ele acredita que você esteja procurando, baseia-se em inúmeras variáveis, que envolvem desde seu histórico de busca até o local e dispositivo de onde esta sendo feita a pesquisa. Duas pessoas com dispositivos idênticos acessando pela mesma rede, com as mesmas palavras chave nunca obterão os mesmos resultados.  O mesmo acontece no Netflix, Facebook e diversas outras redes e serviços que você acessa, que estão sempre registrando e comparando um número cada vez maior de informações sobre você, seus relacionamentos e interesses para tentar acertar de forma eficiente o seu desejo. É o que ocorre com a linha do tempo do Facebook, que na prática não é ordenada cronologicamente, mas de acordo com o que algoritmo do Facebook julga relevante para você, é que você não percebe isto até prestar atenção nos detalhes.

Os problemas com as bolhas

A preguiça é da natureza humana, ter um algoritmo (curador) lhe oferecendo conteúdo e informação sob medida é quase um sonho, mas pode rapidamente se tornar um pesadelo.

Bolhas são invisíveis

O primeiro problema com as bolhas é que elas são invisíveis,  se você não sabe que elas existem, dificilmente irá percebe-las, e muitas vezes até mesmo consciente parece não perceber. As bolhas são algoritmos construidos para lhe oferecer conteúdo e informação que julgam mais adequadas para seus interesses.

Bolhas são algoritmos

Bolhas são algoritmos, modelos matemáticos, baseados em lógica, e por esta razão não são capazes de perceber elementos subjetivos como as suas emoções, linguagem corporal e contextos no qual são acionados… ainda…

Cathy O’Neil, cientista de dados apresenta em seu livro Weapons of Math Destruction, uma série de casos e levanta questões éticas e lógicas de diversos modelos matemáticos sobre big data, e como eles podem aumentar a desigualdade e ameaçar a democracia. Segundo O’Neil, modelos matemáticos são o motor de nossa economia digital e não são neutros e muito menos perfeitos, como ela apresenta nestas duas conclusões:

  1.  “Aplicações baseadas em matemática e que empoderam a Economia de Dados são baseadas em escolhas feitas por seres humanos falíveis”.
  2.  “Esses modelos matemáticos são opacos, e seu trabalho é invisível para todos, exceto os cardeais em suas áreas: matemáticos e cientistas computacionais. Seus vereditos são imunes a disputas ou apelos, mesmo quando errados ou nocivos. E tendem a punir pobres e oprimidos, enquanto tornam os ricos mais ricos em nossa sociedade”.

Você constrói a sua bolha

As bolhas não existem sem você, as bolhas que apresentam o conteúdo que acessa no Facebook, Google, Amazon, Netflix e outras são exclusivamente suas, e você às construiu. Muitos algoritmos comparam seus hábitos com outras pessoas que julgam semelhantes, mas eles precisam aprender sobre você. No Facebook por exemplo, o algoritmo chamado EdgeRank registra tudo que você faz, que postagens curte, comenta, compartilha, em quais clica, em quais passa mais ou menos tempo, e assim ele vai “aprendendo” a lhe agradar.

O problema, como visto, é que bolhas são algoritmos, modelos matemáticos, que são recursivos, ou seja, estão sempre aprimorando e aprendendo com você, quando você não presta atenção à um post ou quando rejeita postagens e bloqueia pessoas ou simplesmente as ignora, o EdgeRank entende que você não quer mais este conteúdo e os suprime da sua linha do tempo, criando uma distorção da realidade que Eli Pariser chama de “Síndrome do Mundo Bom”.  A “Síndrome do Mundo Bom” é quando sua linha do tempo está tão “purificada” que só lhe apresenta conteúdos que alinham com você ideologicamente e lhe agradam, o mundo bom, esta justamente nesta percepção distorcida da realidade, onde “todos” pensam igual a você.

As bolhas são seu senso comum

A forma como o ser humano percebe o mundo, é complexa, o cérebro usa de atalhos para tomar decisões, que em sua maioria são intuitivas. Leonard Mlodinow no livro Subliminar demonstra o quanto nossas decisões são baseadas em questões subjetivas, tanto que segundo o autor alguns cientistas estimam que só temos consciência de cerca de 5% de nossa função cognitiva. Os outros 95% vão para além da nossa consciência e exercem enorme influência em nossa vida. Podemos não perceber, mas estamos formando o entendimento de senso comum em todos os ciclos sociais, inclusive nas nossas bolhas. O senso comum formado dentro de uma bolha purificada, que atingiu a “síndrome do mundo bom” é totalmente distorcido da realidade, e pode levar ao radicalismo.

Nos somos parte das bolhas dos outros

Assim como construímos nossas bolhas com conteúdos produzidos por outras pessoas, elas constroem suas bolhas com conteúdos que podem ser também os seus, as bolhas não são reciprocas, nem sempre o autor do conteúdo que te interessa, tem interesse por seu conteúdo. Como somos responsáveis pelo conteúdo que interessa à alguém, somos em algum nível influenciadores destas pessoas.

As bolhas são a nossa Matrix

Estamos sempre acreditando que nas redes sociais, em especial no Facebook, estamos publicando para o mundo, mas na prática, estamos publicando para um público bem restrito, de 3% a 6% do seus “amigos” e seguidores. Suas publicações só conseguem um alcance maior quando alguém as compartilha. Ou seja, estamos quase sempre recebendo informações das mesmas pessoas que nos interessam, e compartilhando para as mesmas que tem interesse em você. Nos sentimos falando para um público de milhões de pessoas, mas na prática seus ouvintes caberiam na maioria das vezes na sua sala de estar.

suabolhaSe fôssemos fazer uma ilustração de como seria sua bolha, teriamos algo como um diagrama de Venn, mas seria um diagrama tridimensional, mostrando como sua bolha é construida com a conexão de outras bolhas. O tamanho do espaço de interseção seria proporcional ao nível de interesse por temas de determinada bolha. Mesmo assim é necessário destacar que as relações das bolhas do conteúdo que você consome e a do conteúdo que você produz podem ser totalmente diferentes.

Como as bolhas podem influenciar uma eleição?

Agora que você já sabe o que são algoritmos, bolhas e seus problemas fica mais fácil compreender como elas podem influenciar não só uma eleição, mas em decisões importantes como aconteceu no golpe de estado sofrido no Brasil este ano. Vamos focar inicialmente no Facebook, uma rede social de tamanho nunca antes imaginado, um “veiculo de mídia” com dois BILHÕES de usuários, que representam 2/3 de todos os usuários com acesso à Internet no mundo. Com esta dimensão é impossível dissocia-lo de fazer parte da equação que avalia mudanças globais de comportamento social, como a emergência da extrema direita e a onda de ódio e polarização.

No início deste ano tornei público parte do meu projeto de pesquisa, com o qual estou desenvolvendo minha dissertação de mestrado – O poder político e ideológico do Filtro Bolha – nele constam alguns casos relevantes de como o Facebook pode influenciar os seus usuários, tanto o resultado de uma eleição quanto o próprio comportamento:

Influenciando uma eleição

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

Influenciando o comportamento dos usuários

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Subjugando a subjetividade

Aqui é que entra o grande ponto, é possível influenciar massivamente usando o Facebook, desde que se conheça a rede e seu funcionamento, por exemplo, John Rendon (RAMPTON; STAUBER, 2003) que se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

A própria purificação da linha do tempo seria suficiente para mudar a percepção dos usuários e faze-los acreditar na sua versão dos fatos, mas apesar de muita gente construir seu senso comum pelo Facebook, há uma necessidade de reforçar a narrativa que se quer estabelecer, do contrário bastaria o usuário se afastar da rede social por alguns dias para reconstruir sua percepção de senso comum e entrar numa dissonância cognitiva em torno disto.

Como em todo bom filme de ficção, onde o protagonista é levado a crer numa realidade induzida, muitos os elementos em sua volta devem corresponder à narrativa que se quer induzir. O grande segredo está na aplicação das técnicas de comunicação radical, que usamos no ciberativismo contra o projeto de lei AI5digital, em 2008, quando ainda tínhamos o domínio absoluto das técnicas de comunicação na rede.

Na ocasião usamos as blogagens coletivas, onde dezenas de blogs postavam em uma data específica textos contra o projeto de lei, foram centenas de blogs, que mudaram radicalmente o resultado do Google quando se pesquisava sobre o tema, apresentando vários links contra o projeto no topo dos resultados.  O usuário do Facebook por exemplo costuma checar no Google sobre os temas que lhe interessam, e partindo do principio de que se ele já esta na síndrome do mundo bom, esta predisposto a compartilhar qualquer informação que corrobore com seu ponto de vista, independente da confiabilidade da fonte. Observe quantos blogs fakes surgiram nos últimos dois anos por aqui com textos contra o governo destituído.  O mesmo se deu nas eleições americanas, uma infinidade de textos falsos foram compartilhados, muitos por usuários fakes, mas parte significativa por usuários predispostos à faze-lo.

Uma outra técnica foi a de fragmentar a informação de modo a direciona-la para diferentes grupos de interlocutores, por exemplo no projeto de lei citado, um artigo propunha pena de dois anos de detenção se violado um software, na ocasião passamos a informação aos grupos de gamers, que o uso de bots daria dois anos de cadeia e a lei fosse aprovada. Com isto engaja-se mais gente, hoje com o WhatsApp a fragmentação é muito mais fácil, utiliza-se por exemplo o que O’Neil chama de marketing predatório, dialogando com o ponto de dor dos interlocutores oferecendo o alivio da dor. É assim que estão convencendo os mais inocentes à aceitar a reforma trabalhista, um dos argumentos é que o FGTS rendeu menos que uma determinada aplicação, e que seria melhor que o empregado recebesse e aplicasse o dinheiro, e impressiona como isto esta sendo disseminado. Nas eleições de 2014 e nas municipais deste ano, o volume de informação falsa contra adversários foi uma enormidade, o mesmo acredito ter sido feito nas eleições americanas.

Estes são duas das várias técnicas de comunicação radical, que podem reforçar a narrativa que se quer passar, e que passam a ganhar consistência quando devolvidas para o Facebook e compartilhadas por usuários comuns, produzindo uma grande bolha que é na verdade uma soma de milhares de bolhas individuais que estão alinhadas, e assim consegue-se subjugar a subjetividade de uma grande massa da sociedade, quanto mais se a mídia de massa também estiver alinhada na narrativa.

Por fim, este texto tem por objetivo apresentar mais uma reflexão sobre o debate, somando-se a outros tantos que foram publicados.

 

O poder político e ideológico do filtro bolha

Foto de Colin Adamson

O poder político e ideológico do filtro bolha

O estudo da linha do tempo do Facebook

O texto a seguir é parte do meu pré projeto para mestrado, que torno público como contribuição ao debate atual em torno da conjuntura que o Brasil vive neste início de março de 2016.

Introdução

Em Maio de 2015 pesquisadores do Facebook publicaram um estudo intitulado “Exposure to ideologically diverse news and opinion on Facebook” (BAKSHY et al., 2015). O estudo focava em duas criticas mais comuns em torno do algoritmo do Facebook: Com cada vez mais indivíduos buscando informações cívicas nas redes sociais, o algoritmo poderia criar “câmeras de eco”, onde as pessoas são mais expostas a informações compartilhadas por seus pares ideológicos. A outra questão focava como o algoritmo classificava e buscava as informações exibidas na linha do tempo da rede social. Segundo Pariser (2012) o algoritmo criava um “filtro bolha”, onde somente conteúdo ideologicamente atraente era trazido à tona, isolando o usuário da diversidade.

O resultado apresentado mostra que os usuários estão expostos a uma quantidade substancial de conteúdo a partir de amigos com pontos de vista opostos, e que o mix de conteúdo encontrado na rede social é produto de uma escolha pessoal, e que apenas entre em 5 a 10% do que não se alinha à visão política do usuário é omitido.

Por conta desta conclusão, o estudo ganhou pelos críticos, ativistas e acadêmicos, o apelido de “Facebook’s it’s not our fault study”. Destes, Zeynep Tufecki (2015), socióloga ligada ao Berkman Center, de Harvard aponta algumas inconsistências. Em primeiro lugar foram tomados dados de um pequeno grupo de usuários, aqueles que se auto-identificam politicamente. Presume-se que esses que se auto-identificam são mais propensos a criarem uma bolha informativa em torno de si, uma vez que já estão politicamente definidos. A outra questão é que há uma brutal variação entre a probabilidade de uma informação ser visualizada quando disposta no topo da página ou mais embaixo. Ou seja, o Facebook não precisa omitir determinado link ou informação, basta dispô-lo no fim da linha do tempo, reduzindo substancialmente a possibilidade de ser visto. Por exemplo, um link tem 20% de possibilidade de ser clicado estando no topo da página. Esse número cai para menos de 10% se estiver na décima posição e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse usuário. A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das publicações são dois elementos que se complementam e não podem ser analisados em separado.

Para Pariser (2015), o estudo erra em pressupor que a escolha do usuário faz mais sentido do que responsabilizar o algoritmo do Facebook. Para ele existem duas preocupações em relação ao filtro bolha: que os algoritmos ajudem os usuários a se cercarem de informações que dão suporte às suas crenças, e que os algoritmos classifiquem como menos importante o tipo de informação que é mais necessária em uma democracia – notícias e informações sobre a a maioria dos temas sociais importantes (“hard-news”). Enquanto o estudo foca no primeiro problema, ele deixa rastros para o segundo, uma vez que apenas 7% dos usuários clica no que o estudo chama de “hard-news”, noticias de carater cívico, enquanto a maioria clica em “soft-news”, que são amenidades.

Existem algumas ressalvas apontados por Pariser no estudo, O mecanismo de marcação ideológica não significa o que parece que ele significa. Como os autores do estudo mencionam, e para muitos passa despercebido, é que isto não é uma medida de polarização partidária com a publicação. É uma medida de quais artigos tendem a ser mais compartilhados por um grupo ideológico do que o outro, existem hard-news que não são partidários. É difícil calcular a média de algo que está em constante mudança e diferente para todos. É um período de tempo muito longo para uma rede social que está constantemente se reinventando, muitas coisas aconteceram no período de tempo da pesquisa (07 de Julho de 2014, a 07 de Janeiro de 2015). A amostragem do estudo representa apenas 9% dos usuários do Facebook que declaram seu posicionamento político. É realmente difícil separar “escolha individual” e o funcionamento do algoritmo. O algoritmo responde ao comportamento do usuário em lotes diferentes, há um ciclo de feedback que pode diferir drasticamente para diferentes tipos de pessoas.

Tanto o estudo apresentado pelo Facebook, quanto suas críticas, e aqui citamos apenas duas, são conseqüência de diversos estudos e criticas anteriores, das quais destacamos duas bem controversas que motivaram a proposta deste projeto de pesquisa.

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Objetivos

Este projeto de pesquisa tem por objetivo compreender a forma como o filtro bolha afeta o fluxo e a classificação de informações e consequentemente, como afeta o posicionamento político e ideológico do usuário do Facebook no Brasil.

Com base nos estudos de Zittrain (2014) e Kramer et al (2014) torna-se possível começar a desenhar este recorte. A influência política proposta transcende a mera questão eleitoral apontada por Zittrain, estamos falando do posicionamento do indivíduo frente às questões políticas e ideológicas. O estudo do contágio emocional pelas redes sociais, não deixa dúvida da existência de mecanismos passíveis de influenciar as emoções dos usuários através da manipulação do fluxo de informação, da mesma forma que é perfeitamente plausível trabalhar com as questões que envolvam seus princípios e valores.

Para atingir este objetivo é necessário identificar e compreender os principais algoritmos, ou parte destes, utilizados pelo Facebook na classificação das informações apresentadas ao usuário. Uma vez identificados estes processos, torna-se imperativo complementar com o suporte teórico para identificar de que forma os processos possam interferir no posicionamento ideológico e político deste usuário.

Justificativa

Os algoritmos dos filtro bolha, são desenvolvidos para proporcionar uma melhor experiência para o usuário, oferecendo a ele opções de conteúdo cada vez mais adequados à suas expectativas. Para atingir este objetivo eles “aprendem” através de diversos indicadores como “likes”, comentários, compartilhamentos e o tempo gasto em cada publicação no Facebook, e comparam seu perfil com outros usuários que de uma forma ou de outra, o algoritmo identifica como semelhante a você. Obviamente existem outros métodos e indicadores que aprimoram o resultado apresentado ao usuário. É importante considerar que estes algoritmos estão constantemente reavaliando suas preferências, de tal forma que se tornam recursivos, a ponto de criarem o que Pariser (2012) chama de “Síndrome do Mundo Bom”. A Síndrome do Mundo Bom é uma “purificação” dos interesses do usuário dada a forma como ele se relaciona na linha do tempo, e que o afasta de publicações que não são compatíveis com seus interesses.

Ao conectar estas questões informacionais com o conhecimento de autores de outros campos de estudo como sociologia, psicologia e filosofia, encontramos e identificamos os mecanismos pelos quais o poder político e ideológico do filtro bolha é exercido. Como exemplo, John Rendon (RAMPTON; STAUBER, 2003) se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

Partindo do principio que a grande maioria dos usuários da Internet desconhece a existência do filtro bolha, é de extrema importância produzir um estudo que possa orientar tanto os especialistas como o cidadão comum, tanto a cerca da existência de tal filtro, como seu impacto em diferentes partes de sua subjetividade.