OPINIÃO

Facebook e democracia: o lado de fora da bolha

03/06/2015 16:24 -03 | Atualizado 26/01/2017 22:19 -02
gideon_wright/Flickr
Digital collage / painting Credits: - Discarded spacestuff5 by Fune_Stock at Deviantart - Full Moon by DSLresources at Deviantart - Broadway poster "The Great Ruby" 1899

Eu estava na cozinha da minha casa quando comecei a ouvir o zumzumzum da rua. Não entendi nada. A primeira coisa que me veio à cabeça foi que devia ser um bloco de Carnaval tardio. Olhei os prédios em volta e vi as pessoas vaiando e fazendo barulho. Liguei a TV e entendi: era o primeiro panelaço. Era a história, ali, acontecendo na minha frente - mas eu não estava sabendo porque aquilo estava fora da minha bolha, criteriosamente moldada segundo filtros, usuários bloqueados e preferências pessoais expostas todos os dias nas redes sociais.

Agora, a tese da bolha, ou 'filtro-invisível' (o filter bubble), cunhada há alguns anos, pelo ativista, pesquisador e empreendedor Eli Pariser, foi colocada à prova. Na época, Pariser causou polêmica quando afirmou que, em vez de abrir os horizontes, a internet estava, na verdade, fechando as pessoas em seus próprios círculos. E isso era culpa dos algoritmos que filtram conteúdos, criados por empresas como Google e Facebook, para classificar o conteúdo exibido ao usuário conforme seus próprios interesses.

Um time de pesquisadores do Facebook resolveu investigar o poder da bolha - de que maneira os usuários são privados de receber conteúdo diferente de sua linha de pensamento na timeline. O resultado, publicado na revista Science, está provocando discussões acaloradas e controvérsias. Spoiler: sim, nós estamos presos na bolha. A questão é: nós temos a opção de entrar ou sair dela?

No estudo, os pesquisadores analisaram o comportamento na rede de 10 milhões de usuários do Facebook que assinalaram suas preferências políticas em seus perfis (liberais ou conservadores). O estudo deixou claro que, sim, no Facebook você tem mais tendência a ver conteúdos que são populares entre as pessoas que têm o mesmo ponto de vista que você. E que o algoritmo do Facebook (alimentado por nosso próprio comportamento na rede) amplifica a visão política a qual você pertence. A surpresa foi que o efeito é menor, em termos de porcentagem, do que Pariser preveu. Mas isso não o torna menos importante.

Esta reportagem explica bem o resultado:

O Facebook se encarrega de mostrar aos progressistas 22% de conteúdo que desafia sua ideologia. Já os conservadores enxergam 33% desse tipo de postagem - conservadores têm um pouco mais de interesse pelas ideias dos adversários do que o contrário. Segunda a pesquisa, se a rede social não soubesse a orientação política dos usuários, eles visualizariam respectivamente 24% e 35%, índices muito semelhantes. E chegariam a esses percentuais pelas suas próprias escolhas: suas amizades, suas curtidas, seus comentários. Ou seja, se há uma "bolha ideológica", somos nós mesmos quem nos colocamos para dentro. O Facebook só facilitaria o enclausuramento nessa gaiola aconchegante dos que concordam conosco.

O Facebook usou esses dados para justificar que a escolha individual importa mais do que os algoritmos. Isso mata a teoria do filtro-bolha? Eu acho que não, pelo contrário: explica muito do que estamos vivendo na rede hoje.

"Nós podemos esperar que quando as pessoas tem a chance de escolher quais notícias ler, elas optem por aquelas com as quais elas tendem a concordar mais", escreveu Christian Sandvig, professor de comunicação na Universidade de Michigan. Para ele, essas escolhas levam a mais seletividade e polarização - algo potencialmente danoso numa democracia.

O acadêmico criticou a maneira como o Facebook interpretou os resultados, minimizando os riscos da polarização e atribuindo a 'culpa' da bolha aos próprios usuários. A pesquisa foi amplamente questionada - por sua amostragem, metodologia e vínculo com o Facebook -, mas eu vou falar aqui da minha experiência empírica como usuária brasileira e interessada em política e internet.

A revolução será postada (mas talvez a gente não veja)

Pensei muito nestas questões ao fazer uma reflexão sobre como nós, que nos consideramos progressistas, perdemos o domínio da rede (uma ferramenta tradicionalmente usada para fazer política e, porque não, revoluções) e fomos engolidos por uma nuvem de intolerância (de ambos os lados). Não é segredo que o discurso reacionário está muito mais forte do que a pauta progressista. Se antes éramos nós que estávamos na internet e capitaneávamos campanhas com hashtags, agora essas ferramentas foram devidamente apropriadas por eles.

Nos anos em que trabalhei cobrindo tecnologia, acompanhei de perto a Primavera Árabe, o Occupy Wall Street, o 15M, e como a tecnologia foi utilizada por esses grupos para mobilizar pessoas, provocar discussões e até derrubar governos. Aqui no Brasil, de maneira mais tímida, vimos a internet se levantar contra a Lei Azeredo, e dessa briga surgir o Marco Civil da Internet (que depois caiu no troca-troca político, mas isso é outra história). Enfim: realmente acreditávamos que a web era um palco para articulação e mudanças concretas.

E é. Mas talvez não do jeito que estávamos pensando. Fechados em nossa própria bolha, deixamos de acompanhar os outros lados.

Depois de junho de 2013 e a ascensão de uma nova consciência política - a insatisfação generalizada contra a corrupção -, os governistas, os desiludidos (que sentem que o governo petista já não os representa mais) e a oposição clássica (tanto os liberais quanto os conservadores) batem de frente, e entre eles há um abismo: parece que não há diálogo possível.

Claro que a culpa da polarização não é só do Facebook. Porém, se levarmos em conta que 70% dos brasileiros que estão no Facebook usam a rede social para se informar (estamos falando de mais de 90 milhões de pessoas!) e os mecanismos de seleção de conteúdo só exibem aquilo que o usuário possivelmente vai curtir, não é difícil concluir que a grande parte das pessoas se informa, basicamente, através dos contatos e páginas que têm um ponto de vista semelhante ao seu. Por escolha própria ou pelo algoritmo, o isolamento é o mesmo.

Silenciar o outro no Facebook é muito simples: basta esconder a publicação, deixar de seguir a pessoa ou, em casos extremos, desfazer a amizade. Porém, nem sempre fazemos isso conscientemente - estamos também sujeitos à ação do algoritmo. Nós o alimentamos com o nosso comportamento online, e também nos comportamos online de acordo com o que ele nos exibe: é uma via dupla.

Imersos neste sistema, ficamos sem saber o que o outro pensa. Nesta semana, o advogado Pedro Abramovay publicou outra história surpreendente, aqui no Brasil Post, que também prova o quanto nós desconhecemos nós mesmos.

Quando 90 milhões ficam fechados em um sistema que alimenta suas opiniões e cala as contrárias, a polarização parece inevitável. O Facebook pode tentar jogar a culpa nas pessoas, mas não pode negar o quanto o funcionamento do seu sistema contribui para a exarcebação dos ânimos - e da falta de diálogo. Vi muita gente surpresa com o tamanho das manifestações de março e abril. De onde veio a surpresa? Toda a articulação aconteceu na internet, para todo mundo ver (mas nem todo mundo teve acesso a essas informações).

Em 2012, Pariser disse à revista Época:

É uma forma muito sutil de censura. Você não é proibido de ver nada, mas sua atenção é dirigida de forma que você não note que a informação existe. Como dependemos cada vez mais dos resultados de busca ou de indicações nas redes sociais para chegar a um conteúdo na internet, o filtro invisível pode esconder páginas e pessoas definitivamente. As consequências disso podem ser muito graves.

Nós não sabemos ainda as consequências deste nosso isolamento em nossas bolhas particulares de interesse, mas levando em consideração o atual cenário de polarização e falta de diálogo, eu acho que Pariser estava certo. Precisamos sair da bolha.