COMPORTAMENTO

Mandar as pessoas serem menos racistas online funciona, às vezes

Este é um daqueles casos que ciência explica. 😏

23/04/2017 13:44 -03 | Atualizado 23/04/2017 13:57 -03

Como pode lhe dizer qualquer pessoa que já passou algum tempo online, quando estão na internet as pessoas se sentem à vontade em fazer e dizer coisas terríveis que seriam muito mais difíceis de dizer ou fazer fora do ar. Certas normas sociais simplesmente não parecem se aplicar plenamente no mundo online, e entender o porquê disso vem sendo um esforço importante empreendido por alguns pesquisadores, especialmente à medida que o problema do assédio em plataformas como o Twitter vem ganhando cada vez mais visibilidade.

A maneira mais simples de explicar o problema é dizer que, quando as pessoas estão imersas em comunidades online, especialmente comunidades hostis ou agressivas, elas apreendem e reagem a um conjunto diferente de normas sociais do que fazem quando estão no mundo real. Infelizmente, em muitas partes do mundo online é possível lançar epítetos racistas com impunidade de uma maneira que não é possível fazer no mundo real, sem que sua reputação seja prejudicada realmente e sem você sentir que está violando as expectativas de outras pessoas (é claro que eu estaria sendo omisso ou negligente se não observasse que desde a semana passada, esse tipo de comportamento vem aumentando offline também). Assim, mudar o comportamento das pessoas para melhor, coisa que nunca é fácil de se fazer, pode ser ainda mais difícil online, em vista de todos os incentivos e normas nocivas presentes em abundância no ciberespaço.

Um caminho possível para incentivar as pessoas a se comportarem melhor consiste em fazer apelo a essas normas sociais: encontrar maneiras de mostrar aos perpetradores de assédio e racismo online que seu comportamento não é aceitável e que a comunidade mais ampla vai puni-los socialmente se eles continuarem a agir dessa maneira. Em artigo recém-publicado no periódico "Political Behavior", Kevin Munger, doutorando do departamento de Política da New York University, propôs uma maneira de pôr essa teoria à prova.

Para seu estudo, que tem o título espirituoso de "Tweetment Effects on the Tweeted" (um trocadilho com "treatment effects", ou seja, "efeitos dos tuítes sobre os tuitados", em vez de "efeitos do tratamento"), Munger utilizou ferramentas que garimpam o Twitter para gerar uma lista de contas do Twitter operadas por usuários brancos que empregaram a palavra "nigger" (preto ou crioulo, usado em sentido pejorativo) para assediar usuários negros. A seguir, ele refinou a lista para incluir apenas as pessoas mais ofensivas com seus tuites, avaliadas por uma lista que incluiu outros epítetos além do termo racista e pejorativo.

Depois disso Munger empregou alguns bots para tentar reprimir o comportamento ofensivo. Havia quatro categorias de bots: metade aparentava ser operado por um usuário branco (com base em um avatar de cartum do tipo visto comumente no Twitter), e a outra metade, por um usuário negro. Metade dos bots tinham poucos seguidores (entre zero e dez), e metade tinha relativamente muitos (entre 500 e 550). Munger queria saber como essas variáveis afetariam a capacidade dos bots de modificar o comportamento dos usuários abusivos. Em muitos contextos do mundo real, os humanos respondem mais a sanções sociais de membros de seus próprios grupos, em especial aos membros de mais alto status desses grupos.

Os bots, que Munger fez com que parecessem ser contas reais administradas por humanos, responderam a um dos tuites ofensivos dizendo: "Ei, cara, lembre-se que há pessoas de verdade aí fora que são atingidas quando você as assedia com esse tipo de linguagem". A intervenção funcionou: as contas miradas passaram a lançar menos tuites ofensivos. "O efeito persistiu por um mês inteiro após a aplicação do 'tratamento'", escreveu Munger. Ele acredita que sua intervenção "levou os 50 indivíduos na condição mais efetiva a tuitar a palavra 'nigger' estimadas 186 menos vezes após o tratamento".

Mas existe um porém importante. A intervenção só funcionou quando o bot que estava repreendendo o usuário abusivo do Twitter parecia ser operado por um usuário branco e parecia ter um número relativamente alto de seguidores. Isso condiz com a ideia de que sanções lançadas pelos membros destacados (ou relativamente destacados) de grupos são as mais eficazes. É a mesma lógica seguida pelos autores de um estudo sobre uma intervenção promissora contra o bullying adotada em escolas secundárias de Nova Jersey: ao mapear as redes sociais das escolas e visar os indivíduos mais conectados, a intervenção parece ter conseguido disseminar normas antibullying nas redes, normas essas que então se disseminaram, ajudando a conter os comportamentos prejudiciais.

O nosso caso não é exatamente o mesmo, porque um usuário de Twitter com 500 seguidores de quem você nunca ouviu falar não é exatamente "destacado" da mesma maneira. Mesmo assim, em muitos casos os usuários de Twitter abusivos visados pelo estudo de Munger talvez nunca antes tivessem sido tão admoestados por seu comportamento. Muitos deles provavelmente convivem online com personalidades igualmente hostis e passam adiante os tuites delas. É útil saber que um simples tuite parece ter freado um pouco o comportamento deles.

Uma pergunta interessante é como esse artigo se enquadra no debate mais amplo sobre o hábito de criticar e envergonhar pessoas online e divulgar seus podres ocultos. A sociologia e a ciência política oferecem algumas evidências de que, quando criticamos pessoas agressivamente por agirem como seres humanos horríveis, elas ou intensificam seus comportamentos criticados ou ignoram as críticas. Mas Munger explicou em um e-mail que a linguagem usada em sua intervenção "foi pensada para ser humanizadora e para rejeitar o hábito desses grupos de empregar esse tipo de linguagem". Os bots não gritaram com as pessoas por serem racistas –apenas lembraram a elas que existe uma comunidade mais ampla lá fora para a qual esse comportamento racista é inaceitável.

Como Munger explicou:

Acho que as normas e a identidade de grupo constituem um mecanismo real por trás da incivilidade e do assédio online: a distância física e o anonimato permitem às pessoas serem agressivas de maneiras que seriam muito mais difíceis offline (pelos custos emocionais que isso acarretaria), e as normas de discurso de grupo são extremamente importantes, porque constituem a maneira principal de assinalar a identidade do grupo. Grupos mais radicais se dispõem a usar linguagem mais radical, algo que é um sinal eficaz de identidade precisamente porque choca a maioria das pessoas. // Assim, meu trabalho procura testar maneiras de descobrir a identidade offline das pessoas e desse modo lembrá-las de que o que estão fazendo (utilizando linguagem extrema para fazer outras pessoas ficarem mal) viola normas de comportamento, exceto nas comunidades online das quais elas fazem parte.

É essa distância entre a personalidade online e offline do indivíduo que alimenta tanta agressividade. Se os outros fatores continuarem iguais, quanto mais for possível diminuir a distância entre essas duas personalidades, menos negativo será o comportamento online das pessoas.

Este texto foi originalmente publicado no HuffPost US e traduzido do inglês.

Leia mais:

- Por que o ataque de Trump na Síria deixa os Estados Unidos no precipício de uma nova guerra

- O que está por trás da mudança na divulgação das pesquisas perto das eleições