NOTÍCIAS
16/03/2019 08:41 -03 | Atualizado 16/03/2019 08:42 -03

Qual a responsabilidade do Facebook na exibição ao vivo do massacre da Nova Zelândia?

"Como um vídeo começa a viralizar e não tem um gatilho que sinalize aos responsáveis sobre o seu conteúdo?", questiona especialista.

RASHID ABBASI / Reuters

Na última sexta-feira (15), um atentado contra duas mesquitas na cidade de Christchurch, na Nova Zelândia, deixou 49 mortos e pelo menos 40 feridos.

O ataque foi filmado através de uma câmera acoplada no capacete de Brenton Tarrant, australiano extremista identificado como o autor dos disparos, e transmitido em tempo real em seu perfil no Facebook. O vídeo de 17 minutos viralizou em várias redes sociais. Dez horas após o ataque, ainda era possível encontrar imagens online.

Além da crueldade do massacre, chocou o mundo a perversidade da transmissão online da barbárie. O caso chamou mais uma vez a atenção da responsabilidade do Facebook em permitir que vídeos com conteúdos ultrajantes não só sejam exibidos em tempo real, mas depois continuem circulando.

A empresa divulgou um comunicado na noite de sexta dizendo ter trabalhado, desde que o ataque aconteceu, para “responder a denúncias e bloquear conteúdo, identificar proativamente o conteúdo que viola nossos padrões e dar suporte aos socorristas e às autoridades policiais”.

O Facebook afirmou ainda que estava adicionando cada vídeo relacionado a “uma base de dados interna que permite detectar e remover automaticamente as cópias desses vídeos quando o upload é feito novamente”.

A nota assinada pela diretora de Políticas Públicas do Facebook na Nova Zelândia, Mia Garlick, ainda pede que as pessoas denunciem todas as instâncias de vídeos que encontrarem, para que seus sistemas “possam impedir que as imagens sejam compartilhadas novamente”.

As ações ajudam a conter o vazamento, mas o estrago já estava feito.

O professor da FGV e especialista em segurança digital Arthur Igreja, questiona o filtro dos algoritmos da rede social que são capazes de identificar rostos de pessoas em segundos, mas que demoraram cerca de uma hora para banir um conteúdo de extrema violência como o vídeo do massacre.

“O Facebook usa essa desculpa há anos com relação a fake news, conteúdos violentos, ou seja lá o que for. O Facebook fala: ‘Mas eu não tenho culpa disso, eu simplesmente estou replicando aquilo que as pessoas produzem’. É irreal”, afirmou Igreja em entrevista ao HuffPost.

Para Igreja, tragédias como essa buscam surfar na onda da exposição e do alcance das redes sociais e marcam o “fim da inocência da internet”. 

Leia abaixo a entrevista completa.

 

Como explicar a exibição ao vivo de um massacre como o ocorrido na Nova Zelândia?

Arthur Igreja: Isso que está acontecendo é a extensão do que nós já vivíamos em relação à transmissão da cobertura em tempo real. Em vez de equipes de TVs, a gente passou a ter as pessoas com um smartphone postando em tempo real. Agora chegamos a esse extremo que é o absurdo da visão em primeira pessoa de quem está cometendo um atentado como esse. Além disso, ele fez uso de uma ferramenta para tentar viralizar, que foi citar o maior youtuber do mundo, claramente com a intenção de surfar na onda do seu público. O traço mais marcante desse ataque é realmente essa necessidade de exposição.

[Antes de abrir fogo, o atirador pediu que os espectadores do vídeo ao vivo se inscrevessem no canal do produtor de vídeos sueco PewDiePie no YouTube. Após ser mencionado, PewDiePie disse no Twitter que estava “absolutamente enojado” por ter seu nome “pronunciado por essa pessoa”.] 

 

Qual a responsabilidade do Facebook em relação ao vídeo publicado?

O fato de uma empresa como o Facebook se declarar apenas como uma plataforma é uma conveniência legal. O Facebook hoje é o maior site de notícias do mundo ou chame como você quiser. É uma liberdade poética para a empresa se isentar da real responsabilidade que eles têm hoje na sociedade. É inevitável que a empresa assuma a sua responsabilidade.

Essas empresas usam um argumento muito conveniente para elas que é dizer que não têm responsabilidade alguma, porque, afinal de contas, são indivíduos que estão publicando conteúdos. O Facebook usa essa desculpa há anos com relação a fake news, conteúdos violentos. O Facebook fala: “Mas eu não tenho culpa disso, eu simplesmente estou replicando aquilo que as pessoas produzem”. Esse argumento é muito raso.

 

Como é que eu posto uma foto no meu perfil e o algoritmo é tão bom para identificar o meu rosto em instantes, mas o algoritmo não é calibrado para detectar violência? Como um vídeo começa a viralizar e não tem um gatilho que sinalize aos responsáveis sobre o seu conteúdo?

 

O Facebook tem tecnologia suficiente para evitar que esses vídeos de conteúdo violento ganhem alcance?

Como é que eu posto uma foto no meu perfil e o algoritmo é tão bom para identificar o meu rosto em instantes, mas o algoritmo não é calibrado para detectar violência? O fato de uma live como essa ter acontecido com uma vitalização tão grande nos faz refletir sobre os processos do Facebook. As plataformas se isentarem da responsabilidade é, no mínimo, uma ingenuidade. Como um vídeo começa a viralizar e não tem um gatilho que sinalize aos responsáveis sobre o seu conteúdo? O Facebook diz que está com mais de 7 mil funcionários dedicados a identificar fake news e discursos extremos na rede. O vídeo da Nova Zelândia ficou no ar por uma hora. Nenhuma dessas pessoas viu uma hashtag com impacto mundial viralizar dessa forma? São perguntas que o Facebook vai ter que responder.

 

Esse caso aumenta a pressão sobre o negócio de Mark Zuckerberg? 

O Facebook vem enfrentando pressão desde o caso da Cambridge Analytica. Esse caso expôs um muro que o Facebook deveria respeitar. Faz muito sentido compartilhar informação com uma plataforma se ela vai te trazer algo em troca. Mas se ela comercializa essa informação, eu não sei para onde essa informação está indo. É um visível conflito de interesse por parte da empresa. E claro, o caso do vídeo do atentado pode não ter o mesmo viés, mas é mais um escândalo que atinge o Facebook em um curto espaço de tempo.

Nos EUA, já existem políticos que defendem que onde houver conflito de interesses, essas empresas precisam ser repartidas. Se tem um business do Facebook que é ser uma rede social, ok. Mas se tem um business que é vender dados, elas não deveriam estar no mesmo bolo. Como eu coleto informações de crianças para depois vender para uma empresa que pode explorar isso comercialmente?

 

Estamos caminhando para uma regulamentação maior sobre essas empresas?

A internet é uma coisa muito nova. Colocando em perspectiva, chegou na vida do brasileiro há 20 anos. Em termos tecnológicos, isso é muito recente. Então esses dilemas morais também são bastante novos. Nós estamos caminhando para entrar nesses debates de maneira mais profunda, e isso vai trazer mais limites. Acho que estamos vivendo o fim da inocência da internet, o fim da ingenuidade em relação aos impactos da internet.