OPINIÃO
03/07/2014 15:01 -03 | Atualizado 26/01/2017 20:51 -02

Facebook: Sorria, você pode estar em um experimento!

.
Guangdong, China - Feb 02: Facebook website Initial public offerings (IPO) for financing 5 billion dollars, but this website still could not accessed over China, Feb 02, 2012 in Guangdong, China.

Tornou-se público nos últimos dias que o Facebook fez, secretamente, alguns experimentos com seus usuários. Durante o período de uma semana em Janeiro de 2012, usuários da rede social fizeram parte de um estudo que investigava como a exposição a emoções positivas ou negativas afetavam o conteúdo do que esses usuários posteriormente postavam. O estudo foi feito em parceria com professores da Universidade de Cornell e Califórnia em San Francisco e envolveu cerca de 689 mil usuários.

Quais as conclusões do experimento?

O artigo com o resultado do experimento foi publicado na última edição da PNAS, a revista da Academia Nacional de Ciências dos EUA. Os autores acharam evidência no experimento de que existem algum grau de contágio emocional entre as pessoas mesmo sem interação física, puramente via expressões verbais na rede. O gráfico abaixo mostra os resultados do experimento. Veja que os usuários que estavam no tratamento em que os posts com conteúdo emocional positivo no feed de notícias foram reduzidos (barras da direita), as atualizações de status dessas pessoas tiveram um percentual de palavras negativas relativamente maior. O contrário aconteceu com as atualizações de status do subgrupo que teve conteúdo negativo no seu feed de notícias reduzido. O artigo completo pode ser visto aqui.

2014-07-02-facebook_experiment_economistax.png

Violações éticas?

A questão agora é: o Facebook violou as regras do "Termos de Uso" que seus usuários "assinam" ao aderir à plataforma? A resposta é não. Vejamos o porquê.

Há alguns princípios fundamentais que pesquisas com seres humanos, como essa do Facebook, devem seguir. Dois deles são importantes para entender se o estudo do Facebok representa uma violação ética:

(1) Princípio do respeito: solicitação de consentimento, divulgação aos participantes da natureza da pesquisa; certificação de compreensão e respeito à natureza voluntária da decisão de participar.

(2) Princípio da beneficência: minimizar riscos e tentar maximizar benefícios dos "subjects" participantes.

Na seção "Como usamos as informações que recebemos", o Facebook deixa claro que, ao aderir aos termos de uso da rede, o usuário está consentindo com o uso de dados para fins de pesquisa. Essa sessão deixa claro os vários usos que podem vir a ser feitos com seus dados.

Códigos éticos de conduta em pesquisas experimentais frequentemente estabelecem que o "consentimento informado" deve envolver a divulgação para os potenciais participantes (a) do procedimento de pesquisa, (b) do propósito e (c) dos riscos e benefícios potenciais envolvidos. É possível argumentar que o consentimento implícito na adesão aos "Termos e Uso"do Facebook não provê esse tipo de informação e que, portanto, o Facebook violou o "princípio do respeito". Mas aí entra uma complicação comum na questão da obtenção do consentimento: e se a divulgação dessas informações destruir a validade da pesquisa (por causa, por exemplo, do chamado "Hawthorne effect" -- segundo o qual, mudamos nosso comportamento quando sabemos que estamos sendo observados)?

Riscos mínimos

Quando a provisão de "consentimento informado" ameaça a validade do estudo, é comum que um consentimento mais fraco, que apenas indica aos participantes que eles podem estar participando de uma pesquisa -- como especificado nos Termos de Uso do Facebook --, seja aceitável desde que:

(1) a divulgação apenas parcial de detalhes da pesquisa seja realmente necessária para a consecução de seus objetivos científicos;

(2) não existem riscos aos participantes que sejam "mais do que mínimo" -- o que é geralmente interpretado como significando que a probabilidade de danos físicos e psicológicos ao participar do estudo não é maior do que aquela encontrada normalmente nas nossas atividades diárias.

(3) existem planos para divulgar os resultados aos participantes.

Sem culpa

Mesmo que os "Termos de Uso" do Facebook não configurassem consentimento informado "forte" o suficiente para experimentos desse tipo, é possível argumentar que a empresa ainda assim não cometeu nenhuma violação das normas de conduta que geralmente são requeridas para esse tipo de pesquisa porque a pesquisa claramente não envolve risco mais do que mínimo.

É possível fazer o ponto que o Facebook não tem informações médicas sobre seus usuários e que no meio desses 700 mil participantes houvesse "indivíduos vulneráveis" (deprimidos, suicidas, psicóticos etc), para os os quais a exposição a notícias emocionalmente negativas poderia "disparar" ações de consequências nefastas para si mesmo e para outrem. Mas essa parece uma conjectura de improvável veracidade dado que os filtros aplicados sobre o feed de notícias das pessoas nessa pesquisa envolviam simplesmente a omissão de posts com mais ou menos positividade emocional que entrariam no feed de notícias delas de qualquer forma. Seria difícil comprar, portanto, a tese de que isso expôs os participantes do experimento a algum risco que já não estivesse presente no uso da plataforma mesmo na ausência da intervenção experimental.

Por fim, os resultados foram divulgados e os usuários e o próprio Facebook podem agora se beneficiar desses resultados -- optando por "filtros emocionais" tanto de notícias quanto de conteúdo comercial que podem vir a serem criados. Não que potenciais benefícios da pesquisa justifiquem não obter o devido consentimento informado das pessoas que participam desse tipo de pesquisa, mas não me parece que os experimentos administrados pelo Facebook ofereçam risco que tornem anti-ético a não adoção de procedimentos mais detalhados de obtenção desse consentimento para além do que o usuário já é informado nos "Termos de uso" do serviço.

Declínio do Facebook?

Mesmo que não tenha cometido nenhuma violação ética e que administre experimentos todo o tempo em sua plataforma, o fato é que os usuários não ficarão felizes com a ideia -- agora mais pública do que nunca -- de que são "ratos de laboratório". Talvez a empresa deve-se adotar procedimentos para tornar mais explícito a participação em certos experimentos. Me parece que o risco de invalidar um ou outro estudo é mais aceitável e menos custoso do que se deparar com a crítica que agora recai sobre ela e os riscos de aumentar o que muitos dizem ser inevitável nesse ramo: o abandono dos usuários e eventual "morte" da plataforma.

Texto publicado originalmente no blog Economista X.

Acompanhe mais artigos do Brasil Post na nossa página no Facebook.


Para ver as atualizações mais rápido ainda, clique aqui.