Sie sind auf Seite 1von 3

Como Zuckerberg trata usuários do Facebook como ratos de laboratório

Por Renan Truffi — Revista Carta Capital - 07/07/2014

Sem qualquer aviso ou pedido de permissão, o Facebook, maior rede social ativa hoje,
decidiu manipular o conteúdo visto por cerca de 700 mil usuários durante uma semana. Em
uma espécie de experiência científica, a empresa expôs as pessoas selecionadas a diferentes
mensagens e analisou suas reações. [...] A maior preocupação é: pode uma empresa
influenciar as emoções da sociedade e manipulá-las impunemente?

[...] O experimento foi feito em 2012, quando a companhia de Mark Zuckerberg quis
analisar se o conteúdo gerado pelos amigos de alguém poderia levá-los a deixar de usar a rede
social. Para isso, examinou 3 milhões de postagens com mais de 120 milhões de palavras. O
conteúdo foi, então, classificado em duas categorias: “positivo” e “negativo”. Depois disso,
por meio de um algoritmo, um conjunto de regras que define o que uma pessoa vai ver ao
acessar a rede, a empresa expôs as publicações “positivas” apenas para uma parcela das
pessoas, e as “negativas” para o restante.

Na prática, isso quer dizer que, durante o período, as pessoas do grupo “positivo” só
tinham acesso a textos que o Facebook considerou como tal. Mensagens tidas como negativas
foram omitidas.

Responsáveis pelo estudo, [...] descobriram depois de sete dias que os destinatários de
apenas mensagens “positivas” tinham comportamento emocional similar. Já o grupo que leu
somente as demais postagens publicou textos, ou compartilhou assuntos, com palavras
igualmente negativas.

“Esses resultados indicam que as emoções expressas pelos outros no Facebook podem
influenciar nossas próprias emoções, [...]”, explica o texto do estudo.

O experimento ainda conclui que mensagens que expressam emoções tendem a fazer
com que as pessoas continuem usando a rede social. Ou seja, se o “Feed de Notícias”, [...]
privilegia publicações de amigos que não têm conteúdo emocional, o usuário tende a perder o
interesse no Facebook.
[...]

“O Facebook retoma o modelo televisivo de uma forma diferente porque, ao contrário


da tevê, não produz conteúdo. A rede social reproduz de forma seletiva o que seus amigos
produzem. É um jogo muito perigoso do ponto de vista democrático. A seleção do que é visto
pode pautar o que a sociedade virá a debater”, argumenta.

A maior parte das críticas recaem, no entanto, sobre o fato de o Facebook não ter
consultado ou informado os usuários selecionados de que eles participariam de um
experimento. A rede social defende-se afirmando que toda pessoa que faz um perfil deveria
saber que essa possibilidade existe, dada a política de uso de dados do Facebook descrita no
momento da inscrição.

Entre os termos com os quais é preciso concordar para ser cadastrado está a afirmação
de que a rede social pode usar informações de usuários para “operações internas que incluem
correção de erros, análise de dados, testes, pesquisa, desenvolvimento e melhoria do serviço”.
Um trecho ainda avisa: “Podemos fazer sugestões de amigos, escolher histórias para seu Feed
de Notícias ou indicar pessoas para marcar nas fotos”.

[...]

Esse tipo de reação fez com que Kramer, um dos autores do estudo, se explicasse
publicamente. “Nosso objetivo é aprender a prestar um melhor serviço. Nosso objetivo nunca
foi afligir ninguém. Meus coautores e eu sentimos muito pela ansiedade causada”, lamentou
em perfil na rede social. Em nota, o Facebook informou que avalia as pesquisas que faz e que
esse processo é sempre reavaliado. “Não coletamos informações desnecessárias dos usuários
envolvidos nessas pesquisas e todos os dados são armazenados de forma segura.”

[...]

Ainda que aceitem a política de uso de dados do Facebook, os usuários brasileiros que
se sentirem lesados por práticas como essa podem buscar proteção no recém-aprovado Marco
Civil da Internet. De acordo com o advogado Fábio Pereira, há um inciso na lei a garantir que
esse tipo de experimento deve estar em destaque para o usuário, e não escondido no meio de
um longo texto. Cabe ver se a lei se aplicará também à bilionária rede social.
Vale anotar que o espírito crítico pode representar uma resistência eficaz. Mesmo que
o Facebook opte por calibrar o “Feed de Notícias” de cada usuário, esses não reagem apenas
como ratos de laboratório. “A pesquisa parte do pressuposto de que, em situações em que a
emoção está aflorada, o usuário não tem percepção sobre aquilo que publica. Mas essa
discussão está ausente”, opina Malini. “Se a pessoa reagir a um estímulo emocional, pode ser
reorientada e até mudar de percepção.”

Das könnte Ihnen auch gefallen