Sie sind auf Seite 1von 2

Folha de S.

Paulo
29/10/2012 03h36

Na vida digital, cada vez mais intermediários


Evgeny Morozov (Tradução de Paulo Migliacci)

A "desintermediação" costuma ser louvada como traço definidor da era digital. Graças a inovações
tecnológicas, os intermediários de toda ordem estariam supostamente a caminho da extinção. E quando
os editores, as organizações editoriais e as livrarias desaparecerem, assim propõe a teoria, nossa vida
pública estará livre de suas distorções, ineficiências e agendas ocultas. Para citar Jeff Bezos, da Amazon -
o maior dos matadores de intermediários -, "até mesmo os mais bem-intencionados desses controladores
de acesso retardam a inovação.
Quando uma plataforma funciona como self-service, até mesmo as ideias mais improváveis serão
testadas, porque não existe um especialista controlando o acesso e dizendo que 'isso jamais funcionará'".
Mesmo que Bezos esteja certo, ele desconsidera um aspecto importante dessa história: a digitalização de
nossa vida pública também está criando muitos novos intermediários, a maioria dos quais da variedade
invisível – e, portanto, suspeita.
Considere os blogs. Quando a primeira geração de blogs surgiu na Internet, no final dos anos 90, os únicos
intermediários que seus autores tinham de usar eram a companhia de hospedagem do blog e o provedor
de acesso à Internet. Uma pessoa que crie um blog em 2012 provavelmente vai terminar em uma
plataforma comercial como o Tumblr ou o WordPress, e todos os comentários do blog serão
administrados por meio de um provedor terceirizado como a Disqus. E os intermediários não ficam por
aí: a Disqus coopera com uma empresa chamada Impermium, que utiliza diversos sistemas de
aprendizado mecânico para determinar se os comentários postados são ou não spam. Foi a proliferação -
não a eliminação - de intermediários que tornou os blogs tão onipresentes; portanto, o termo correto
nesse caso seria "hiperintermediação", e não "desintermediação".
A Impermium também alega ter desenvolvido tecnologia para identificar não só spam e links nocivos,
mas toda espécie de conteúdo prejudicial – a exemplo de violência, racismo, linguagem chula e expressões
verbais de hostilidade –, e permite que os proprietários de sites ajam em tempo real para bloquear essas
comunicações antes que cheguem aos leitores. A companhia diz ter 300 mil sites como clientes. É, isso
mesmo: uma única companhia sediada na Califórnia decide o que é linguagem agressiva e chula para 300
mil sites, sem que ninguém avalie se os algoritmos que ela emprega para tanto são distorcidos ou
excessivamente conservadores.
O modelo da Impermium é interessante por acrescentar um aspecto "big data" ao processo de rotular
alguma coisa como spam ou agressão verbal. No passado, alguém que mencionasse a palavra "Viagra" em
um post ou comentário de blog seria bloqueado de imediato; a Impermium alega que, ao aproveitar os
dados de usuários obtidos junto aos seus 300 mil sites clientes, ela é capaz de distinguir entre piadas sobre
Viagra e spam sobre Viagra.
Isso pode parecer libertador: tomar decisões moderadoras que levem em conta o contexto pode salvar
algumas piadas de censura. Mas em outras circunstâncias, esse casamento entre o uso maciço de dados e
a moderação automatizada de conteúdo poderia ter um lado mais sombrio, especialmente em regimes
não democráticos, para os quais os quais uma guerra contra o spam – travada com a ajuda de empresas
nacionais de tecnologia – seria apenas pretexto para suprimir as opiniões dissidentes. Nas mãos desses
regimes, uma solução como a da Impermium permitiria sintonia fina da censura, eliminando as lacunas
que afligem os sistemas "burros" que censuram em massa.
Os blogs da China, por exemplo, costumam empregar eufemismos e alusões para contornar os algoritmos
de censura. Uma expressão aparentemente inócua como "caranguejo de rio" pode ser usada para
substituir "censura à Internet", e "terapia de férias" já foi empregado para descrever a detenção de
funcionários do governo. Sem censura - porque os blogs não empregam termos nobres como "direitos
humanos" ou "democracia" – essas expressões logo se tornam tema de debate sobre a política chinesa.
Com a ajuda da análise maciça de dados, o software de moderação de conteúdo pode verificar a frequência
relativa de uso dessas expressões em outros sites populares, e os comentaristas que as empregam – quem
são seus amigos? Que outros artigos eles comentaram? –, a fim de identificar eufemismos suspeitos. Ou
podem identificar a origem geográfica de alguns desses posts; imaginem as novas possibilidades de
censura abertas quando as decisões de moderação puderem incorporar dados de localização geográfica
(o que alguns pesquisadores já definem como "big data espacial"). Por que não bloquear os comentários,
vídeos e fotos subidos por usuários localizados, digamos, na praça Tahrir ou outro local politicamente
explosivo?
Ou os autocratas poderiam se provar ainda mais astutos e tomar o controle de conteúdo que considerem
ameaçador, em lugar de bloqueá-lo. Depois dos levantes da Primavera Árabe, pessoas que postassem
comentários críticos sobre o Bahrein ou Síria no Twitter logo recebiam réplicas zangadas de pessoais leais
ao governo - ou, mais provavelmente, de bots programados para isso. Da mesma forma, ativistas tibetanos
lamentam que diversos hashtags relacionados à causa do Tibete, no Twitter – especialmente #tibet e
#freetibet – tenham passado a atrair tanto spam criado por bots que deixaram de ser úteis.
Tecnologias novas do segmento de big data podem tornar mais precisas essas formas de propaganda. Para
os governos, a próxima fronteira é aprender como identificar, esvaziar e distorcer os novos temas de
debate público antes ainda que eles sejam aglutinados em torno de um hashtag chamativo – é quanto a
isso que as ferramentas analíticas do big data são mais úteis. Assim, uma das agências russas de segurança
recentemente abriu concorrência para a criação de bots que acompanhem a ascensão de temas de debate
e os combatam em tempo real, por meio da "distribuição em massa de mensagens em redes sociais, com
o objetivo de influenciar a opinião pública". Moscou está aprendendo com Washington, onde no ano
passado o Pentágono concedeu a uma companhia de San Diego um contrato de US$ 2,7 milhões para criar
software que permita criar múltiplas identidades falsas online e "combater a propaganda inimiga
extremista e violenta fora dos Estados Unidos". Os recursos analíticos acionados pelos serviços de big
data tornam muito mais fácil detectar essa "propaganda inimiga".
Por que alguém se incomodaria em desenvolver essas táticas dada a dificuldade que um bot – que dispõe
de poucos contatos e um histórico irrelevante de tweets – encontraria para convencer seres humanos?
Para começar, persuasão pode não ser o objetivo. Alguns bots existem apenas para dificultar a descoberta
de informação fatual oportuna sobre, digamos, protestos políticos em curso. Todo esse investimento em
bots talvez tenha funcionado para o Kremlin: nos protestos que se seguiram às contestadas eleições
legislativas de dezembro de 2011, o Twitter estava repleto de contas falsas que tentavam soterrar os
hashtags mais populares com informações irrelevantes. Um estudo recente alega que das 48.646 contas
de Twitter que participaram de discussões sobre as eleições russas contestadas, 25.860 - mais de metade!
– eram bots, que postaram 440.793 tweets sobre o tema.
Segundo, os bots podem acrescentar lastro numérico a temas de debate que já vem sendo promovidos
por pessoas conhecidas, a fim de conduzi-los ao topo da tabela viral. Na campanha eleitoral mexicana
deste ano, o Partido Revolucionário Institucional (PRI), cujo candidato venceu, foi acusado de programar
milhares de bots para enviar tweets de palavras e frases específicas com o objetivo de conduzir os temas
que interessavam à agremiação à lista de "trending topics" do Twitter. Mas o PRI também fez um bom
trabalho ao convencer seus membros a escrever sobre esses temas. Uma de suas campanhas propunha
que todos escrevessem sobre um determinado hashtag ao mesmo tempo. É por meio dessas combinações
de esforço humano e bots que os temas de debate se estabelecem.
Terceiro, os mais inteligentes dos bots podem servir a outra função interessante: podem apresentar
pessoas umas às outras, por exemplo ao mencionar os nomes de usuário de duas delas no mesmo Tweet.
Uma experiência conduzida em 2011 pela PacSocial, uma companhia de ferramentas analíticas cujo foco
são os bots, revelou que bots podem criar conexões reais entre usuários. Na experiência da empresa, o
índice de conexão cresceu em 43% (ante o período de base, no qual os bots estavam inativos). Assim, com
a dose correta de manipulação, um bot pode convencer alguém a seguir a pessoa "certa" - e seria essa
pessoa, e não o bot, que influenciaria seu pensamento.
A digitalização aumentará, e não reduzirá, o número de intermediários em nossa vida pública. Não há
nada de inerentemente malévolo nesses intermediários, se recordamos que é preciso mantê-los sob
controle. Assim, em lugar de celebrar o mítico nirvana da desintermediação, deveríamos estudar as caixas
pretas dos algoritmos de spam e dos bots de propaganda. O nível do debate público talvez seja
determinado pelos temas de debate, mas não devemos esquecer que nem todos os temas de debate foram
criados naturalmente – alguns surgem naturalmente, e outros são resultado de um planejamento
inteligente e insidioso.

Das könnte Ihnen auch gefallen