segunda-feira, 11 de maio de 2015

O facebook e as "bolhas ideológicas" de seus usuários



Nos últimos dias, uma matéria da Agência Efe, sobre um estudo feito pelos Cientistas sociais do facebook tem tido uma boa repercussão na imprensa. Foi feito um questionamento sobre o quanto o os algoritmos do facebook seriam responsáveis por manter os seus usuários fechados dentro de "bolhas ideólógicas".

Seguem abaixo alguns trechos de uma matéria do El País:
Embora ainda muita gente não saiba, o Facebook seleciona o que os usuários veem em seu mural. Um algoritmo filtra o que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe agrada ver e não enchê-lo com informações que não lhe interessem tanto. A dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando apenas com o que gostamos, criando uma bolha a nosso redor na qual não entra nada que desafie nosso modo de pensar. 
Depois de estudar mais de 10 milhões de usuários e sua interação com os links de notícias políticas, os cientistas do Facebook descobriram que a rede social é uma caixa de ressonância para nossas próprias ideias, com poucas janelas para o exterior. Assim, de todos os links vistos pelas pessoas que se consideram progressistas, apenas 22% desafiam sua forma de pensar. Os conservadores veem cerca de 33% de notícias que não correspondem com sua ideologia. [...]
Sem a intervenção do algoritmo, os progressistas teriam visto 24% de notícias incômodas e, os conservadores, 35%. [...]
Um dos pontos fracos do estudo é que são analisados apenas os usuários dos EUA que definiram sua posição ideológica em uma seção do Facebook [...] e deixa dúvidas sobre o comportamento dos usuários que têm ideologia, mas não a selecionaram em seu perfil. [...]
Em meados de 2014, o Facebook divulgou outro de seus estudos [...] que gerou uma polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários, mostrando-lhes mais mensagens negativas ou positivas de seus contatos, para verificar se havia certo contágio na forma de expressão. Em grande parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.
Matéria da Agência EFE publicada em El País (08/05/2015)
Como essa e outras matérias já mostraram, o facebook possui um algoritmo que seleciona quais seriam as postagens que provavelmente o usuário gostaria mais de ler e as apresenta em prioridade a outras que certamente o usuário não gostaria de ver.

Essa é uma forma de tentar criar o ambiente mais interessante possível para cada usuário individualmente. 

Se ele curte e compartilha com frequência as postagens de uma página ou perfil, verá com mais frequência essas postagens do que outra pessoa que jamais interage com elas.

Quanto à questão da "bolha ideológica", acredito que ela seja criada muito mais pelos próprios usuários do que pelos algoritmos do facebook.

Um internauta petista (admirador do Partido dos Trabalhadores) tende a interagir muito mais com postagens elogiosas ao governo federal do que com postagens fazendo denúncias de corrupção contra o mesmo, assim como interage mais com outras pessoas que pensam parecido com ele. Um internauta que acredita que o governo é muito corrupto tende a interagir muito mais com postagens críticas ao governo e com pessoas que são opositoras ao mesmo.

Vários dos meus contatos no facebook já me excluíram ou bloquearam de seus perfis pelo simples fato de eu fazer comentários discordando de suas postagens. Não é pequena a quantidade de militantes políticos, de esquerda e de direita, filiados a partidos ou não, que não admitem contestação às suas idéias.

O facebook é parecido com a TV. Você vai receber diversos canais para assistir, mas só vai assistir aquilo que lhe interessa.

O que realmente gera um certo temor é o fato desse sistema ser realmente capaz, caso os seus donos desejem, de manipular o que seus usuários vêem e portanto as suas emoções. 

Eles poderiam, por exemplo, por alguns milhões de dólares, ajudar algum candidato a criar uma imagem favorável perante os eleitores de sua região, mostrando 25% mais links positivos sobre o candidato e 25% mais links negativos sobre o opositor na linha do tempo desses eleitores. Quem conseguiria detectar algo assim? Quem poderia impedí-los de fazer isso? Talvez até já o façam e não sabemos.

_____________________________________________

Se gostou deste tema. Leia Também

Documentário Vítimas do facebook
O documentário "Vítimas do facebook" do canal GNT mostra vários casos de pessoas que tiveram sua vida bastante modificada por conta de alguma postagem que fizeram no facebook.... Mais informações »

0 comentários:

Postar um comentário