16/04/2024 - Edição 540

Especial

A ditadura do algoritmo

Publicado em 11/06/2015 12:00 -

Clique aqui e contribua para um jornalismo livre e financiado pelos seus próprios leitores.

Todas as atitudes que tomamos em redes sociais como o Facebook e em buscadores como o Google se refletem em nossa experiência de interação nestes ambientes e em outros aplicativos que se utilizam deles como base de informação. Ao emitirmos nossa opinião em uma rede social, ao curtirmos determinado tema, pessoa ou evento, ao buscarmos determinado produto no Google, fornecemos a estas interfaces informações das quais eles se utilizam para determinar que tipo de informação nos interessa.

Ao final, ficamos cercados de pessoas mais parecidas conosco. E não vale só para a política. Se você subitamente se tornou um fã de Gabriel Medina e começou a ler mais sobre surfe na internet, deve ter percebido promoções de pranchas, fotos de mar e – veja só que coincidência – um anúncio de uma companhia de viagem te convidando a conhecer o Havaí.

É isso que faz um algoritmo – o código de programação por trás de redes sociais como o Facebook: tenta adivinhar quem você é, do que você precisa e com quem você gosta de conviver. Isso sem nunca deixar de afagar seu ego, de fazer você se sentir orgulhoso pelas suas opiniões mostrando-as mais a pessoas que concordam com você e escondendo das que discordam.

“Sempre digo, nas aulas, que as curtidas do Facebook não devem ser encaradas como sinais de positivo para alguém, mas como uma lanterna para iluminar o que queremos saber mais. Mas, para isso, teríamos de curtir coisas que não concordamos. Ou seja, curtir o que não curtimos”, avalia a professora Márcia Siqueira Costa, do curso de Mídias Sociais Digitais do Centro Universitário Belas Artes, de São Paulo.

Como numa receita, os algoritmos mostram o passo a passo de como uma tarefa é executada, seja no Facebook, no Google ou em qualquer outra rede social ou site de buscas. São eles que explicam por que certos anúncios são recomendados para um internauta, que resultados deverão aparecer quando uma busca é feita por ele, que notícias serão sugeridas e como se darão suas interações on-line. Compreender como esses ingredientes afetam cada um – inclusive em termos éticos – é o que a pesquisadora Karrie Karahalios, da Universidade de Illinois, entende como um direito legítimo.

Ao lado dos colegas Cedric Langbort, também de Illinois, e Christian Sandvig, da Universidade de Michigan, Karrie desenvolveu um aplicativo, o Feedvis, para mostrar o que o algoritmo do Facebook esconde a cada atualização de página: comentários, posts e likes de amigos. Construído a partir da Interface de Programação de Aplicativos (API) da rede social, o app dispõe as mensagens que um usuário vê normalmente em seu feed de notícias (e, portanto, com curadoria do algoritmo) lado a lado a todos os posts que seus amigos têm feito. Assim, o software permite tirar do limbo pessoas próximas cujos posts não estão sendo exibidos na linha do tempo.

Mais do que postagens escondidas, o app, ainda não lançado publicamente, revelou a discrepância entre a popularidade da criação de Mark Zuckerberg e o que a maioria dos usuários sabe sobre ela: 62,5% dos voluntários da pesquisa não tinham sequer conhecimento da filtragem do conteúdo que aparecia em seus perfis.

Para resolver esse paradoxo, Karrie e seus colegas defendem o que chamam de auditoria colaborativa. Por meio da experiência on-line, usuários compartilham impressões e hipóteses até descobrirem regras básicas que regem esses sistemas. “Não se trata de ativismo, mas de fazer perguntas, expressar sua opinião e fazer a diferença”, afirma.

“Muitas pessoas usam o Facebook hoje e fazem especulações sobre ele. O que descobrimos no estudo é que muitas dessas hipóteses não estão corretas. Uma das principais afirmações era que não havia sequer uma filtragem. Outras falavam sobre atividades fora do Facebook, mas, uma vez que não sabemos o algoritmo real por trás de filtragem do Facebook, só podemos especular que algumas das teorias são falsas”, afirma Karrie Karahalios.

Informação

Mês passado grandes jornais do mundo anunciaram que vão publicar notícias diretamente no Facebook. Isso confirma que a rede social mais popular do planeta está se convertendo também em “infraestrutura” para a disseminação de conteúdos. Curiosamente, dias antes do anúncio do pacto entre os jornais e o Facebook, o site havia publicado um estudo sobre o funcionamento do algoritmo que controla o que cada usuário vê em seu feed de notícias. O nome do documento é “Exposição a Notícias e Opiniões Ideologicamente Diversas no Facebook”.

O estudo tem várias limitações metodológicas, mas a conclusão é interessante. Ele apresenta evidências de que as fórmulas do site nos mostram mais notícias que refletem aquilo que pensamos e reduz nossa exposição ao que discordamos.

Se alguém é a favor da redução da maioridade penal, vai ver mais opiniões similares à sua do que contrárias. É um erro crasso achar que o que vemos na “timeline” do Facebook representa a opinião pública.

“Essa filtragem traz problemas. Quem se expõe apenas ao que pensa fica ainda mais convencido das próprias ideias. E se torna avesso a posições contrárias”, afirma Ronaldo Lemos, diretor do Instituto de Tecnologia e Sociedade do Rio e do Creative Commons no Brasil.

A questão é se esse viés seria culpa do algoritmo em si ou dos próprios usuários, que, por meio dos seus “likes”, ensinariam a rede social a privilegiar alguns conteúdos. Acadêmicos importantes, como a pesquisadora Zeynep Tufekci, apelidaram o estudo de “it’s not our fault” (não é nossa culpa), dizendo que a rede social estaria usando o documento para afirmar que a culpa do viés seria mais dos usuários.

O fato é que hoje 30% das pessoas nos EUA leem notícias apenas pelo Facebook. Com isso, faz sentido pensar sobre a importância de uma diversidade editorial. Algoritmos vieram para ficar. Mas não podem se tornar “filtro” para tudo. Quanto mais pluralidade de editorias, humanas e digitais, melhor para a esfera pública.

No caso de um jornal, pode-se discordar de sua linha editorial, mas ao menos ela é um dado objetivo e em geral visível. No caso de algoritmos, a linha editorial é invisível. Só que ela existe. Algoritmos não são neutros, como mostra o estudo recém-publicado. Sempre que você não gostar daquilo que leu no jornal, saiba que isso é bom para você.

Bolha ideológica

É a partir de seu algoritmo que o Facebook seleciona o que os usuários veem em seu mural. Ele filtra o que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe agrada ver e não enchê-lo com informações que não lhe interessem tanto. A dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando apenas com o que gostamos, criando uma bolha a nosso redor na qual não entra nada que desafie nosso modo de pensar.

Para dissipar dúvidas, os cientistas sociais do Facebook publicaram recentemente na revista Science o primeiro estudo que analisa a influência dessa fórmula que manipula os murais: a bolha ideológica existe, mas é mais culpa dos próprios usuários do que da programação de Mark Zuckerberg.

Depois de estudar mais de 10 milhões de usuários e sua interação com os links de notícias políticas, os cientistas do Facebook descobriram que a rede social é uma caixa de ressonância para nossas próprias ideias, com poucas janelas para o exterior. Assim, de todos os links vistos pelas pessoas que se consideram progressistas, apenas 22% desafiam sua forma de pensar. Os conservadores veem cerca de 33% de notícias que não correspondem com sua ideologia.

Sem a intervenção do algoritmo, os progressistas teriam visto 24% de notícias incômodas e, os conservadores, 35%. Ou seja, essa fórmula idealizada nos computadores do Facebook ajuda a reduzir a diversidade ideológica do mural dos usuários, mas não é a principal culpada. De acordo com o estudo, os usuários são os responsáveis por se fechar em suas próprias ideias: se não escolhessem suas amizades como o fazem, mas de forma aleatória, os progressistas veriam cerca de 45% de notícias contrárias às suas ideias, em comparação a 40% pelos conservadores.

Logicamente, o ambiente off line, as pessoas com as quais os usuários se relacionam fisicamente, tampouco é aleatório. Mas é muito mais difícil medir essa bolha ideológica na ruas do que nas redes sociais. A vasta quantidade de informação que uma empresa como o Facebook pode compilar sobre seus usuários (e os que não são) lhe permite medir a tendência dos que se fecham em grupos de pensamento mais ou menos isolados. Por exemplo, a probabilidade de clicar no mural em uma notícia favorável às próprias ideias — um eleitor do conservador Partido Republicano dos Estados Unidos ler uma notícia da Fox News— em relação a uma contrária é esmagadora.

Um dos pontos fracos do estudo é que são analisados apenas os usuários dos EUA que definiram sua posição ideológica em uma seção do Facebook — mais fácil de ser mostrada em lados opostos—, o que gera um viés significativo e deixa dúvidas sobre o comportamento dos usuários que têm ideologia, mas não a selecionaram em seu perfil. Para Pablo Barberá, que estuda a polarização das redes na Universidade de Nova York, os usuários estudados provavelmente têm uma rede de contatos mais homogênea no Facebook: “Se o estudo tivesse incluído todos os usuários, certamente observaríamos níveis ainda mais altos de exposição à diversidade de opiniões e um efeito maior dos algoritmos”.

A era dos algoritmos

“É um estudo na defensiva”, explica Esteban Moro, especialista em redes sociais da Universidade Carlos III. “O Facebook tem um problema de imagem, por causa dos algoritmos que filtram a informação que vemos e queria demonstrar que o filtro algorítmico não tem tanta influência como o filtro social”, resume o pesquisador.

Vivemos na era dos algoritmos. O que nos é mostrado nos resultados do Google, no mural do Facebook ou em outras plataformas é decido por uma fórmula cada vez mais complexa que seleciona o melhor para satisfazer os interesses do usuário e da empresa. No entanto, ainda há muitos os que pensam que veem o que existe e não o que o algoritmo acredita que devem ver. Mas não é assim: em função da interação dos usuários com os amigos e atividade, o Facebook define seus interesses e mostra o que provocará mais interação, para que permaneçam mais tempo na rede e, deste modo, gerem mais receita para a empresa.

Este ciclo de retroalimentação despertou o interesse do ativista Eli Pariser, que publicou em 2012 um livro chamado Filter Bubble (A Bolha dos Filtros), referindo-se ao efeito do algoritmo em nossas vidas: ao buscar “Egito” no Google, alguns usuários recebem informações sobre revoltas e, outros, apenas sobre férias nas pirâmides, tudo em função de seu comportamento prévio.

Em meados de 2014, o Facebook divulgou outro de seus estudos — publicados regularmente sobre o comportamento na rede— que gerou uma polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários, mostrando-lhes mais mensagens negativas ou positivas de seus contatos, para verificar se havia certo contágio na forma de expressão. Em grande parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.

Não é algo que faça questão de esconder, muito pelo contrário: o Facebook gaba-se de influenciar de forma notável a participação eleitoral em todo mundo, depois de arrastar às urnas cerca de 340.000 pessoas que não tinham intenção de votar nas legislativas dos EUA.

Nesse cenário, os cientistas da empresa comandada por Zuckerberg mostram que o contágio social ou a bolha ideológica que se forma em sua rede social é semelhante ou mais moderada à que se produz off line. De fato, já em 2012, havia publicado um estudo que negava que a bolha fosse tão grave, mas naquela ocasião o importante era diminuir a culpa do algoritmo.

A pesquisa preliminar de Barberá e este estudo destacam que as redes sociais poderiam ser um mecanismo para receber informação diferente da habitual. “Por exemplo, um eleitor de direita que apenas vê Antena 3 e lê La Razón [jornal ultraconservador da Espanha] poderia ser exposto pela primeira vez a um conteúdo com um viés de esquerda compartilhado por seus contatos no Facebook”, explica Barberá.

No entanto, esse é outro ponto fraco deste último estudo da equipe do Facebook, como lamenta Moro, da Carlos III. “O problema é que não compara com nada. Não podemos saber se o que ocorre é pior ou melhor fora do Facebook.”


Voltar


Comente sobre essa publicação...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *