Como as notícias falsas driblam algoritmo do Facebook

Ao promover a ferramenta "Trending", segundo especialistas, o Facebook está criando uma situação em que, no futuro, a disseminação de informações falsas ocorrerá em proporções nunca vistas.

ThinkStock / Facebook

O Facebook apostou alto — e, de acordo com especialistas, de forma leviana — ao crer que um algoritmo poderia ser capaz de conter a grande onda de informações falsas que a rede social leva aos seus usuários.

A plataforma, na qual 44% dos americanos buscam informações, promoveu nos EUA, por meio da nova ferramenta "Trending", informações satíricas (como um boato absurdo de que a Siri pularia dos iPhones como uma mulher de verdade) até a teoria conspiratória de que o ex-presidente George W. Bush e o atual presidente Barack Obama manipularam a eleição de 2008. O Facebook está se preparando para estender o Trending para todos os seus mais de 1,7 bilhão de usuários, mas cientistas da computação dizem que a atual abordagem da empresa não é párea para as mentiras que viralizam.

"A detecção automática de informações falsas e o processo para discriminar o verdadeiro do falso são problemas muito complicados", diz Fil Menczer, cientista da computação da Universidade de Indiana, nos EUA, que está conduzindo um projeto para identificar automaticamente memes e informações falsas que viralizam. "Estamos bem distantes de resolver isso."

Publicidade

Fil Menczer

Três pesquisadores disseram ao BuzzFeed News que o Facebook piorou algo que já estava difícil ao demitir a equipe de edição do Trending.

Kalina Bontcheva lidera o projeto europeu PHEME, que busca computar a veracidade dos conteúdos das redes sociais. Segundo ela, reduzir a quantidade de supervisão humana para o Trending aumenta as chances de falhas e o algoritmo pode ser enganado pelas pessoas. "As pessoas sempre vão tentar ser mais espertas que os algoritmos — já vimos isso com a otimização das ferramentas de busca", disse.

Menos supervisão humana significa mais dependência do algoritmo, o que cria novas preocupações, de acordo com Kate Starbird, professora-assistente da Universidade de Washington, EUA, que tem usado o aprendizado de máquina e outras tecnologias para avaliar a precisão dos rumores e das informações durante crises e momentos de breaking news, como o atentado à bomba à Maratona de Boston.

Levando o Trending a nível global

O comprometimento abrupto do Facebook com seu algoritmo está ligado à reação da empresa sobre uma controvérsia política. Em maio, o Gizmodo publicou que alguns dos editores humanos que ajudavam a selecionar os tópicos e as notícias para o Trending tinham o "hábito de abafar" notícias que poderiam ser relevantes para o público mais conservador. Três meses depois, a empresa demitiu os editores.

Dois dias depois da demissão, uma notícia falsa sobre Megyn Kelly ter sido demitida da Fox News chegou à lista de trending. Depois, uma teoria de conspiração sobre o 11 de setembro viralizou. Pelo menos cinco histórias falsas foram promovidas pelo algoritmo Trending durante um período recente de três semanas, segundo análise do jornal The Washington Post. Depois disso, uma conspiração relacionada a 2008 viralizou.

Publicidade

Facebook

O Facebook agora tem uma "equipe de revisão" trabalhando no Trending, mas as novas diretrizes requerem que haja menos supervisão editorial humana do que havia na equipe anterior. Um porta-voz do Facebook disse ao BuzzFeed News que há mais controle de qualidade do que edição. Os revisores devem, no entanto, verificar se a manchete do artigo que está sendo promovido é um clickbait, hoax ou contém "informações comprovadamente falsas". No entanto, hoaxes ou notícias falsas continuam a enganar os algoritmos e os revisores.

Os executivos do Facebook estão cientes que o algoritmo Trending atual e seu produto não são tão bons quanto deveriam ser. Mas a empresa também deixou claro que pretende lançar o Trending internacionalmente em outros idiomas. Ao atingir nível internacional, o Facebook está criando uma situação em que, em algum momento do futuro, as falhas do Trending ocorrerão em proporções jamais imaginadas na história da comunicação humana. Histórias falsas e outros conteúdos duvidosos podem chegar às pessoas mais rápido do que nunca.

Para o Trending se tornar um produto global e confiável, é preciso levar em conta que existe o enviesamento e a mentira deliberada. Em outras palavras, para dar certo, o algoritmo Trending precisa ser melhor do que a própria plataforma que o criou. Isso porque as notícias falsas já estão poluindo o feed de notícias organicamente. Uma recente análise do BuzzFeed News sobre páginas do Facebook que são altamente tendenciosas constatou que 38% das postagens em páginas conservadoras e 19% das postagens em páginas liberais continham informações falsas ou enganosas.

O desafio do Facebook em relação às notícias falsas tem sua origem nos usuários da plataforma, ou seja – nós. Os humanos abraçam as narrativas que se encaixam em suas tendências e preconceitos, clicando e compartilhando essas informações.

Mark Zuckerberg reconheceu isso em uma postagem do Facebook. "As pesquisas mostram que todos temos tendências psicológicas que nos fazem filtrar as informações que não se encaixam no nosso modelo de mundo", escreveu.

O Facebook depende, em primeiro lugar, do que os humanos estão fazendo na rede para treinar o algoritmo Trending. A empresa pode ter dispensado seus editores, mas nós humanos ainda estamos mandando sinais tendenciosos ao algoritmo, que, por sua vez, reproduz em ainda maior escala essas tendências aos outros humanos. As histórias falsas continuam viralizando porque as pessoas do Facebook continuam lendo, curtindo e compartilhando essas informações.

Para o algoritmo, uma teoria de conspiração sobre o 11 de Setembro vale ser promovida porque as pessoas estão lendo, compartilhando e reagindo à informação. A plataforma promoveu a falsa história sobre Megyn Kelly porque as pessoas estavam se envolvendo com a falsa notícia.

O BuzzFeed News analisou mais de mil postagens de páginas tendenciosas do Facebook e concluiu que os conteúdos falsos ou enganosos que reforçam as crenças provocaram mais interação do que os conteúdos verídicos. A internet e o Facebook estão sendo constantemente inundados com mentiras porque isso gera tráfego e envolvimento.

Publicidade

Facebook

A realidade está em conflito com a visão otimista do Facebook de que seus usuários irão compartilhar a verdade. Cada vez mais dados mostram que é o oposto que está acontecendo. "Há um problema com as pessoas da geração dos meus pais que... estão sendo sobrecarregadas com informações que podem ou não ser verdade. Elas não sabem a diferença", disse Starbird. "E, cada vez mais, isso atinge todos nós."

O fato do próprio Trending do Facebook ficar promovendo notícias falsas é a maior evidência de que esse tipo de conteúdo se sobressai no Facebook. Um algoritmo Trending confiável teria que achar uma forma de limar conteúdos duvidosos.

Como treinar seu algoritmo

Para que um algoritmo possa localizar um tópico viral válido e descartar informações falsas ou inválidas, é preciso treiná-lo. Isso significa que é preciso alimentá-lo constantemente com dados e mostrar como esses dados devem ser interpretados. Isso se chama aprendizado de máquina. Sua aplicação no mundo das notícias e em discussões em redes sociais é relativamente nova.

Algoritmos são treinados usando dados antigos. Esses dados antigos ajudam a treinar a máquina para o que deve ser buscado no futuro. Uma fraqueza inevitável é que o algoritmo não é capaz de prever como qualquer novo rumor, hoax, notícia, história ou tópico será.

"Se o hoax do momento é muito similar a um antigo, certamente o algoritmo será capaz de capturá-lo", diz Bontcheva. "Mas, se for algo muito diferente do que foi previamente registrado, então, será mais difícil."

Publicidade

@kerrymflynn / Twitter

Como uma forma de considerar os dados imprevisíveis e o enviesamento dos usuários, o Trending costumava depender de editores humanos e da imprensa. Ao considerar um tópico em potencial, os editores do Facebook tinham que verificar "se o tópico é uma notícia nacional ou manchete global que está sendo divulgada pela maioria ou pelos dez maiores canais de mídia". Uma das tarefas deles também era escrever descrições para cada tópico. As descrições deveriam conter fatos "comprovados através de ao menos três canais de mídia de uma lista de mais de mil", de acordo com uma declaração do Facebook. As diretrizes da equipe de revisão não incluíam qualquer um desses processos.

O algoritmo também utilizava uma grande lista de feeds RSS de canais de mídia respeitáveis para poder identificar manchetes e notícias de última hora para poder incluir em tópicos. Um porta-voz do Facebook disse ao BuzzFeed News que o algoritmo não usa mais feeds RSS para buscar possíveis tópicos.

O Facebook diz que continua a aprimorar o algoritmo e parte do trabalho envolve aplicar algumas das abordagens no Feed de Notícias para reduzir clickbaits e hoaxes. "Nós gastamos muito tempo no Feed de Notícias para reduzir a prevalência de histórias falsas e hoaxes", disse Adam Mosseri, chefe do Feed de Notícias em um evento do TechCrunch.

Publicidade

Kate Starbird

Bontcheva e outros disseram que o Facebook precisa encontrar formas de garantir que só sejam promovidos tópicos e artigos que tenham um conjunto diversificado de pessoas falando a respeito. O algoritmo deve ser capaz de identificar que "a informação é interessante e parece válida para um grande grupo de pessoas diferentes", diz Starbird. É preciso evitar tópicos e históricas que só estão circulando entre "um grupo pequeno e isolado".

Não é suficiente que um tópico ou história seja popular – o algoritmo deve entender o que está viralizando e se as pessoas de diferentes grupos de amigos estão se envolvendo com o tópico e o conteúdo.

Isso significa ter um algoritmo Trending que possa reconhecer linhas ideológicas.

O algoritmo Trending leva em conta se um tópico em potencial está sendo discutido entre uma grande quantidade de pessoas e se essas pessoas estão compartilhando mais de um link sobre o assunto, de acordo com um porta-voz do Facebook.

Uma solução subótima?

Com o tempo, esse algoritmo pode aprender se os usuários estão propensos a discutir e compartilhar informações que são relevantes apenas para um grupo restrito de pessoas. O algoritmo também deverá ver quais websites e fontes de notícias estão produzindo conteúdos que não se movem entre grandes fluxos de usuários. Para continuar melhorando, o algoritmo terá que coletar e armazenar dados sobre pessoas e websites e terá que atribuir "pontuações de confiança" de acordo com o que for aprendendo, segundo Bontcheva.

Sim, isso significa que, ao longo do tempo, o Facebook pode começar a classificar a confiabilidade e o apelo geral das informações com as quais você interage, assim como a confiabilidade e o apelo geral das histórias de websites e outras fontes.

Isso levaria a todos os tipos de perguntas: Se o Facebook considerar que você é uma fonte não confiável de tópicos virais e informações, ele deveria revelar isso a você, assim como faz com as suas preferências de propaganda? Os sites de notícias deveriam ser capazes de ver como o algoritmo interpreta eles a qualquer momento?

Publicidade

Facebook / Via Facebook: ads

A Página de Preferências do Facebook Ad.

Também há a questão fundamental sobre a supressão de informação e a supressão de editores humanos.

"Anteriormente, os editores foram acusados de serem tendenciosos, mas, se o Facebook começar a construir algoritmos capazes de remover esses hoaxes, então, não será o algoritmo o próprio acusado de ser tendencioso, propagandista e de ter planos ocultos?", disse Bontcheva.

Um porta-voz da empresa disse que o algoritmo Trending atual leva em conta quanto as pessoas tem se envolvido com uma fonte de notícias ao escolher quais tópicos e artigos devem ser destacados. Mas eles destacaram que essa forma de classificação não é permanente e leva em conta apenas no envolvimento das últimas semanas. Uma lista permanente preta ou branca de fontes não será mantida para o Trending. A empresa também disse que as histórias selecionadas em destaque para um tópico específico são, geralmente, as mesmas histórias que estão no topo das buscas do Facebook para aquele tópico ou termo, o que significa que a seleção foi feita por um algoritmo.

Agora, considere o que pode acontecer se, por exemplo, houver uma discussão sobre vacinas acontecendo em larga escala. Talvez o algoritmo veja que está ocorrendo envolvimento suficiente para viralizar esse tópico, e talvez a história principal seja de um site ou blog anti-vacinas. O algoritmo pode por esse tópico e a história na fila de revisão. O revisor poderia promover um tópico com essa história? Ele reconheceria que o argumento anti-vacinas vem de "informações comprovadamente falsas" e eliminaria o tópico e a história? Ou ele promoveria o tópico, mas com uma história diferente?

Essas decisões são comuns para editores, mas o Trending não tem mais nenhum deles. Considerando as falhas recentes, é impossível prever o que acontecerá nesse cenário.

"Uma decisão subótima é suficiente? E quais as suas consequências?" pergunta Starbird. "E nós, como sociedade, estamos bem com isso?"

Publicidade

Veja também