Uma nova pesquisa que analisou o Facebook no período que antecedeu a eleição de 2020 encontrou poucas evidências que sugerem que os algoritmos de mídia social são os culpados pela polarização política, pelo extremismo ou pela crença na desinformação. As descobertas fazem parte de um projeto no qual o Meta abriu seus dados internos para pesquisadores acadêmicos. Os resultados dessa colaboração serão divulgados em 16 artigos, sendo que os quatro primeiros acabaram de ser publicados nas revistas Science e Nature.
Um dos estudos descobriu que mudar os usuários de um feed algorítmico para um feed cronológico reverso – algo sugerido por muitos inimigos da mídia social como a coisa responsável a fazer – na verdade levou os usuários a ver mais conteúdo político e mais desinformação em potencial. A mudança fez com que os usuários vissem menos conteúdo “classificado como incivil ou contendo palavras de baixo calão” e mais conteúdo “de amigos moderados”. Mas nenhuma dessas mudanças fez uma diferença significativa em termos de conhecimento político, atitudes ou níveis de polarização dos usuários.
“Os algoritmos são extremamente influentes em termos de… moldar sua experiência na plataforma”, disse ao The Washington Post o pesquisador Joshua Tucker, codiretor do Centro de Mídia Social e Política da Universidade de Nova York. Apesar disso, “descobrimos um impacto muito pequeno nas mudanças das atitudes das pessoas em relação à política e até mesmo na participação das pessoas em relação à política”.
Outro experimento envolveu a limitação do conteúdo compartilhado novamente nos feeds de alguns usuários. O compartilhamento de novo – uma medida de virilidade da mídia social – “é um recurso importante das plataformas sociais que poderia, de forma plausível, impulsionar” a polarização política e o conhecimento político, sugerem os pesquisadores. Os usuários que não viram nenhum conteúdo compartilhado novamente por três meses acabaram tendo menos conhecimento de notícias, além de menor envolvimento com a plataforma e menos exposição a “conteúdo não confiável”. Mas isso não fez diferença nas atitudes políticas ou nos níveis de polarização.
Tampouco o aumento da exposição dos usuários a pontos de vista ideologicamente diversos – como fez outro dos experimentos – acabou mudando significativamente a “polarização afetiva, extremidade ideológica, avaliações de candidatos e crença em afirmações falsas”.
Em conjunto, os estudos desferem um forte golpe contra a teoria da “mordida de zumbi” da exposição algorítmica, segundo a qual as pessoas são recipientes passivos facilmente infectados por conteúdo divisivo, notícias falsas e qualquer outra coisa que as plataformas de mídia social lhes ofereçam.
Eles são os mais recentes de uma longa linha de artigos e relatórios que lançam dúvidas sobre a sabedoria agora convencional de que as plataformas de mídia social – e principalmente seus algoritmos – são culpadas por uma série de problemas políticos e culturais modernos, desde a polarização política até o extremismo, a desinformação e muito mais. (A Reason destacou muitas dessas pesquisas em sua matéria de capa de janeiro de 2023, “In Defense of Algorithms“).
No entanto, apesar de um conjunto substancial de pesquisas que desafiam essas suposições, grande parte da imprensa continua crédula em relação às alegações de culpabilidade e vilania das empresas de tecnologia, ao mesmo tempo em que relata com muito ceticismo qualquer evidência em contrário. E esse viés da mídia está em plena exibição na cobertura dos novos estudos do Facebook e do Instagram.
O artigo do Post sobre eles contém este anúncio no artigo após o primeiro parágrafo: “A tecnologia não é sua amiga. Nós somos. Registre-se para receber o boletim informativo The Tech Friend”.
É uma destilação quase perfeita da dinâmica mais ampla em jogo aqui, na qual a mídia tradicional – tendo perdido muitos olhos e dólares de publicidade para a mídia social – parece ter a intenção de apresentar as plataformas tecnológicas como indignas de confiança, inescrupulosas e perigosas para a democracia, em contraste com os membros honestos, virtuosos e protetores da democracia da grande imprensa.
O artigo do Post continua citando três pessoas não envolvidas com os estudos do Facebook que têm dúvidas sobre eles, incluindo a “denunciante do Facebook” Frances Haugen. “Ela argumentou que, quando os pesquisadores avaliaram a abordagem cronológica durante o outono de 2020, milhares de usuários já haviam se juntado a mega grupos que teriam inundado seus feeds com conteúdo potencialmente problemático”, relata o Post.
Essa é, obviamente, uma reclamação muito diferente daquela normalmente ouvida de Haugen e seus semelhantes – de que os algoritmos do Facebook deliberadamente promovem conteúdo extremista e divisivo. Aqui, Haugen muda o foco, reclamando de grupos nos quais as pessoas se auto-selecionam e do fato de o Facebook mostrar a elas conteúdo desses grupos.
E o Post também muda os objetivos, descrevendo o estudo como sendo “conduzido em um mundo no qual, em muitos aspectos, o gato já estava fora do saco. Uma mudança de três meses na forma como as informações são fornecidas em uma rede social ocorreu no contexto de uma mudança de longa data na forma como as pessoas compartilham e encontram informações”. Tucker disse ao Post: “Essa descoberta não pode nos dizer como seria o mundo se não tivéssemos a mídia social nos últimos 10 ou 15 anos.”
É claro que o grande temor há anos tem sido as explosões de informações em épocas de eleições – impulsionadas por agentes estrangeiros hostis, grupos políticos dos EUA, etc. – e sua possível capacidade de influenciar os resultados políticos graças à amplificação algorítmica. Esses novos estudos atacam diretamente esses temores, enquanto qualquer “mudança de longa data” na descoberta de informações é, nesse contexto, totalmente irrelevante, assim como um mundo hipotético no qual a mídia social nunca existiu. O único objetivo de declarações como essas parece ser minimizar as descobertas em questão.
A cobertura da Science, que publicou três dos novos artigos, é ainda mais estranha. A revista reuniu os estudos em uma edição especial com o título “Wired to Split” e uma introdução intitulada “Democracy Intercepted“.
A capa apresenta dois grupos de pessoas – uma vestida de vermelho e outra vestida de azul – sentadas em lados opostos do logotipo da Meta, viradas em direções opostas. Cada membro de cada grupo está olhando atentamente para um laptop, tablet ou smartphone, com vários membros parecendo indignados. O design parece ilustrar exatamente o oposto do que foi de fato encontrado nos estudos, assim como os slogans e o texto introdutório associados aos novos estudos.
“Um modelo de negócios que prioriza ‘algoritmos de engajamento’ pode representar uma ameaça à democracia?”, pergunta a Science na introdução. Ela continua afirmando que “as empresas de tecnologia têm a responsabilidade pública de entender como os recursos de design das plataformas podem afetar os usuários e, em última análise, a democracia. Agora é hora de motivar mudanças e reformas substanciais”. Ele apresenta a pesquisa em questão – sem mencionar uma única vez que as descobertas vão contra interpretações mais histéricas. É como se todo o pacote tivesse sido projetado com uma narrativa preferida em mente, mas sem levar em conta a pesquisa real em questão.
Porque o que a pesquisa real descobriu – como diz Talia Stroud, pesquisadora principal do projeto e diretora do Center for Media Engagement da Universidade do Texas em Austin – é que experimentar ideias populares para ajustar algoritmos de uma forma supostamente socialmente responsável simplesmente “não influenciou as atitudes políticas”.
Stroud é citado na Nature, que faz um trabalho geral melhor ao enquadrar a pesquisa de forma realista (“Tweaking Facebook feeds is no easy fix for polarization, studies find” é a manchete de um artigo sobre o assunto). Mas nem mesmo a Nature resiste a citações que minimizam as descobertas. “A ciência é boa, mas a generalização parece limitada”, disse o cientista político da Northwestern University, James Druckman, segundo a Nature. “Esse é apenas mais um ponto de dados nessa discussão.”
Artigo escrito por Elizabeth Nolan Brown, publicado na Reason e traduzido por @rodrigo
Deixe um comentário