EcoDebate

Plataforma de informação, artigos e notícias sobre temas socioambientais

Notícia

Algoritmo do X empurra os usuários para a direita

 

Logotipo da rede social X. Imagem: OECD
Logotipo da rede social X. Imagem: OECD

Estudo científico publicado na Nature comprova: sete semanas de exposição ao feed algorítmico do X deslocam opiniões políticas para posições conservadoras e o efeito é permanente

Pesquisa da Universidade de St. Gallen (Suíça), da Universidade Bocconi (Itália) e da Paris School of Economics revelou como o algoritmo “Para Você” do X funciona como uma máquina silenciosa de radicalização conservadora e explica por que movimentos de direita e extrema-direita, no Brasil, nos EUA e na Europa, lutam contra qualquer regulação das redes sociais.

Análise baseada no estudo “The Political Effects of X’s Feed Algorithm“, publicado na revista Nature, em fevereiro de 2026, conduzido por Roland Hodler (Universidade de St. Gallen), Germain Gauthier (Bocconi), Philine Widmer e Ekaterina Zhuravskaya (Paris School of Economics).

Por Henrique Cortez *

5.000 usuários, sete semanas e um resultado perturbador

Em julho e setembro de 2023, pesquisadores, de três das mais respeitadas instituições acadêmicas da Europa, recrutaram cerca de 5.000 usuários ativos do X nos Estados Unidos para um experimento cuidadosamente controlado. A pergunta era direta: o algoritmo da plataforma influencia politicamente quem o usa?

Cada participante foi designado aleatoriamente para um de dois grupos. O primeiro grupo passou a usar o feed cronológico, o sistema clássico que mostra apenas publicações de contas que o usuário já segue, na ordem em que foram postadas.

O segundo grupo foi colocado no feed algorítmico “Para Você”, o padrão da plataforma desde que Elon Musk assumiu o Twitter em outubro de 2022: um sistema que reordena conteúdos, amplifica postagens e injeta no feed material de contas que o usuário nunca escolheu seguir.

Antes e depois das sete semanas, todos os participantes responderam a pesquisas sobre suas opiniões políticas. Os pesquisadores também monitoraram, com o consentimento dos participantes, quais contas passaram a ser seguidas e que tipo de conteúdo cada pessoa consumia.

O resultado foi publicado na Nature e revela que quem migrou do feed cronológico para o algorítmico apresentou um deslocamento mensurável de suas opiniões políticas em direção a posições conservadoras.

O algoritmo expõe menos mídia e mais ativismo de direita

O feed algorítmico do X promove conteúdo de ativistas políticos conservadores e suprime sistematicamente postagens de veículos de imprensa tradicionais, que aparecem com uma frequência 58% menor no feed “Para Você” do que no feed cronológico.

Isso significa que um usuário que simplesmente aceita o feed padrão do X passa a ser exposto, semana após semana, a um fluxo crescente de conteúdo que prioriza temas conservadores como imigração, desconfiança em relação ao sistema judicial e narrativas favoráveis à Rússia no contexto da guerra na Ucrânia, ao mesmo tempo que recebe muito menos o que publicam jornais, revistas e agências de notícias.

Mas o efeito não para quando o experimento termina. Os pesquisadores descobriram que os usuários que foram expostos ao feed algorítmico passaram a seguir mais contas de ativistas políticos conservadores e continuaram seguindo essas contas mesmo depois que o experimento acabou.

Quando o grupo que usava o algoritmo foi colocado de volta no feed cronológico, não houve mudança de volta às posições originais. A influência tinha sido incorporada à rede social do usuário e, por extensão, ao seu fluxo de informação futuro.

“Nossas descobertas demonstram que o algoritmo influencia significativamente a quem os usuários escolhem seguir, indicando que os algoritmos moldam a exposição ao conteúdo mais do que se acreditava anteriormente.”

Estudo “The Political Effects of X’s Feed Algorithm”, Nature, 2026

O que muda e o que não muda

Um dos achados do estudo é a distinção entre o que o algoritmo consegue mudar no curto prazo e o que ainda não muda. Nas sete semanas do experimento, as opiniões dos usuários dos EUA sobre questões de política pública foram claramente deslocadas para posições mais conservadoras sobre imigração, sobre as investigações criminais contra Donald Trump, sobre a guerra na Ucrânia. Mas a autoidentificação partidária, se a pessoa se considera republicana ou democrata, não mudou de forma significativa.

Os pesquisadores interpretam isso não como uma limitação do poder do algoritmo, mas como uma indicação de que identidades políticas profundas são mais resistentes e exigem períodos de exposição mais longos. As opiniões sobre questões concretas, por outro lado, são mais maleáveis e mudam mais rapidamente. A implicação é preocupante porque o algoritmo pode estar gradualmente reconfigurando como as pessoas pensam sobre o mundo, questão por questão, muito antes de qualquer mudança declarada de filiação política.

Não é acidente, é design. Musk e o algoritmo conservador

O estudo foi conduzido em 2023, mais de seis meses após a aquisição do Twitter por Elon Musk, e um ano antes de Musk endossar publicamente Donald Trump nas eleições de 2024.

É importante notar que os pesquisadores fazem questão de esclarecer que o viés conservador do algoritmo não é completamente novo e que um estudo anterior já havia detectado priorização de conteúdo de direita no Twitter, mesmo antes da chegada de Musk, quando o algoritmo foi introduzido pela primeira vez, em 2016.

Sob Musk, a plataforma passou por transformações que intensificaram essa tendência. O feed “Para Você” foi definido como padrão para todos os usuários. Políticas de moderação de conteúdo foram flexibilizadas, permitindo o retorno de contas que haviam sido banidas por violações das regras anteriores.

Figuras de extrema-direita foram amplamente reabilitadas na plataforma e investigações independentes, incluindo uma da Sky News, concluíram que o algoritmo da plataforma favorece conteúdo de direita e extremista, além de postagens de políticos que Musk apoia publicamente.

Na França, a polícia chegou a realizar uma operação nas instalações do X em 2025, como parte de uma investigação sobre suposta manipulação algorítmica para servir a uma agenda política. Musk classificou a investigação como “politicamente motivada”.

Como o algoritmo do X alimentou o bolsonarismo e a desinformação

O que ocorreu nos Estados Unidos não é um fenômeno isolado. No Brasil, o X e antes dele o próprio Twitter foi uma plataforma central na construção e na radicalização do movimento bolsonarista.

Durante os anos de governo Bolsonaro (2019–2022), a plataforma se tornou o principal canal de disseminação de narrativas de direita e extrema-direita, de ataques ao sistema eleitoral e de desinformação sistemática sobre a pandemia de Covid-19.

O mecanismo documentado pelo estudo da Nature (de amplificação de conteúdo de ativistas conservadores e supressão de mídia tradicional) encontrou no Brasil um terreno particularmente fértil. Uma população acostumada a uma mídia de referência que grande parte da direita passou a encarar como inimiga foi progressivamente redirecionada, pelos algoritmos, para um ecossistema de criadores de conteúdo de direita, muitos dos quais difundiam informações falsas e teorias conspiratórias.

A relação entre Musk e Bolsonaro ganhou contornos ainda mais explícitos após a tentativa de golpe de 8 de janeiro de 2023. Quando o Supremo Tribunal Federal determinou a suspensão do X no Brasil, em agosto de 2024, como resposta ao descumprimento de ordens judiciais relacionadas à moderação de conteúdo. Musk transformou o episódio em um espetáculo político global, apresentando-se como campeão da “liberdade de expressão” frente à “censura”. Esta falsa narrativa ainda ecoa nos discursos da direita, contra qualquer tentativa de responsabilizar as plataformas por seus conteúdos.

O algoritmo a serviço da extrema-direita em ascensão na Europa

Na Europa, o padrão se repete com variações locais. O X foi uma plataforma central para o crescimento do partido Alternative für Deutschland (AfD) na Alemanha, do Rassemblement National de Marine Le Pen na França, do Vox na Espanha e do movimento de Geert Wilders nos Países Baixos. Em todos esses países, o mecanismo é semelhante ao descrito pelo estudo: o feed algorítmico amplifica vozes de ativistas de extrema-direita, enquanto reduz a visibilidade da imprensa estabelecida.

A União Europeia foi pioneira na tentativa de regular esse fenômeno. A Lei dos Serviços Digitais (DSA, na sigla em inglês), que entrou em vigor em 2024, exige que grandes plataformas como o X sejam transparentes sobre seus algoritmos e realizem avaliações de risco sobre sua influência política. O X de Musk tem resistido às determinações da DSA, e Musk tem sido um crítico vocal da regulação europeia de plataformas digitais .

Não por acaso, os partidos de extrema-direita europeus foram consistentemente os mais ferozes opositores da regulação de redes sociais em seus respectivos parlamentos. Quando o Parlamento Europeu debateu a DSA, deputados de extrema-direita defenderam posições que eram praticamente indistinguíveis das do lobby das big techs.

Porque a direita odeia a regulação

O estudo da Universidade de St. Gallen oferece uma lente poderosa para compreender um paradoxo político que se repete em praticamente todos os países democráticos: partidos de direita e extrema-direita que defendem a intervenção estatal em diversas áreas da economia e da sociedade tornam-se subitamente libertários quando o assunto é a regulação das redes sociais.

A explicação mais simples é também a mais convincente: as redes sociais, e o X em particular, são hoje uma das principais alavancas de crescimento eleitoral da direita. Se o algoritmo do X, conforme demonstrado empiricamente pelo estudo publicado na Nature, desloca sistematicamente usuários em direção a posições conservadoras, regular esse algoritmo significa desmontar uma vantagem estrutural que a direita conquistou no ambiente digital.

No Brasil, o debate sobre o PL das Fake News e sobre o marco regulatório das plataformas digitais foi bloqueado repetidamente por uma bancada de parlamentares de direita e extrema-direita, que enquadrou qualquer tentativa de responsabilizar as redes como “censura”. Nos Estados Unidos, o Partido Republicano foi o principal defensor da desregulação das plataformas. Na Europa, a extrema-direita lidera a oposição à DSA.

O argumento utilizado é sempre o mesmo: regulação equivale a censura e atenta contra a liberdade de expressão. Mas o que o estudo da Nature revela é que a ausência de regulação também não é neutra e que ela significa deixar algoritmos privados, desenhados para maximizar engajamento e lucro, definirem silenciosamente o ambiente informacional em que centenas de milhões de pessoas formam suas opiniões políticas.

A câmara de eco que você não escolheu e o problema das bolhas algorítmicas

Há anos, pesquisadores discutem o conceito de “câmara de eco” como a ideia de que usuários de redes sociais tendem a se cercar de informações que confirmam suas crenças preexistentes.

O que o estudo de St. Gallen demonstra vai além disso: não é apenas que as pessoas buscam o que confirma suas crenças. É que o algoritmo ativamente direciona os usuários para câmaras de eco conservadoras, independentemente de suas preferências anteriores.

Isso é particularmente significativo porque os efeitos foram observados em usuários de todo o espectro político e não apenas naqueles que já tinham inclinações conservadoras. O deslocamento à direita foi detectado mesmo entre usuários que não se identificavam como conservadores antes do experimento.

E porque os usuários passaram a seguir contas conservadoras durante o período algorítmico e continuaram seguindo após o experimento, o efeito tende a se perpetuar e a se aprofundar com o tempo.

O algoritmo não apenas muda o que as pessoas pensam agora; ele reconfigura a rede social digital dessas pessoas de forma a garantir que continuem sendo expostas ao mesmo tipo de conteúdo no futuro.

Outros estudos confirmam o padrão

O estudo publicado na Nature não está isolado. Uma investigação da Sky News concluiu que o algoritmo do X favorece conteúdo de direita e extremista. Pesquisadores da Queensland University of Technology (Austrália) identificaram que, em julho de 2023, no dia em que Musk endossou Trump publicamente, houve uma mudança no algoritmo que aumentou a visibilidade de postagens de contas alinhadas com o Partido Republicano. O Pew Research Center, em pesquisa de 2024, apontou que o X se tornou um ambiente significativamente mais receptivo para usuários com visões republicanas.

Em outro experimento, publicado na revista Science em novembro de 2025, pesquisadores americanos usaram extensões de navegador para alterar o algoritmo do X durante as eleições presidenciais de 2024 e mediram o impacto na polarização dos participantes. Os resultados confirmaram que o grau de exposição a conteúdo antidemocrátioco e de hostilidade partidária altera o nível de polarização dos usuários, em um efeito causal, não apenas correlacional.

Exigência de transparência, regulação e escolha informada

O conhecimento de que algoritmos de plataformas como o X exercem influência política mensurável sobre seus usuários abre um conjunto de questões para governos, sociedade civil e para os próprios usuários.

Do ponto de vista regulatório, iniciativas como a DSA europeia representam um primeiro passo importante: exigir que plataformas realizem e divulguem avaliações de risco algorítmico, ofereçam aos usuários opções reais de feeds não algorítmicos e permitam auditoria independente de seus sistemas de recomendação. No Brasil, o debate sobre o marco regulatório das plataformas digitais precisa ser retomado com urgência e com o respaldo científico que estudos, como o de St. Gallen, oferecem.

Para os usuários individualmente, o estudo oferece um caminho concreto: usar o feed cronológico em vez do algorítmico. O próprio X disponibiliza essa opção, embora a torne menos acessível do que o feed padrão. A diferença, como o estudo demonstra, pode ser substancial para a formação de opiniões políticas.

Mas talvez a contribuição mais importante do estudo seja epistemológica: ele demonstra, com rigor científico e em condições controladas, que o ambiente informacional em que vivemos não é neutro. Ele é projetado por engenheiros, executivos e bilionários e tem consequências políticas reais e mensuráveis. Reconhecer isso é o primeiro passo para uma democracia que leve a sério os desafios da era digital.

Fontes:

1 – Algorithm on X effects political views in the USA”, University of St.Gallen, Suiça, https://www.unisg.ch/en/newsroom/algorithm-on-x-effects-political-views-in-the-usa/

 

2 – Gauthier, G., Hodler, R., Widmer, P. et al. The political effects of X’s feed algorithm. Nature (2026). https://doi.org/10.1038/s41586-026-10098-2

Glossário:

Feed algorítmico (“Para Você”): sistema de recomendação de conteúdo que reordena postagens e injeta publicações de contas que o usuário não segue, com base em dados de comportamento e engajamento. É o padrão atual do X.

Feed cronológico (“Seguindo”): exibe apenas postagens de contas que o usuário escolheu seguir, na ordem em que foram publicadas, sem interferência algorítmica.

Câmara de eco / Bolha de filtro: ambiente informacional em que o usuário é exposto predominantemente a conteúdos que confirmam suas crenças preexistentes, isolando-o de perspectivas divergentes.

Polarização afetiva: hostilidade emocional profunda em relação a grupos políticos opostos, distinta da simples discordância sobre políticas públicas.

DSA (Digital Services Act): regulamento europeu que exige transparência algorítmica e avaliações de risco de grandes plataformas digitais.

E-E-A-T: sigla do Google para Experiência, Especialização, Autoridade e Confiabilidade — critérios usados para avaliar a qualidade de conteúdo digital.

 

* Henrique Cortez, jornalista e ambientalista. Editor do EcoDebate. 

Citação
EcoDebate, . (2026). Algoritmo do X empurra os usuários para a direita. EcoDebate. https://www.ecodebate.com.br/2026/02/20/algoritmo-do-x-empurra-os-usuarios-para-a-direita/ (Acessado em fevereiro 20, 2026 at 09:34)

 
in EcoDebate, ISSN 2446-9394
 

[ Se você gostou desse artigo, deixe um comentário. Além disso, compartilhe esse post em suas redes sociais, assim você ajuda a socializar a informação socioambiental ]

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

O conteúdo do EcoDebate está sob licença Creative Commons, podendo ser copiado, reproduzido e/ou distribuído, desde que seja dado crédito ao autor, ao EcoDebate (link original) e, se for o caso, à fonte primária da informação