MUNDO - O lançamento de The Life of a Showgirl, no início de outubro, movimentou as redes como toda nova era de Taylor Swift. Enquanto o álbum quebrava recordes, incluindo o de vendas mais rápidas da história, fãs e críticos mergulhavam na análise das 12 faixas, dos visuais e até dos easter eggs escondidos nos materiais físicos e nos produtos oficiais da cantora.
Mas a discussão online tomou um rumo inesperado. Publicações começaram a acusar Taylor Swift de supostas mensagens políticas extremistas, incluindo aproximações com o movimento MAGA, simbolismos racistas e até referências nazistas. Tudo isso baseado em detalhes como o uso da palavra “selvagem” na música Eldest Daughter e um colar vendido no site oficial cujo pingente em forma de raio foi comparado, de maneira forçada, à iconografia usada pela SS nazista.
A repercussão surpreendeu fãs, que criticaram o clima político polarizado e as interpretações extremistas. Comentários em fóruns, como no Reddit, destacavam como reações exageradas acabavam alimentando narrativas da extrema direita sobre a suposta “histeria” liberal.
Pesquisa revela origem artificial de ataques
Apesar da indignação dos usuários, uma investigação mostrou que grande parte da discussão partiu de uma narrativa artificial. Segundo uma pesquisa divulgada pela revista Rolling Stone, produzida pela startup de inteligência comportamental GUDEA, apenas 3,77% das contas analisadas foram responsáveis por 28% das conversas sobre Swift e o álbum entre 4 e 18 de outubro.
Esse grupo de perfis inautênticos, muitos com comportamento típico de bots (robôs) espalhou as alegações conspiratórias mais inflamadas, desde supostas mensagens nazistas até teorias que enquadravam o relacionamento de Swift com Travis Kelce como um modelo “tradicionalista” de valores conservadores.
A pesquisa analisou 24 mil publicações e 18 mil contas em 14 plataformas. Os pesquisadores apontam que esses conteúdos surgiam primeiro em fóruns conhecidos por circularem discursos extremistas, como 4chan e KiwiFarms, para depois migrarem para redes populares, onde passaram a ser replicados por usuários reais, inclusive aqueles que tentavam desmentir as teorias.
Como a desinformação ganhou força
A GUDEA identificou dois picos de atividade coordenada:
- 6 e 7 de outubro: cerca de 35% das publicações sobre o tema foram geradas por contas com comportamento automatizado;
- 13 e 14 de outubro: após o lançamento da coleção de produtos com o colar de raio, perfis inautênticos impulsionaram 40% das publicações e conteúdos conspiratórios representaram 73,9% de toda a conversa.
A dinâmica observada pela empresa mostra como uma falsa narrativa, estrategicamente plantada, pode migrar para o debate público e moldar a percepção geral, mesmo quando a maioria das pessoas não acredita na acusação original. Apenas o fato de usuários contestarem as teorias já era suficiente para aumentar a visibilidade dos posts, reforçando seu alcance pelos algoritmos das plataformas.
Conexões com outros casos e estratégias similares
A investigação ainda encontrou sobreposição entre contas que impulsionaram acusações contra Swift e perfis envolvidos em uma campanha de difamação contra a atriz Blake Lively, que relata estar sofrendo ataques coordenados ligados a um conflito judicial com o ator e diretor Justin Baldoni.
Para os pesquisadores, essa interseção aponta um nível crescente de organização em redes dedicadas a manipular discussões online e gerar danos à reputação de figuras públicas. “Eles sabem o que estão fazendo”, afirmou Keith Presley, CEO da GUDEA, à Rolling Stone.
A suspeita levantada pela equipe é de que esses ataques contra Taylor Swift possam ter sido um teste, uma forma de medir a capacidade de influenciar grupos grandes e engajados, como a base de fãs da cantora, antes de direcionar a mesma estratégia para outros contextos.
A mecânica do engajamento forçado
O relatório aponta que parte do objetivo dessas redes é simples: provocar usuários reais a reagir. Quando alguém responde para rebater ou ridicularizar uma teoria absurda, o conteúdo é impulsionado pelos algoritmos, ampliando seu alcance. É o que se considera rage bait.
Pesquisadores explicam que influenciadores acabam entrando na discussão primeiro, motivados pelo potencial de cliques. Depois, seguidores comuns começam a replicar ou comentar, transformando uma narrativa artificial em um debate público legítimo.
Um alerta sobre o ambiente digital
Embora não haja clareza sobre quem está por trás dos ataques, especialistas reforçam que metade da web atual pode estar tomada por bots, tornando cada discussão nacional ou global vulnerável a manipulações desse tipo.
Para o público, fica um alerta: na próxima vez que uma opinião parecer projetada para provocar raiva imediata, pode ser exatamente esse o objetivo.
Leia outras notícias em Imirante.com. Siga, também, o Imirante nas redes sociais X, Instagram, TikTok e canal no Whatsapp. Curta nossa página no Facebook e Youtube. Envie informações à Redação do Portal por meio do Whatsapp pelo telefone (98) 99209-2383.