Avanços na inteligência artificial (IA) e mudanças nas políticas das big techs estão complicando o monitoramento de desinformação nas eleições de 2026 no Brasil, alertam parceiros do Tribunal Superior Eleitoral (TSE). Plataformas como Meta, Google e X encerraram ferramentas de transparência, como o CrowdTangle e a API gratuita do X, resistindo a regulações que visam combater conteúdo falso. Essas alterações, publicadas em resoluções no dia 19 de janeiro de 2026, ocorrem em meio a um alinhamento das empresas com ideais do governo Trump, tornando o cenário mais desafiador para instituições como o TSE em Brasília, DF.
Impactos das mudanças nas plataformas
As big techs modificaram suas políticas, resistindo a regulações vistas como censura, o que limita o acesso a dados públicos sobre publicações e comentários. Parceiros do Programa Permanente de Enfrentamento à Desinformação do TSE, incluindo o Netlab, InternetLab, Palver e FGV, destacam a dificuldade crescente em coletar informações essenciais. Essa falta de transparência afeta diretamente a capacidade de identificar e combater desinformação durante as eleições de 2026.
É cada vez mais difícil conseguir coletar dados sobre publicações e comentários das plataformas, ainda que sejam públicos.
A autora da citação, Heloisa Massaro, do InternetLab, enfatiza como essas barreiras impedem análises eficazes. Sem ferramentas como o CrowdTangle, pesquisadores e autoridades enfrentam obstáculos para monitorar conteúdos virais. Mark Zuckerberg, da Meta, representa o posicionamento das empresas que priorizam autonomia sobre cooperação regulatória.
Desafios impostos pela inteligência artificial
A IA está gerando conteúdo falso sem fiscalização adequada, agravando o problema da desinformação nas eleições de 2026. As plataformas não oferecem transparência suficiente em suas ferramentas de IA, alinhando-se a uma resistência global contra regulações. Isso deixa o TSE e seus parceiros desarmados diante de narrativas manipuladas que podem influenciar o eleitorado brasileiro.
A gente está muito desarmado.
Marco Ruediger, da FGV, resume o sentimento de vulnerabilidade. Luis Fakhouri, do Palver, complementa que, se as diretrizes das empresas não apoiarem o enfrentamento à desinformação, mecanismos externos se tornam inviáveis. Débora Salles, do Netlab, também integra o grupo de especialistas preocupados com esses avanços tecnológicos.
Perspectivas para o futuro
Com as eleições de 2026 se aproximando, o TSE busca alternativas para mitigar esses riscos, mas a cooperação das big techs é crucial. A resistência das plataformas a regulações pode ser interpretada como alinhamento com visões que priorizam a liberdade de expressão sobre a integridade informativa. Especialistas recomendam maior transparência e ferramentas externas para combater a desinformação gerada por IA, garantindo um processo eleitoral mais justo no Brasil.
Se a diretriz da empresa “não está alinhada com algum tipo de enfrentamento à desinformação, fica muito difícil criar mecanismos externos”.
