Ferramentas de inteligência artificial (IA) estão intensificando a desconfiança em conteúdos digitais, alertam profissionais de checagem de fatos. Um levantamento divulgado pela Agência Lupa analisou 1.294 checagens profissionais em pelo menos dez idiomas, sob o título ‘O impacto da IA no Fact-checking Global’.
O estudo revela que 81,2% dos casos de desinformação envolvendo tecnologias de IA ocorreram nos últimos dois anos, entre janeiro de 2024 e março de 2026. Os temas mais recorrentes foram eleições, guerras e golpes. Cristina Tardáguila, gerente de inovação e formação da Agência Lupa, afirma que a IA está redefinindo o campo da desinformação em escala global.
“A imensa maioria das peças analisadas pelos checadores acaba levando a etiqueta de falso ou de enganoso. A IA dificilmente tem sido feita para impulsionar conteúdos verdadeiros”, disse Tardáguila em entrevista à Agência Brasil. A pesquisadora destaca que a desinformação se manifesta em diversos formatos, como vídeos, áudios curtos, fotos e textos, e representa uma ameaça particular aos processos democráticos durante períodos eleitorais.
Este ano eleitoral é significativo no Brasil e em países como Estados Unidos, Peru, Costa Rica e Colômbia. “Eles vão receber uma enxurrada de conteúdos com IA e com grande chance de essas peças serem, na verdade, grandes falsidades”, acrescenta Tardáguila. O uso de IA para manipular conteúdos deixou de ser pontual e agora integra permanentemente o ambiente da desinformação digital.
O volume de checagens que identificaram esse tipo de mentira aumentou de 160 casos em 2023 para 578 em 2025, com 205 verificações já registradas até março deste ano. O estudo tem recorte linguístico: em inglês, foram 427 casos de desinformação por IA e deepfakes; em espanhol, 198; e em português, 111.
Para combater o problema, Tardáguila defende a propagação de educação midiática, comparando-a a uma vacina contra falsidades. “A gente precisa que a vacina contra a desinformação, que é, na verdade, a informação de qualidade, chegue antes para que as pessoas possam estar preparadas e resilientes quando elas virem a mentira em formato de IA”, ressalta.
Essa educação deve ser implementada por meio de políticas públicas nas escolas, promovendo literacia midiática – a habilidade de ler, escrever, interpretar e utilizar a linguagem de forma eficiente. Empresas de comunicação tradicionais e agências de checagem também podem contribuir, mantendo critérios de transparência e rigor nas verificações, indexadas no Google Fact Check Explorer.
A pesquisadora enfatiza a necessidade de preparação para 2026, quando o uso de IA deve aumentar. A Agência Lupa oferece um curso gratuito para iniciantes em checagem, incentivando cidadãos a verificar a legitimidade de informações recebidas.
Com informações Agência Brasil