Menu
Política & Poder

Brasil falha no combate às fakes news e enxuga gelo no início da campanha eleitoral

Entre a campanha eleitoral de 2018 e a de 2022 o Brasil aprendeu sobre desinformação e puniu exemplarmente ao menos um de seus propagadores

FolhaPress

17/08/2022 9h28

Eleições, fake news e segurança de dados: as preocupações do Brasil de 2022

Angela Pinho e Paula Soprana
São Paulo, SP

Entre a campanha eleitoral de 2018 e a de 2022, que começou nesta terça-feira (16), o Brasil aprendeu sobre desinformação e puniu exemplarmente ao menos um de seus propagadores, mas ainda falha no combate a afirmações inverídicas que circulam livremente em redes sociais e aplicativos de mensagens.

Sem transparência, coordenação das plataformas e atuação consistente sobre o chamado ecossistema das notícias falsas, o país ainda enxuga gelo quando trata do tema, dizem especialistas.

O cenário, evidentemente, é diferente do de quatro anos atrás, quando as plataformas e as instituições não souberam reagir com celeridade ao volume de mentiras que viralizavam sem nenhum controle.

Em 2018, reportagem da Folha mostrou que empresas compravam pacotes de disparos em massa de mensagens contra o PT no WhatsApp, prática ilegal por se tratar de doação de campanha por empresas.

Uma das fake news que marcou aquele pleito foi o vídeo em que um narrador afirmava que Fernando Haddad (PT) iria distribuir mamadeiras com bico em formato de pênis caso fosse eleito.

De lá para cá, a dimensão do problema ficou clara. O TSE (Tribunal Superior Eleitoral) passou a tratar a desinformação como tema prioritário e houve avanço na interação com as plataformas, diz o advogado Fernando Neisser, membro fundador da Abradep (Academia Brasileira de Direito Eleitoral e Político).

Ele cita o esforço para institucionalizar parcerias com plataformas e iniciativas de checagem, o que tornou, segundo ele, muito mais rápida a retirada de conteúdos explicitamente falsos do ar.

Além disso, o advogado menciona dois importantes recados dados pelo tribunal em outubro passado.

O primeiro foi definido no julgamento das ações que pediam a cassação da chapa de Jair Bolsonaro (PL) e Hamilton Mourão (Republicanos). Embora o tribunal tenha julgado improcedentes as ações, firmou nesse caso o entendimento de que promover desinformação pode configurar abuso de poder econômico e uso indevido dos meios de comunicação social, sujeito a sanções.

O segundo sinal foi a cassação do deputado estadual Fernando Francischini devido à publicação de vídeo no dia das eleições de 2018 em que ele afirmou que as urnas eletrônicas haviam sido fraudadas.

Apesar desses avanços, Neisser aponta que o combate à chamada “economia de mercado” da desinformação ficou parado. Ou seja, chegou-se de alguma forma aos disseminadores e às plataformas, mas empresas que obtêm bancos de dados e fazem disparo em massa continuaram a atuar livremente.

“Imagina enfrentar o tráfico de drogas proibindo produção e consumo, mas não a venda. Não funciona”, diz. “Donos de empresas de disparo em massa podem responder a ações na Justiça eleitoral e ficar inelegíveis, mas não tem nada mais irrelevante para o dono de uma empresa do que ficar inelegível.”

O mercado da desinformação também é lembrado por Denise Dora, diretora da ONG Artigo 19 no Brasil.
“Investigações sobre o financiamento da origem da desinformação não progrediram, e o país não construiu mecanismos para evitar que a desinformação circule em larga escala nem implementou bons mecanismos para identificar autores”, afirma.

Se hoje o Brasil conhece mais o tema, os disseminadores da desinformação também passaram a usar técnicas de certa forma mais sofisticadas, diz a diretora: no lugar de falsificações primárias, como as relacionadas ao inexistente kit gay, entram ataques ao próprio sistema de votação.

Atores centrais nesse debate, as plataformas também se movimentaram de 2018 para cá, principalmente diante das críticas em relação à morosidade ou mesmo inação com que reagiam à desinformação.

Já na eleição seguinte, a municipal de 2020, elas firmaram acordos de cooperação com a corte eleitoral, segundo os quais, entre outros pontos, comprometem-se a facilitar a comunicação entre empresas e TSE, a cumprir as próprias políticas e a priorizar informações verídicas sobre o sistema eleitoral.

A cooperação, entretanto, está longe de barrar a disseminação de notícias falsas. As empresas não abrem dados sobre investimentos em inteligência artificial em português do Brasil nem sobre reforços de times, tampouco sobre resultados efetivos de suas políticas.

“A estratégia de divulgação de desinformação e de discurso de ódio considera a estrutura de interação entre as plataformas, mas elas não conversam. Os vídeos vão do YouTube para o WhatsApp e para o Telegram, por exemplo, mesmo que se busque apagar. Então seria absolutamente necessária uma harmonização, um compromisso conjunto de combate”, diz Paulo Rená, codiretor da ONG Aqualtune Lab.

A política de moderação de maior destaque é a do YouTube, que passou a proibir em sua plataforma vídeos que alegam fraudes na eleição de 2014 e 2018. A nova diretriz passou a valer em março deste ano. Desde então, a plataforma de vídeos, que pertence ao Google, derrubou uma série de conteúdos que acusavam fraude nas urnas eletrônicas, incluindo transmissões de Bolsonaro.

A empresa não divulga quantos vídeos eliminou por meio dessa política. Em casos de autoridades, pode demorar para tomar alguma medida –levou mais de um ano para derrubar a live em que o atual presidente faz uma série de acusações infundadas sobre o sistema eleitoral.

A Meta, dona de Facebook e Instagram, proíbe conteúdos que possam suprimir o voto de eleitores, como mentiras acerca da data de votação, de horários, requisitos eleitorais, entre outros. A empresa também diz que irá banir posts políticos pagos que contestem a legitimidade da eleição.

Desde o episódio da invasão do Congresso dos EUA, em que suspendeu a conta do ex-presidente Donald Trump, desenvolveu uma política para a moderação do perfil de autoridades em momentos de agitação cívica.

A empresa afirma que para determinar a restrição de uma figura pública que violou suas políticas considera “a gravidade da violação e o histórico da figura pública no Facebook ou no Instagram”, o potencial de influência sobre outros envolvidos em atos violentos e a gravidade dos eventos.

Para 2022, o Twitter destaca quais perfis da rede são de candidatos e amplia a possibilidade de denúncia de potencial desinformação pelos usuários. O Kwai e o TikTok, redes de vídeos curtos que estreiam com força neste ano em uma eleição presidencial no Brasil, criaram diretrizes específicas para o tema.

O Kwai promete rotular ou remover conteúdos com informações falsas sobre como participar do pleito, incitações a boicote à eleição, informações falsas sobre integridade eleitoral ou candidatos e posts que infrinjam a legislação eleitoral. Em relação às urnas, tem uma diretriz mais abrangente que a do YouTube. Diz que considera a exclusão de conteúdos que “insinuem que a eleição está sendo ou foi manipulada”.

O TikTok, que até fevereiro citava o voto pelo correio nos termos de uso -algo que não existe no Brasil-, destaca agora as situações para remoção de conteúdo, como alegações de fraude eleitoral ou de que votos não serão contados, comportamento inautêntico (como dispositivos com múltiplas contas) para interferência política, contas comprovadamente destinadas a disseminar mentiras sobre a eleição, promoção de ideologia de ódio e conspiração em lives, entre outros.

Entre os aplicativos de conversa, o WhatsApp fez algumas mudanças desde 2018, como a criação de um canal extraoficial de comunicação direta com o TSE. Ao longo do tempo, a empresa vem dificultando a viralização de mensagens, com o alerta de “conteúdo encaminhado com frequência”. O aplicativo disponibiliza ainda um formulário para denúncias de usuários sobre disparo em massa.

O Telegram, que virou um dos aplicativos mais usados entre a militância bolsonarista e chegou a ser alvo de ordem de bloqueio do ministro do STF Alexandre de Moraes, passou a contar com parceria de agências de checagens e a marcar alguns conteúdos desinformativos, levando o usuário a páginas do TSE.

Em conjunto, as empresas passaram a dialogar mais com a Justiça Eleitoral e criaram rótulos que fornecem contexto sobre conteúdos questionáveis e eleitorais. Na moderação de conteúdo, porém, permanecem com forte dependência da denúncia de usuários.

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado