Menu
Política & Poder

Debate sobre fake news em redes sociais avança para eleições de 2022; entenda

No contexto eleitoral, o TSE (Tribunal Superior Eleitoral) vem apostando em parcerias com as principais redes sociais

FolhaPress

07/12/2021 13h50

Foto: Agência Brasil

Renata Galf

O debate público para a escolha de candidatos, antes focado na propaganda eleitoral de rádio e TV, se espalhou para as redes sociais após a disseminação do uso da internet. Nesse cenário, se antes o controle de possíveis irregularidades estava calcado na atuação da Justiça Eleitoral, cada vez ganha mais relevância a discussão sobre a moderação de conteúdo realizada pelas próprias plataformas.

Dentro e fora do contexto eleitoral, as medidas tomadas pelas empresas têm sido alvo de críticas e são motivo de polarização, tanto devido a remoções abusivas quanto por conteúdos nocivos que continuam online.

No contexto eleitoral, o TSE (Tribunal Superior Eleitoral) vem apostando em parcerias com as principais redes sociais.
Já no Congresso, o tema está em discussão no chamado projeto de lei das fake news, que se aprovado a tempo também terá impacto nas eleições. Entre as propostas recentes que geraram polêmica estão tentativas de dar tratamento diferenciado a agentes públicos.

Entenda os pontos principais em discussão.

Quais os caminhos para a retirada de conteúdo de mídias sociais durante as eleições?

aso o conteúdo vá contra as regras estabelecidas pela legislação, uma das opções é o caminho judicial. Pela Justiça Eleitoral, partidos políticos, coligações, candidatos e o Ministério Público Eleitoral podem ingressar com representações para isso.

Já a moderação de conteúdo das plataformas é realizada com base em seus termos de uso e políticas de comunidade. Embora cada país tenha leis distintas e diferentes níveis de limitação à liberdade de expressão, as plataformas possuem regras globais.

Desse modo, é possível que certos conteúdos (ou comportamentos online) que são ilegais no Brasil sejam vedados pelas plataformas, como em caso de nudez ou de apologia às drogas. Ou o contrário: conteúdos em tese ilegais, mas que não necessariamente são moderados, sendo retirados apenas após decisão judicial, como no caso de crimes contra a honra.

Em geral, a identificação dos conteúdos pelas plataformas ocorre tanto por meio de denúncia de outros usuários como de modo automatizado por inteligência artificial.

Qual estratégia a Justiça Eleitoral tem adotado em relação às redes sociais?

O TSE tem apostado em parcerias com as principais plataformas. Nas eleições de 2020, por exemplo, figuravam entre os parceiros Facebook, Instagram, Google (YouTube), Twitter e TikTok.

Os compromissos assumidos variaram de empresa a empresa. Na prática, as parcerias envolveram, por exemplo, a facilitação de contato entre a equipe do tribunal e as companhias para o envio de conteúdos suspeitos identificados pelo TSE. Houve também divulgação de informações oficiais sobre as eleições nas diferentes plataformas.

Em que o TSE considera ser possível avançar?

Ao fazer um balanço dessa experiência, a secretária-geral do TSE e coordenadora do Programa de Enfrentamento à Desinformação, Aline Osorio, apontou que é preciso avançar, por exemplo, em relação à transparência por parte das plataformas.

Em entrevista à Folha de S.Paulo, em junho, ela indicou como exemplo a apresentação de relatórios, pelas plataformas, de modo que seja possível entender não só por que um conteúdo foi ou não removido, mas explicando os critérios para a adoção ou não de outras medidas de moderação, como a redução da viralização.

Outro ponto seria o estabelecimento, por parte das plataformas, de regras claras de moderação para o contexto eleitoral, como em casos de usuários que façam postagens alegando indevidamente fraude no resultado eleitoral ou que não o reconheçam.

Existem regras no Brasil do que as plataformas podem ou não moderar?=

Não, a legislação brasileira atual não obriga nem impede as plataformas de moderar conteúdo ou contas.
O Marco Civil da Internet, lei de 2014, prevê que as plataformas podem ser responsabilizadas (com a possibilidade de pagamento de indenização, por exemplo) apenas se deixarem de remover algum conteúdo após decisão judicial ordenando a retirada.

A argumentação por trás desse tipo de regra seria evitar uma retirada em massa de conteúdo por parte das empresas, que agiriam assim por receio de serem responsabilizadas.

É no PL das fake news (PL 2630), atualmente em tramitação na Câmara, que regras sobre moderação seguem sendo debatidas. O projeto não leva em conta o conteúdo das postagens, mas busca estabelecer procedimentos a serem obedecidos pelas plataformas. As empresas teriam que ser mais transparentes, além de obrigatoriamente notificarem os usuários sobre a medida adotada, dando possibilidade de recurso.

Ao longo do ano, o tema foi alvo de embates no Congresso, em especial após o presidente Jair Bolsonaro (PL) apresentar uma proposta restringindo os temas que poderiam ser moderados pelas plataformas, e que não inclui desinformação, por exemplo.

O professor associado do Insper Ivar Hartmann ressalta que a preocupação de fundo de iniciativas que buscam limitar a atuação das plataformas se baseia em um problema que de fato existe: conteúdos que as empresas removem e que não deveriam ser removidos.

“Existem, sim, posts que as redes sociais estão removendo, mas que elas legalmente, na minha opinião, não podem remover, porque fazem parte da proteção básica da liberdade de expressão dessas pessoas.”

Hartmann considera que os esforços do TSE no sentido de negociar com as plataformas é importante, mas avalia que ter uma legislação estabelecendo regras de moderação e transparência, nos moldes do que vem sendo discutido no PL 2630, faria diferença no período eleitoral.

Existem regras específicas para a moderação de agentes públicos ou de candidatos?

Atualmente não, mas o interesse da classe política em delimitar a atuação das plataformas em relação a suas postagens -nas eleições ou fora delas- pode ser visto no debate legislativo.

Entre as propostas aventadas na discussão do novo Código Eleitoral, por exemplo, havia um artigo que buscava blindar candidatos de terem seus perfis suspensos ou removidos pelas plataformas. O ponto acabou sendo removido, contudo, devido às críticas recebidas.

Já na discussão do projeto de lei das fake news, no grupo de trabalho da Câmara, uma nova proposta gerou polêmica. Em versão aprovada em dezembro de 2021, foi inserido no texto que a imunidade parlamentar se estende aos perfis de agentes públicos nas redes sociais. O texto ainda deve passar no ano que vem pelo plenário da Câmara e ainda voltaria ao Senado.

Apesar do barulho gerado, especialistas consultados pela Folha consideram que a inclusão não tem nenhum resultado prático. Isso porque já existem entendimentos do STF (Supremo Tribunal Federal) de que a imunidade parlamentar pode ser aplicada a conteúdos na internet, conforme explica Diogo Rais, que é professor da Universidade Mackenzie e cofundador do Instituto de Liberdade Digital.

Por outro lado, Rais vê com preocupação um outro item: o que prevê que o Judiciário deve determinar a reativação de contas de agentes públicos em caso de moderação abusiva. De acordo com o texto, isso deve ocorrer nos casos em que ficar comprovado que as contas moderadas atuavam em conformidade com os direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência.

Ou seja: ainda que a suspensão da conta seja feita com base nas políticas da respectiva rede social, caso o juiz entenda que ela não fere nenhum desses princípios previstos em lei, a conta deve ser restabelecida.

Para Rais, a medida é ruim porque restringe a moderação pelas plataformas. “Deixar para o juiz aferir isso, de uma certa maneira, é nomear um novo moderador e uma nova política de moderação para essas contas”, diz. Com isso, ele avalia que a norma acabaria criando uma desigualdade entre agentes públicos concorrendo à reeleição e demais candidatos.

Já Hartmann (Insper) tem um entendimento distinto. Ele destaca que hoje o Judiciário já tem tomado decisões no sentido de restabelecer postagens e contas moderadas pelas redes, contudo sem ter nenhum critério para avaliar o que é ou não abusivo.

Apesar de considerar positiva a previsão, ele tem duas críticas. Uma delas é que os princípios previstos ainda são muito abertos. Além disso, ele também critica que a garantia esteja prevista apenas para agentes públicos, e defende que ela deveria estar na parte do projeto que trata da moderação em geral.

“É positivo que venha essa explicitação do que o Judiciário já vem reconhecendo na lei. Agora certamente não é um direito só de agente público”, afirma Hartmann. Ainda assim, ele avalia que o texto não restringiria o direito de reativação às demais pessoas.

Como lidar com a moderação da desinformação?

A pesquisadora Clara Iglesias Keller, doutora em direito público pela Uerj (Universidade do Estado do Rio de Janeiro), considera que a moderação realizada pelas plataformas para casos de desinformação envolve mais nuances. “Mais nuance quer dizer que não necessariamente vai ser uma remoção, mas talvez uma sinalização. Vão se usar outros mecanismos”, explica. “Dar mais poder de remoção neste caso seria mais arriscado. Em outros casos, com outros tipos de conteúdos como terrorismo, discurso de ódio, são discursos claramente ilegais”, diz.

Alexandre Pacheco da Silva, coordenador do Centro de Ensino e Pesquisa em Inovação (FGV Cepi), também considera complexa a criação de limites de moderação de desinformação.

No contexto eleitoral, Pacheco utiliza como exemplo um cenário em que uma pessoa compartilha informações sobre um processo judicial de um rival político, mas que já tenha sido extinto, como se fosse atual. “Se eu pegar uma informação verdadeira e utilizá-la de maneira a manipular, será que cabe à plataforma avaliar a minha intenção dentro da dinâmica?”

Na avaliação de Pacheco, para além da construção de critérios que norteiem a moderação das plataformas, é importante definir o grau de supervisão dessa atividade. “Vem se discutindo muito até que ponto você pode ter autoridades públicas que vão ter competências para acompanhar e discutir o que as plataformas vão fazer.” Para ele, as parcerias do TSE com as plataformas trilham esse caminho.

A advogada especializada em direito eleitoral Paula Bernardelli considera que não cabe às plataformas sozinhas definir o que é desinformação. “Acho que elas podem sim ter um filtro para o óbvio, para aquilo que claramente é uma mentira.”

Contudo, Bernardelli avalia que, ao mesmo tempo em que apenas relegar a decisão de moderação às plataformas não resolve o problema, tampouco deixar a análise apenas ao Judiciário é uma solução. “A gente talvez tenha que pensar em outros caminhos, unindo o poder público e as empresas privadas, abrindo um canal de diálogo diferente, abrindo formas processuais de decisão diferentes, mas as estruturas, dessa forma, não dão conta deste problema.”

Já a advogada Juliana Abrusio, que atua nas áreas de tecnologia e proteção de dados, entende que o programa de parceria do TSE com as plataformas deveria ser ampliado de modo a prever iniciativas para que o eleitor que teve contato com conteúdos desinformativos receba a informação correta.

Segundo ela, as ferramentas jurídicas atuais de indenização, da responsabilização e do direito de resposta são “muito aquém do sistema comunicacional que nós vivemos hoje, na estrutura da internet, da sociedade da informação, em que tudo viraliza muito rápido”.

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado