Menu
Brasil

O racismo no ambiente digital

Especialistas explicam como a tecnologia reforça desigualdades

Agência UniCeub

19/11/2025 10h49

golpe

Foto: Joedson Alves/Agência Brasil

por Mateus Péres

Ferramentas como o reconhecimento facial, algoritmos de seleção e filtros de imagem, usados em diversas plataformas e serviços, têm demonstrado padrões que favorecem certos grupos em detrimento de outros, especialmente em relação à cor da pele. Esses sistemas, muitas vezes, replicam preconceitos históricos presentes nos dados com os quais foram treinados. 

Segundo o Ministério dos Direitos Humanos, entre 2017 e 2022, foram registradas mais de 45,5 mil denúncias de racismo nos ambientes virtuais. Em 2023 e 2024, os números de denúncias caíram em mais de 20% com a criação de canais e tecnologias para evitar o discurso de ódio, no entanto, o problema está longe de ser resolvido.

Aline Lima, profissional da área de Tecnologia da Informação, explica que esse tipo de racismo acontece quando sistemas digitais aprendem e repetem padrões preconceituosos já existentes. 

“O racismo algorítmico acontece quando a tecnologia acaba reproduzindo esses preconceitos que já existem na sociedade. Porque os sistemas, eles aprendem com base em dados criados por pessoas. E se esses dados possuírem desigualdade, o resultado deles também vai possuir”, afirma.

Ela ainda cita exemplos comuns em ferramentas que fazem parte do cotidiano: “Isso acontece no nosso dia a dia, em coisas como reconhecimento facial, filtro de imagem ou processo seletivo automatizado, que muitas vezes tratam pessoas de forma diferente. A tecnologia não é neutra, porque por trás dela existem escolhas humanas de quem programa, de quais dados usam e tudo o que quem está programando considera correto.”

Racismo em escala digital

O ambiente virtual ampliou não apenas o alcance da informação, mas também a gravidade das ofensas. Para o advogado criminalista e professor Guilherme Gama, o impacto do racismo digital é maior justamente pela sua permanência e disseminação. 

“O ambiente digital muda tudo. A internet dá escala e permanência ao discurso de ódio: uma ofensa que antes ficava restrita a poucas pessoas agora alcança milhares em segundos e permanece registrada”, explica.

Segundo Gama, a legislação brasileira já prevê punições específicas. “Há agravantes quando o crime é cometido pelas redes sociais ou internet, com pena de reclusão de dois a cinco anos, justamente pelo potencial ampliado de dano”, lembra o advogado. 

Ele também destaca que o Supremo Tribunal Federal (STF) reforçou a responsabilidade das plataformas digitais, que agora têm o dever de agir contra conteúdos racistas mesmo sem ordem judicial.

Leis, algoritmos e responsabilidades

O debate sobre o racismo algorítmico, ou seja, o preconceito reproduzido por sistemas automatizados, também já chegou ao campo jurídico.

“A lei já oferece base para isso. A LGPD (Lei Geral de Proteção de Dados) proíbe qualquer forma de discriminação e protege informações sobre raça e etnia. Se um algoritmo toma decisões enviesadas, a empresa pode ser responsabilizada civilmente por dano moral ou material”, explica Gama.

O advogado lembra ainda que as vítimas têm o direito de exigir revisão humana em decisões automatizadas: “O artigo 20 da LGPD garante o direito à revisão humana de decisões automatizadas. E a ANPD (Agência Nacional de Proteção de Dados) pode exigir explicações e auditorias sobre o funcionamento desses sistemas.”. 

Essas medidas, porém, dependem da aplicação prática e da fiscalização: “Sem governança algorítmica — testes de viés, revisão humana, registro de decisões e transparência —, a lei perde eficácia na prática”, alerta Gama. 

Transparência e ética

Tanto Aline quanto Gama concordam que o combate ao cyber racismo passa pela união de esforços entre Estado, empresas e sociedade: “Hoje já é possível rastrear a origem dessas falhas, identificar quem forneceu, aplicou ou validou o método, e buscar reparação judicial”, destaca o advogado.

Já Aline reforça a importância da ética no desenvolvimento tecnológico. “A tecnologia não é neutra porque por trás dela existem escolhas humanas. É essencial diversificar as equipes e manter uma visão ética para que essas inovações sirvam de forma justa para todos”, reforça.

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado