por Mateus Péres
Ferramentas como o reconhecimento facial, algoritmos de seleção e filtros de imagem, usados em diversas plataformas e serviços, têm demonstrado padrões que favorecem certos grupos em detrimento de outros, especialmente em relação à cor da pele. Esses sistemas, muitas vezes, replicam preconceitos históricos presentes nos dados com os quais foram treinados.
Segundo o Ministério dos Direitos Humanos, entre 2017 e 2022, foram registradas mais de 45,5 mil denúncias de racismo nos ambientes virtuais. Em 2023 e 2024, os números de denúncias caíram em mais de 20% com a criação de canais e tecnologias para evitar o discurso de ódio, no entanto, o problema está longe de ser resolvido.
Aline Lima, profissional da área de Tecnologia da Informação, explica que esse tipo de racismo acontece quando sistemas digitais aprendem e repetem padrões preconceituosos já existentes.
“O racismo algorítmico acontece quando a tecnologia acaba reproduzindo esses preconceitos que já existem na sociedade. Porque os sistemas, eles aprendem com base em dados criados por pessoas. E se esses dados possuírem desigualdade, o resultado deles também vai possuir”, afirma.
Ela ainda cita exemplos comuns em ferramentas que fazem parte do cotidiano: “Isso acontece no nosso dia a dia, em coisas como reconhecimento facial, filtro de imagem ou processo seletivo automatizado, que muitas vezes tratam pessoas de forma diferente. A tecnologia não é neutra, porque por trás dela existem escolhas humanas de quem programa, de quais dados usam e tudo o que quem está programando considera correto.”
Racismo em escala digital
O ambiente virtual ampliou não apenas o alcance da informação, mas também a gravidade das ofensas. Para o advogado criminalista e professor Guilherme Gama, o impacto do racismo digital é maior justamente pela sua permanência e disseminação.
“O ambiente digital muda tudo. A internet dá escala e permanência ao discurso de ódio: uma ofensa que antes ficava restrita a poucas pessoas agora alcança milhares em segundos e permanece registrada”, explica.
Segundo Gama, a legislação brasileira já prevê punições específicas. “Há agravantes quando o crime é cometido pelas redes sociais ou internet, com pena de reclusão de dois a cinco anos, justamente pelo potencial ampliado de dano”, lembra o advogado.
Ele também destaca que o Supremo Tribunal Federal (STF) reforçou a responsabilidade das plataformas digitais, que agora têm o dever de agir contra conteúdos racistas mesmo sem ordem judicial.
Leis, algoritmos e responsabilidades
O debate sobre o racismo algorítmico, ou seja, o preconceito reproduzido por sistemas automatizados, também já chegou ao campo jurídico.
“A lei já oferece base para isso. A LGPD (Lei Geral de Proteção de Dados) proíbe qualquer forma de discriminação e protege informações sobre raça e etnia. Se um algoritmo toma decisões enviesadas, a empresa pode ser responsabilizada civilmente por dano moral ou material”, explica Gama.
O advogado lembra ainda que as vítimas têm o direito de exigir revisão humana em decisões automatizadas: “O artigo 20 da LGPD garante o direito à revisão humana de decisões automatizadas. E a ANPD (Agência Nacional de Proteção de Dados) pode exigir explicações e auditorias sobre o funcionamento desses sistemas.”.
Essas medidas, porém, dependem da aplicação prática e da fiscalização: “Sem governança algorítmica — testes de viés, revisão humana, registro de decisões e transparência —, a lei perde eficácia na prática”, alerta Gama.
Transparência e ética
Tanto Aline quanto Gama concordam que o combate ao cyber racismo passa pela união de esforços entre Estado, empresas e sociedade: “Hoje já é possível rastrear a origem dessas falhas, identificar quem forneceu, aplicou ou validou o método, e buscar reparação judicial”, destaca o advogado.
Já Aline reforça a importância da ética no desenvolvimento tecnológico. “A tecnologia não é neutra porque por trás dela existem escolhas humanas. É essencial diversificar as equipes e manter uma visão ética para que essas inovações sirvam de forma justa para todos”, reforça.