A plataforma Discord anunciou a implementação global de novas ferramentas de segurança para adolescentes, a partir do início de março. As medidas visam aumentar a preservação da privacidade e restringir acessos inadequados em áreas específicas da rede.
Adolescentes com mais de 13 anos, tanto novos quanto usuários existentes, precisarão comprovar sua idade para acessar certas áreas e alterar configurações. O sistema identificará usuários adultos, dispensando verificações repetidas. Para menores, opções incluem verificação facial por foto ou envio de documento de identidade, que será descartado após o uso. Após a verificação, o Discord ajustará os conteúdos de acordo com a idade do usuário.
Além disso, a empresa criará o Conselho de Adolescentes, composto por 10 a 12 jovens, para opinar e sugerir ações futuras.
Essa iniciativa se alinha a ações recentes de outras plataformas. Em janeiro, o YouTube adotou inteligência artificial para identificar menores de idade em países como Brasil e Austrália, com a medida já em vigor em alguns países europeus. O Roblox, popular rede de jogos online, exigiu comprovação de idade para participação em chats, o que gerou protestos de crianças na plataforma.
As mudanças ocorrem em meio a debates internacionais sobre proteção de menores em redes sociais. Em dezembro, a Austrália proibiu o uso por menores de 16 anos, enquanto a Nova Zelândia estuda medida similar. Países como França, Dinamarca, Noruega e Espanha implementaram restrições para essa faixa etária.
No Brasil, não há previsão de proibição, mas o Estatuto Digital da Criança e do Adolescente (ECA Digital) responsabiliza lojas de aplicativos e plataformas pela segurança de menores de idade.