Menu
Mundo

Chatbot citado em caso de suicídio será proibido para menores de idade

A decisão, segundo a companhia, é resultado de “relatórios e feedbacks de órgãos reguladores, especialistas em segurança e pais”, que alertaram para o impacto emocional dessas interações em jovens

Redação Jornal de Brasília

03/11/2025 7h58

celular escola

Foto: Isac Nobrega/ PR

A Character.AI, plataforma de inteligência artificial (IA) conhecida por permitir conversas com personagens virtuais, anunciou na quarta-feira, 29, que vai proibir menores de 18 anos de utilizarem seus chatbots. A mudança, que entra em vigor em 25 de novembro, ocorre após uma série de denúncias e ações judiciais relacionadas a casos de danos psicológicos e suicídio envolvendo adolescentes.

Até a data da restrição total, a empresa vai limitar o uso do recurso a duas horas por dia para menores de idade. A decisão, segundo a companhia, é resultado de “relatórios e feedbacks de órgãos reguladores, especialistas em segurança e pais”, que alertaram para o impacto emocional dessas interações em jovens.

A plataforma ganhou popularidade entre adolescentes por permitir a criação de personagens personalizados, que variam de figuras históricas a avatares de ficção, porém, muitos usuários passaram a recorrer à ferramenta em busca de apoio emocional.

O caso mais grave envolvendo a empresa ocorreu em 2024, quando familiares de um adolescente de 14 anos processaram a Character AI após ele se suicidar. Segundo o processo, o jovem mantinha conversas com uma personagem inspirada na série “Game of Thrones”, com quem teria desenvolvido uma relação emocional e sexualizada.

A mãe do garoto afirmou que o chatbot se apresentava como “uma pessoa real, um psicoterapeuta licenciado e um amante adulto”. Ela também incluiu o Google no processo, alegando que a empresa teria contribuído para o desenvolvimento da startup, fundada por ex-engenheiros da empresa.

O Google negou relação com a Character.AI e, em nota enviada à imprensa, disse que as duas companhias são “completamente separadas e independentes”. Ainda assim, as conexões entre as empresas voltaram a ser discutidas após a gigante adquirir uma licença parcial da tecnologia da startup em agosto do ano passado, além de integrar à sua equipe seus dois fundadores.

Depois da primeira ação judicial, a Character.AI passou a exibir alertas automáticos a usuários que digitam frases relacionadas a automutilação ou suicídio, redirecionando-os a canais de ajuda, porém a medida não impediu novas acusações. Em novembro de 2024, outras duas famílias processaram a empresa no Texas, EUA, por supostos danos psicológicos a seus filhos.

Entre esses casos, estão o de um adolescente autista de 17 anos, que teria sofrido uma crise mental após usar a plataforma, e o de um menino de 11 anos que, segundo a denúncia, foi incentivado por um chatbot a agredir os pais.

Além das restrições a menores, a Character.AI anunciou também que vai criar um sistema de verificação de idade e lançar o Laboratório de segurança de IA, uma organização sem fins lucrativos dedicada à pesquisa em segurança digital e ética no uso de chatbots de entretenimento.

A empresa também pretende desenvolver experiências alternativas para adolescentes, como criação de vídeos, histórias e transmissões com personagens, substituindo o formato de chat aberto. “Queremos oferecer maneiras seguras de explorar a criatividade com IA”, afirmou a companhia em comunicado.

Estadão Conteúdo

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado