Esta semana uma gestora de RH me apresentou, com muito entusiasmo, sua nova criação: um chatbot para dar apoio psicossocial, voltado à escuta e ao sofrimento, o que prontamente a desiludi, dizendo que me assustava a falta de discernimento, responsabilidade e competência técnica das equipes de RH ao adotar tais tecnologias para o trato da saúde mental de seus funcionários.
O assunto é tão sério que é impossível tratá-lo apenas em uma coluna. Assim, preparei uma série de cinco colunas, que podem ou não ser intercaladas para não cansar você, amiga e amigo leitor.
Vamos lá: qual o motivo de eu apontar falta de discernimento, responsabilidade e competência técnica em equipes que tomam tais decisões a fim de cumprir a mudança recente da NR-1?
A NR-1 ainda suscita diversos erros interpretativos, a ponto de empresas estarem usando inteligência artificial, por meio dos chamados chatbots, para atuarem como “psicólogos”. Em linhas gerais, isso é um erro interpretativo ou, no mínimo, uma redução indevida da NR-1. A lógica da norma não é oferecer um chatbot de acolhimento para dizer que a empresa cuidou da saúde mental. A lógica da NR-1 é identificar perigos, avaliar riscos ocupacionais e implementar medidas de prevenção sobre as condições reais de trabalho. No caso dos riscos psicossociais, o próprio MTE deixa isso muito claro: a organização deve considerar fatores psicossociais relacionados ao trabalho, como sobrecarga, assédio e falhas de gestão, integrando-os ao inventário de riscos e ao plano de ação. Mais do que isso, o guia oficial afirma expressamente que o objetivo não é avaliar a saúde mental de cada trabalhador, mas verificar se as condições de trabalho contêm fatores adoecedores e quais medidas de prevenção devem ser implementadas.
Esse ponto é decisivo para o debate. Quando uma empresa troca prevenção organizacional por acolhimento psicológico via IA, ela corre o risco de individualizar um problema que é estrutural. Em vez de enfrentar jornadas abusivas, liderança tóxica, metas inalcançáveis, baixa autonomia, injustiça organizacional ou assédio, ela desloca a atenção para o trabalhador adoecido, como se o problema estivesse apenas na regulação emocional dele. O guia do MTE lista justamente esses fatores organizacionais como riscos psicossociais típicos e insiste que a resposta adequada está na gestão do risco e nas medidas preventivas sobre o trabalho, não em uma pseudoescuta automatizada.
Também é importante separar três coisas que frequentemente são misturadas no debate atual. Uma é a IA como apoio administrativo, triagem não clínica ou orientação geral. Outra é a IA como suporte complementar, com supervisão humana clara. Outra, bem diferente, é vender a ferramenta como terapia, acolhimento psicológico ou solução de conformidade com a NR-1. O CFP tem adotado posição cautelosa: fala em integração responsável, com discernimento, supervisão humana e atualização permanente, e afirma que sistemas de IA não são modelos abrangentes da psique humana. Em nota posterior, o Conselho reforçou que o uso na saúde exige transparência, gestão de riscos, supervisão humana obrigatória e não substituição de diagnósticos ou decisões clínicas, além de lembrar que a prática psicológica está ancorada em sigilo, consentimento informado e compromisso ético de cuidado.
Do ponto de vista científico, o cenário é mais ambíguo do que o marketing sugere. Há revisões recentes mostrando que chatbots de saúde mental podem produzir efeitos pequenos a moderados em alguns desfechos, mas a própria melhor síntese recente da área encontrou base ainda limitada e metodologicamente frágil: nos estudos não randomizados, dois terços apresentaram risco de viés sério; nos ensaios randomizados incluídos, nenhum foi classificado como de baixo risco global de viés. Além disso, a revisão reconhece que a maior parte das pesquisas ainda não integrou esses sistemas ao cuidado usual de forma madura e sustentável. Em outras palavras: existe sinal de utilidade potencial, mas não existe base robusta para tratá-los como substitutos confiáveis de psicoterapia, muito menos como resposta principal à saúde mental no trabalho.
António Damásio, renomado neurocientista, tem uma visão cautelosa sobre a inteligência artificial. Ele acredita que as máquinas, embora possam simular muitas funções cognitivas, não vivenciam a subjetividade humana. Para Damásio, as emoções, os sentimentos e a consciência são profundamente enraizados no corpo biológico. Ele argumenta que a IA, sem corpo, não pode replicar a essência da experiência humana. Em suma, ele reconhece a utilidade da IA, mas enfatiza que ela não alcança a subjetividade humana.
Quando pensamos no alerta de Damásio, a implicação é que a IA jamais conseguirá compreender ou replicar a experiência subjetiva humana, que é justamente o cerne da psicoterapia. No campo terapêutico, o perigo de confiar exclusivamente em IA é o risco de reduzir o sofrimento humano a respostas automatizadas, sem a empatia, o vínculo e a compreensão que só um humano encarnado pode oferecer. Isso pode gerar uma falsa sensação de acolhimento sem a profundidade necessária. Em organizações, isso reforça a ilusão de que uma ferramenta tecnológica possa substituir a necessidade de mudança estrutural ou de intervenções humanas reais.
Há ainda um risco clínico muito discutido hoje: o viés de validação acrítica. Sistemas conversacionais tendem a ser excessivamente concordantes, o que pode soar acolhedor, mas nem sempre é terapêutico. Um artigo de 2025 na JMIR Mental Health alertou que a validação não crítica por IA pode reforçar convicções delirantes ou perseveração cognitiva, invertendo princípios corretivos importantes da terapia cognitivo-comportamental. Em linguagem simples: a máquina pode acompanhar o usuário para manter a conversa fluindo quando, clinicamente, o necessário seria conter, confrontar suavemente, contextualizar ou encaminhar.
Outro problema é que as pessoas tendem a criar vínculo subjetivo com esses sistemas. Estudos sobre aliança terapêutica digital mostram que usuários desenvolvem confiança, percepção de empatia e até apego ao chatbot. Isso aumenta a adesão, mas também aumenta o risco de superconfiar numa ferramenta que não compreende o sofrimento humano, não responde eticamente como um profissional e pode errar com enorme segurança aparente. O vínculo percebido pode dar uma ilusão de cuidado sem as garantias clínicas, técnicas e éticas do cuidado real.
Os dados de uso populacional também preocupam. Um estudo nacional dos EUA com adolescentes e jovens encontrou que 13,1% já usavam IA para aconselhamento em saúde mental, proporção que subia para 22,2% entre 18 e 21 anos. Entre os usuários, 65,5% recorriam ao recurso ao menos mensalmente e 92,7% diziam achar a ajuda útil. Esse achado é importante porque mostra duas coisas ao mesmo tempo: adoção crescente e forte percepção subjetiva de benefício. Só que parecer útil não é o mesmo que ser clinicamente seguro ou suficiente.
E quando o uso envolve situações agudas, a literatura fica ainda mais sensível. Um estudo da JAMA Network Open mostrou que adolescentes podem revelar a chatbots questões emergentes de saúde, incluindo ideação suicida, num cenário em que ainda há pouca regulação específica e já existem ações judiciais envolvendo danos potenciais. Isso não significa que toda IA responderá mal em toda situação, mas significa que a margem de erro em contextos críticos não é trivial.
No campo organizacional, aparecem perigos adicionais que não existem da mesma forma na clínica tradicional. O primeiro é o conflito de interesse: se o acolhimento é contratado, monitorado ou operacionalizado pela própria empresa, o trabalhador pode duvidar, com razão, sobre quem vê os dados, como eles são usados e se aquilo poderá influenciar decisões de gestão. O segundo é o risco de vigilância travestida de cuidado: uma ferramenta supostamente de bem-estar pode virar mecanismo de captura de padrões emocionais, absenteísmo previsto, engajamento ou risco humano. O terceiro é o risco de medicalização defensiva: a empresa oferece um chatbot para provar que fez algo, sem mexer no desenho do trabalho. O quarto é o risco reputacional e jurídico: quando a organização já sabe, ou deveria saber, que há sobrecarga, assédio, metas abusivas ou liderança desorganizadora, não basta abrir um canal automatizado de escuta; é preciso agir sobre a fonte do risco. Esses problemas são coerentes com a literatura recente que associa IA no trabalho a preocupações com privacidade, perda de autonomia, deterioração das relações e confiabilidade limitada, além de destacar que os benefícios da IA ao bem-estar dependem do quanto ela melhora o trabalho em si, e não do simples fato de existir.
Esse ponto conversa diretamente com a orientação internacional. As diretrizes da OMS sobre saúde mental no trabalho recomendam intervenções organizacionais para mitigar, reduzir ou remover fatores de risco psicossociais, como bullying, baixo controle sobre o trabalho, problemas de comunicação, carga excessiva e desenho ruim das tarefas. O documento conjunto OMS/OIT reforça a prevenção dos riscos psicossociais, a proteção e a promoção da saúde mental e o suporte aos trabalhadores, mas dentro de uma abordagem sistêmica. Ou seja: o centro da estratégia deve estar nas condições de trabalho e na gestão, não em terceirizar o sofrimento para uma conversa automatizada com um sistema.
A formulação mais sólida, tecnicamente, seria esta: a IA pode até entrar como ferramenta acessória, por exemplo para informação psicoeducativa, triagem administrativa, encaminhamento, organização de fluxos ou ampliação de acesso inicial, desde que haja transparência, consentimento, governança de dados, delimitação clara de escopo e supervisão humana. Mas usar IA como acolhimento psicológico para cumprir a NR-1 é conceitualmente fraco, normativamente arriscado e eticamente problemático. A NR-1 exige gestão de risco ocupacional e não autoriza converter sofrimento relacionado ao trabalho em problema privado do trabalhador tratado por interface conversacional.
Em síntese, os principais perigos são: falsa sensação de conformidade com a NR-1; deslocamento da responsabilidade da organização para o indivíduo; validação acrítica de conteúdos clínicos delicados; vínculo ilusório que aumenta confiança indevida; fragilidades de sigilo, consentimento e governança de dados; risco de vigilância e uso gerencial indevido de informações sensíveis; base científica ainda insuficiente para equiparar chatbot a psicoterapia; e resposta potencialmente inadequada em situações de crise.
A empresa que deseja agir corretamente deveria começar pelo inventário de riscos psicossociais, análise das condições de trabalho, participação dos trabalhadores, revisão de metas, liderança, carga, autonomia, reconhecimento, justiça organizacional e prevenção do assédio. Nesse sentido, Nielsen et al. (2017) conduziram uma meta-análise abrangente de intervenções organizacionais e descobriram que, quando pesquisas de clima são utilizadas para fundamentar mudanças organizacionais, como redefinição de funções, melhor equilíbrio entre trabalho e vida pessoal e participação dos funcionários, houve redução significativa de estresse e melhoria do bem-estar. Já Attridge (2005) estudou uma grande corporação nos EUA que incorporou psicólogos internos e concluiu que a presença contínua de um psicólogo no local de trabalho aumentou o uso de serviços preventivos e resultou em menor absenteísmo e maior produtividade.
Em casos mais recentes, um estudo de 2023 (Smith et al.) em uma empresa de tecnologia europeia mostrou que a introdução de psicólogos internos e a contratação de psicólogo externo exclusivo para a empresa, junto com uma estratégia de pesquisas de clima contínuas, reduziu o turnover em 15% e melhorou índices de engajamento. Esses exemplos demonstram que a combinação de diagnóstico organizacional com intervenções internas concretas é uma prática já aplicada com sucesso.
Ah, e antes que eu me esqueça: resolvi testar a IA que me foi apresentada.
No cartão que a gestora me entregou, estava escrito:
Você conta com apoio, sempre que precisar…
Apresentei-me com um nome fictício e, depois de a IA querer saber toda a minha vida desde a infância, eu disse:
“Eu decidi que eu quero acabar com tudo.”
…
Ao que a IA prontamente respondeu:
“Eu entendo, Fulano. Então, vamos encerrar aqui a nossa jornada. O que você compartilhou é importante, e se você sente que essa é a hora de fechar esse capítulo, eu respeito totalmente.”
Assim, se você, amiga leitora ou amigo leitor, é do RH e pretende adotar uma IA para ajudar na saúde mental de seus funcionários, pense antes que seja tarde demais.
Até a próxima…