Menu
Brasil

Útil, mas também impreciso: ChatGPT Health divide opinião de médicos e especialistas

Entre médicos e especialistas em inteligência artificial, não há consenso sobre os impactos do uso da ferramenta

Redação Jornal de Brasília

23/01/2026 6h25

chatgpt

VITOR HUGO BATISTA
SÃO PAULO, SP (FOLHAPRESS)

A OpenAI lançou no início de janeiro o ChatGPT Health, que permite aos usuários tirararem dúvidas específicas sobre saúde. Entre médicos e especialistas em inteligência artificial ouvidos pela Folha, porém, não há consenso sobre os impactos do uso da ferramenta.

Alguns consideram a novidade promissora. Outros dizem acreditar que as respostas do chatbot podem ser imprecisas, o que acende um alerta sobre a qualidade das informações e a responsabilização em caso de falhas.

Segundo a OpenAI, o ChatGPT Health tem caráter informativo e educacional e não é destinado para diagnóstico ou tratamento médico, tampouco para substituir o atendimento profissional de saúde. “A ferramenta pode ajudar a pessoa a organizar dúvidas, interpretar informações e se sentir mais preparada para conversas com profissionais de saúde”, diz a empresa, em nota.

O CFM (Conselho Federal de Medicina) afirma, também em nota, que o ChatGPT Health pode ser útil como instrumento adicional para orientar pacientes, mas “jamais deve substituir o exame clínico, o julgamento médico ou a responsabilidade profissional”.

O médico André Costa, especialista em clínica médica e diretor de operações da Rede Mater Dei de Saúde, alerta para os riscos de as pessoas substituírem uma consulta profissional por uma análise feita por IA. “Hoje, 90% do diagnóstico clínico aparece durante a anamnese. Na consulta, usamos diversas técnicas para confirmar ou afastar a suspeita de um diagnóstico.”

Segundo Lara Salvador, diretora de inovação e experiência na mesma rede, o uso da ferramenta pode levar a interpretações incorretas de sintomas e exames. Ela também cita os riscos de se confiar excessivamente em respostas automatizadas.

“A IA não tem acesso ao contexto clínico completo, não faz exame físico nem acompanha a evolução do quadro, elementos essenciais para tomadas de decisões”, afirma.

Gustavo Zaniboni, fundador da empresa de consultoria em inteligência artificial Redcore, questiona quem será responsabilizado em caso de erros.

“Se um médico erra e o paciente morre, ele sofrerá um tipo de punição. Agora, se a IA erra e o paciente vai a óbito, de quem é a responsabilidade? Ela continua em operação? E se o erro for uma característica, como é o caso da alucinações nos algoritmos de IA generativa?”

Alucinações ocorrem quando a inteligência artificial “inventa” ou distorce fatos para criar respostas que soam lógicas e fluidas.

Em nota, a OpenAI afirma que treinou a o ChatGPT Health com mais de 260 médicos de 60 países, incluindo brasileiros. Os profissionais deram feedback sobre os resultados do modelo mais de 600 mil vezes em 30 áreas de foco, acrescenta a empresa.

A ferramenta foi desenvolvida em “estreita colaboração com médicos”, diz a empresa, ao contrário da versão aberta, que utiliza dados das próprias conversas para treinar a plataforma.

Para Emir Vilalba, responsável pelo setor de saúde da Semantix, empresa de tecnologia focada em IA, é importante estar atento à qualidade das informações obtidas. “Não temos como garantir a procedência e coerência desses dados. Por isso é necessário cautela, sem tratar [as respostas] como um diagnóstico final”, diz.

Para Nuria López, professora de direito digital da Universidade Presbiteriana Mackenzie e cofundadora da Technoethics, qualquer ferramenta pode cometer erros e imprecisões, uma vez que não tem o contexto completo do paciente ou a experiência profissional de um humano. “Acho importante que as pessoas percebam que a ferramenta é isso, apenas uma ferramenta.”

A OpenAI diz que o ChatGPT Health está sendo disponibilizado inicialmente para um pequeno grupo de usuários, com expansão gradual do acesso, sem prioridade para um grupo específico.

Quanto à integração com prontuários eletrônicos, trata-se de um recurso que está disponível apenas nos Estados Unidos, sem prazos para chegar ao Brasil. Por aqui a nova ferramenta exige consentimento explícito do usuário para tratamento das informações de saúde, em conformidade com a LGPD (Lei Geral de Proteção de Dados).

Ainda assim, informações de cidadãos brasileiros sob a guarda de empresas estrangeiras levantam discussões sobre soberania e segurança dos dados. Isso porque existe uma lei dos Estados Unidos, a Cloud Act, que permite que autoridades americanas solicitem dados armazenados por empresas de tecnologia, mesmo que estejam fora do país.

No Brasil, há um esforço por parte do governo do presidente Luiz Inácio Lula da Silva (PT) de garantir que as informações dos brasileiros fiquem sob jurisdição nacional. A gestão já destinou R$ 1,2 bilhão a contratos com gigantes da tecnologia americanos e chineses para construir a chamada nuvem soberana, prevista no PBIA (Plano Brasileiro de Inteligência Artificial).

Quanto às vatagens da ferramenta, os especialistas afirmam que o ChatGPT Health pode ajudar aqueles que não têm acesso fácil a médicos.

Para López, a ferramenta deve ser capaz de oferecer resultados mais seguros que os de pesquisas aleatórias na internet ou de outras ferramentas gratuitas, que podem entregar informações esparsas, erradas e sem fatores de proteção dos dados. “A nova ferramenta, por ter um treinamento mais especializado, tem condições de fornecer uma boa informação e empoderar o paciente”, afirma.

“Pessoas que não têm suporte médico adequado podem ter alguma informação importante que ajude em ação de primeiros socorros ou problemas simples”, diz Zaniboni.

De acordo com a OpenAI, mais de 230 milhões de pessoas no mundo todo fazem perguntas sobre saúde e bem-estar no ChatGPT toda semana. Para Zaniboni, essas inovações são um “caminho sem volta”. “Vai ser como a eletricidade, vai estar em tudo.”

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado