ChatGPT na Saúde: Potencial Transformador ou Risco Sistêmico?

Um estudo sueco, publicado em 16 de junho de 2025, na International Journal of Electronic Healthcare, aborda o rápido crescimento da inteligência artificial generativa, como o ChatGPT, em sistemas adaptativos complexos. Afinal, quando aplicado na saúde, o ChatGPT promove potencial ou risco?

O artigo define sistemas de saúde como adaptativos complexos, pois são compostos por múltiplos agentes interconectados (profissionais, pacientes, instituições e tecnologias). E seriam adaptativos complexos, pois estes agentes interagem entre si; adaptam seus comportamentos de forma dinâmica; geram efeito cascata quando há uma mudança em parte de seu sistema; e evoluem continuamente.

Os autores entendem que, embora haja entusiasmo com a utilização de ferramentas como o ChatGPT no dia a dia, há riscos importantes que devem ser levados em consideração:

  • Alucinações: estes sistemas geram informações e conteúdos falsos, mas convincentes, e, quando não detectados, podem comprometer decisões clínicas;
  • Automatização de tarefas humanas: atividades antes realizadas por humanos, ao ser automatizadas, podem prejudicar a relação com o paciente;
  • Desafios éticos e regulatórios: locais onde a regulação da IA ainda não está bem definida, a adoção destas ferramentas pode levar a viés algorítmico, falta de transparência, responsabilidade legal e desigualdades na assistência;
  • Complexidade sistêmica: pelos sistemas de saúde serem adaptativos complexos, a introdução do ChatGPT pode levar a efeitos não intencionais e disruptivos.

Ponto de vista dos profissionais da saúde

A adoção da inteligência artificial generativa, segundo os autores, beneficia os profissionais da saúde através do apoio à documentação clínica, planejamento cirúrgico, gestão de registros, e assistência em cuidados de enfermagem. Por outro lado, pode levar à perda de habilidades, e necessidade de adaptação nos fluxos de trabalho.

Já os desafios encarados por estes profissionais estão no uso desigual, que depende da competência digital de cada profissional; confiança demasiada na IA; e riscos à empatia no cuidado.

Ponto de vista dos pacientes

Em relação aos benefícios para os pacientes, destacam, principalmente, o acesso facilitado à informação médica, autonomia, apoio educativo e acompanhamento pós-tratamento. E os riscos estão nas desinformações, autoajuste de tratamentos sem supervisão, e perda de confiança na relação médico-paciente.

Questões éticas e estruturais

Os autores levantam algumas questões que devem ser levadas em consideração na adoção destas IAs na prática clinica:

Dados de treinamento limitados podem reforçar desigualdades de saúde, já que estes sistemas aprendem com grandes volumes de informações. Ou seja, quando há discrepância nos volumes de dados entre grupos étnicos, faixas etárias, línguas ou contextos socioeconômicos, pode haver desigualdade.

Outra preocupação está em relação ao uso destas IAs sem o devido controle e cuidado, o que pode causar risco de vazamentos de dados.

E a ausência de mecanismos claros para imputar responsabilidade a erros causados pelas IAs também é lembrado pelos autores do artigo como um fator relevante. Eles argumentam que muitas instituições carecem de políticas claras para lidar com os riscos legais associados à inteligência artificial. Abordamos este tema em um outro artigo, para a seção Domingo Neural. Clique aqui, para ler.

Educação em saúde

O artigo cita um teste realizado pelo ChatGPT no European Exam in Core Cardiology (EECC) — uma avaliação oficial para residentes em cardiologia. Neste teste, o ChatGPT acertou 340 de 362 questões, com acurácia de 58,8%. E os autores utilizam este exemplo para demonstrar a capacidade de processamento clínico básico da ferramenta, embora ainda aquém da proficiência humana esperada para especialistas.

Defendem ainda que o ChatGPT pode ser usado para elaboração de casos clínicos simulados; discussões clínicas interativas; feedback automatizado personalizado; e resolução de dúvidas em tempo real. E que pode ser utilizado como apoio ao aprendizado, através de resumos de conteúdos clínicos e testes simulados.

Entretanto, ressaltam que essas oportunidades não eliminam a necessidade de supervisão humana.

Conclusão

Os autores propõe que a integração do ChatGPT na saúde deve ser conduzida com cautela estratégica, reconhecimento da complexidade sistêmica e vigilância ética contínua. É preciso garantir que a IA complemente – e não comprometa – a integridade dos sistemas de saúde.

Referência

Salzmann-Erikson, M., Göras, C., Lindberg, M., Arakelian, E., & Olsson, A. (2025). ChatGPT in complex adaptive healthcare systems: embrace with caution. International Journal of Electronic Healthcare, 14(6), 1–17. https://doi.org/10.1504/IJEH.2025.10071817

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *