Cientistas pedem mais rigor da FDA sobre IA na saúde

Em um relatório publicado em 5 de junho de 2025 na revista PLOS Digital Health, cientistas do MIT, liderados por Leo Celi, alertam sobre lacunas na supervisão regulatória de tecnologias médicas baseadas em inteligência artificial (IA) nos Estados Unidos.

Um novo desafio regulatório

As ferramentas de IA vêm transformando a medicina: auxiliam em diagnósticos, monitoramento de pacientes e recomendações terapêuticas. No entanto, ao contrário de dispositivos médicos tradicionais, muitos desses algoritmos continuam a aprender após aprovação inicial, alterando seu comportamento com o tempo.

Esse aspecto adaptativo dificulta o controle de qualidade pós-mercado e pode gerar riscos à segurança dos pacientes, especialmente se os algoritmos forem aplicados a populações diferentes das utilizadas no treinamento.

Propostas do relatório

O grupo sugere que a FDA adote uma abordagem regulatória ágil, transparente e centrada no paciente. Entre as recomendações estão:

  • Exigir que desenvolvedores divulguem como seus modelos foram treinados e testados;
  • Criar repositórios públicos de dados para acompanhar o desempenho dos algoritmos no mundo real;
  • Oferecer incentivos fiscais para empresas que sigam práticas éticas;
  • Incluir pacientes e representantes comunitários nas decisões da FDA;
  • Ensinar estudantes de medicina a avaliar criticamente ferramentas de IA.
Risco de desigualdade e ilusão de segurança

Os autores alertam que a ausência de transparência e critérios claros pode levar a erros, especialmente entre populações vulneráveis. Um algoritmo treinado com dados homogêneos pode apresentar viés e cometer equívocos ao ser aplicado a perfis demográficos diversos.

“Defendemos uma regulação centrada no risco e adaptativa, que assegure que a IA continue sendo um ativo para a prática clínica sem comprometer a segurança ou ampliar disparidades”, afirmam os autores.

Impacto esperado

Este relatório pode pressionar a FDA a atualizar suas normas para acompanhar a evolução rápida das tecnologias de IA na saúde. A proposta é clara: não basta aprovar um algoritmo uma vez; é necessário monitorar sua performance continuamente para garantir que ele permaneça seguro, eficaz e justo.


Fonte: PLOS Digital Health. “The illusion of safety: A report to the FDA on AI healthcare product approvals”. DOI: 10.1371/journal.pdig.0000866. Reportado por MedicalXpress

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *