💡 HISTÓRIA REAL
Imagine um tribunal onde a principal testemunha é um algoritmo. A IA sinalizou um possível achado e o médico, por decisão clínica ou simples omissão, não mencionou. O paciente teve complicações. Quem é o culpado? Um novo estudo mostra que, nessas situações, a balança da culpa tende a pender — quase automaticamente — para o lado humano.
Contexto
Um estudo recente publicado no NEJM AI avaliou como a presença de uma IA influencia o julgamento sobre supostos erros médicos. Usando cenários clínicos simulados (como diagnóstico de hemorragia ou câncer), pesquisadores descobriram que basta a IA detectar algo que o médico não viu para o público considerar o profissional culpado — mesmo sem confirmação de erro.
O chamado “efeito segundo observador” ajuda a entender essa nova pressão sobre os médicos. Quando uma IA também avalia o exame — e ainda carrega a reputação de ser incansável, imparcial e supostamente infalível —, o profissional humano passa a ser julgado não só por seus atos, mas também por qualquer discordância com o algoritmo.
E os dados confirmam isso: a responsabilização dos médicos aumenta em até 23 pontos percentuais quando a IA discorda do laudo. Por outro lado, quando os avaliadores recebem informações sobre as limitações da IA — como sua taxa de falsos positivos —, essa tendência a culpar o médico diminui significativamente.
Casos reais
Para além do estudo, casos reais ajudam a ilustrar o dilema.
📍 Em um deles, relatado pelo advogado David Weissman, a IA sinalizou um tumor que não existia. O médico confiou, encaminhou o paciente para uma biópsia desnecessária — e o trauma foi real.
“An AI flags a tumor that isn’t there. A doctor trusts it. A patient undergoes an unnecessary biopsy. So… who’s liable?”
“Uma IA sinaliza um tumor que não existe. O médico confia nela. O paciente passa por uma biópsia desnecessária. Então… quem é o culpado?”
📍 Outro caso emblemático é Lowe v. Cerner, nos EUA. Após uma cirurgia, um erro de interface no sistema hospitalar Cerner atrasou a ordem de monitoramento de oxigênio de um paciente. O resultado: o jovem Michael Taylor passou a noite sem acompanhamento e sofreu danos cerebrais irreversíveis. Em 2022, o tribunal de apelação autorizou que o caso fosse a júri, reconhecendo falhas graves no design do software — e abrindo a porta para que sistemas digitais respondam civilmente por danos médicos.
Essas histórias mostram que a presença da IA não só muda o cuidado — mas também o julgamento. Médicos se veem entre dois riscos: ignorar a IA e ser acusado de negligência; ou seguir cegamente e causar danos reais por confiar demais. É uma linha tênue entre apoio tecnológico e dependência perigosa.
Reflexão final
A inteligência artificial pode ser aliada ou armadilha. O que o estudo e os casos reais deixam claro é que a percepção social de culpa está mudando — e que a transparência sobre os limites da IA pode proteger não só médicos, mas também pacientes. Não basta a máquina acertar. É preciso saber onde ela pode falhar.
📌 Por que esse tema importa?
Ele revela um novo tipo de erro médico: aquele em que a falha é dividida entre homem e máquina, mas o julgamento recai sobre o humano. Exige-se, agora, uma nova ética de responsabilidade compartilhada — em que médicos não sejam penalizados por confiar em sistemas que, muitas vezes, nem foram treinados para questionar.
FAQ
- Isso realmente aconteceu?
Sim. O estudo do NEJM AI e casos como Lowe v. Cerner são reais e documentados. - Se a IA acertou, o médico não está errado?
Nem sempre. O estudo mostra que o julgamento do médico pode ser válido, mas a discordância com a IA já basta para mudar a percepção pública. - Quem foi responsabilizado no caso Cerner?
Ainda não houve veredito, mas o tribunal autorizou julgamento por falha de projeto do software. - Qual o risco maior: ignorar ou seguir a IA?
Ambos têm riscos. Ignorar pode parecer negligência, seguir cegamente pode causar danos. O equilíbrio é fundamental. - Isso pode acontecer no Brasil?
Sim. Sem regulação clara sobre IA médica, médicos podem ser julgados por decisões influenciadas ou distorcidas por algoritmos.
Referências
- Título: Randomized Study of the Impact of AI on Perceived Legal Liability for Radiologists
Publicado em: NEJM AI, Vol. 2, nº 6, 22 de maio de 2025
DOI: 10.1056/AIoa2400785 - David Weissman, LinkedIn, 2024
- Lowe v. Cerner, U.S. Court of Appeals (4th Circuit), decisão de 29/11/2022
Documentos Oficiais



