O algoritmo avisou: e agora, quem paga o preço?

💡 HISTÓRIA REAL

Imagine um tribunal onde a principal testemunha é um algoritmo. A IA sinalizou um possível achado e o médico, por decisão clínica ou simples omissão, não mencionou. O paciente teve complicações. Quem é o culpado? Um novo estudo mostra que, nessas situações, a balança da culpa tende a pender — quase automaticamente — para o lado humano.

Contexto

Um estudo recente publicado no NEJM AI avaliou como a presença de uma IA influencia o julgamento sobre supostos erros médicos. Usando cenários clínicos simulados (como diagnóstico de hemorragia ou câncer), pesquisadores descobriram que basta a IA detectar algo que o médico não viu para o público considerar o profissional culpado — mesmo sem confirmação de erro.

O chamado “efeito segundo observador” ajuda a entender essa nova pressão sobre os médicos. Quando uma IA também avalia o exame — e ainda carrega a reputação de ser incansável, imparcial e supostamente infalível —, o profissional humano passa a ser julgado não só por seus atos, mas também por qualquer discordância com o algoritmo.

E os dados confirmam isso: a responsabilização dos médicos aumenta em até 23 pontos percentuais quando a IA discorda do laudo. Por outro lado, quando os avaliadores recebem informações sobre as limitações da IA — como sua taxa de falsos positivos —, essa tendência a culpar o médico diminui significativamente.

Casos reais

Para além do estudo, casos reais ajudam a ilustrar o dilema.

📍 Em um deles, relatado pelo advogado David Weissman, a IA sinalizou um tumor que não existia. O médico confiou, encaminhou o paciente para uma biópsia desnecessária — e o trauma foi real.

“An AI flags a tumor that isn’t there. A doctor trusts it. A patient undergoes an unnecessary biopsy. So… who’s liable?”


“Uma IA sinaliza um tumor que não existe. O médico confia nela. O paciente passa por uma biópsia desnecessária. Então… quem é o culpado?”

📍 Outro caso emblemático é Lowe v. Cerner, nos EUA. Após uma cirurgia, um erro de interface no sistema hospitalar Cerner atrasou a ordem de monitoramento de oxigênio de um paciente. O resultado: o jovem Michael Taylor passou a noite sem acompanhamento e sofreu danos cerebrais irreversíveis. Em 2022, o tribunal de apelação autorizou que o caso fosse a júri, reconhecendo falhas graves no design do software — e abrindo a porta para que sistemas digitais respondam civilmente por danos médicos.

Essas histórias mostram que a presença da IA não só muda o cuidado — mas também o julgamento. Médicos se veem entre dois riscos: ignorar a IA e ser acusado de negligência; ou seguir cegamente e causar danos reais por confiar demais. É uma linha tênue entre apoio tecnológico e dependência perigosa.

Reflexão final

A inteligência artificial pode ser aliada ou armadilha. O que o estudo e os casos reais deixam claro é que a percepção social de culpa está mudando — e que a transparência sobre os limites da IA pode proteger não só médicos, mas também pacientes. Não basta a máquina acertar. É preciso saber onde ela pode falhar.


📌 Por que esse tema importa?

Ele revela um novo tipo de erro médico: aquele em que a falha é dividida entre homem e máquina, mas o julgamento recai sobre o humano. Exige-se, agora, uma nova ética de responsabilidade compartilhada — em que médicos não sejam penalizados por confiar em sistemas que, muitas vezes, nem foram treinados para questionar.


FAQ

  1. Isso realmente aconteceu?
    Sim. O estudo do NEJM AI e casos como Lowe v. Cerner são reais e documentados.
  2. Se a IA acertou, o médico não está errado?
    Nem sempre. O estudo mostra que o julgamento do médico pode ser válido, mas a discordância com a IA já basta para mudar a percepção pública.
  3. Quem foi responsabilizado no caso Cerner?
    Ainda não houve veredito, mas o tribunal autorizou julgamento por falha de projeto do software.
  4. Qual o risco maior: ignorar ou seguir a IA?
    Ambos têm riscos. Ignorar pode parecer negligência, seguir cegamente pode causar danos. O equilíbrio é fundamental.
  5. Isso pode acontecer no Brasil?
    Sim. Sem regulação clara sobre IA médica, médicos podem ser julgados por decisões influenciadas ou distorcidas por algoritmos.

Referências

  • Título: Randomized Study of the Impact of AI on Perceived Legal Liability for Radiologists
    Publicado em: NEJM AI, Vol. 2, nº 6, 22 de maio de 2025
    DOI: 10.1056/AIoa2400785
  • David Weissman, LinkedIn, 2024
  • Lowe v. Cerner, U.S. Court of Appeals (4th Circuit), decisão de 29/11/2022
    Documentos Oficiais

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *