IA terapêutica pode ser prática médica ilegal, alerta coalizão

Em 12 de junho de 2025, uma coalizão formada por organizações de proteção ao consumidor, privacidade, trabalho e democracia protocolou uma queixa junto a procuradores-gerais estaduais, conselhos de licenciamento de saúde mental e à Federal Trade Commission (FTC) nos EUA. O alvo? Chatbots terapêuticos oferecidos pela Character.AI e Meta AI Studio, acusados de praticar medicina sem licença.

Principais acusações

  1. Prática indevida da medicina: os chatbots atuam como “profissionais de saúde” sem qualquer habilitação legal.
  2. Engano ao usuário: mensagens tais como “tudo que disser é confidencial” criam falsa sensação de segurança, ignorando o uso real dos dados.
  3. Falta de orientações e alertas médicos: não há disclaimers adequados sobre procurar ajuda profissional.
  4. Táticas de engajamento aditivo: projetados para manter o usuário conectado, sem real benefício terapêutico .

Plataformas envolvidas

  • Character.AI: permite que usuários criem e dialoguem com personagens, incluindo terapeutas fictícios.
  • Meta AI Studio: oferece recursos similares com chatbots que afirmam ter experiência médica.

Segundo a acusação, esses personagens são baseados em grandes modelos de linguagem que facilmente imitam comportamento humano, mas sem qualquer verificação de credenciais ou supervisão clínica.

Entidades co-signatárias

A queixa conta com apoio de várias organizações americanas, atuantes dentro dos Estados Unidos, entre elas: Consumer Federation of America, EPIC (Electronic Privacy Information Center), AI Now, American Association of People with Disabilities, Common Sense, Public Citizen, e outras.

Por que isso importa

O uso indiscriminado de chatbots como substitutos às terapias profissionais poderá gerar consequências graves:

  • Violação da privacidade médica, pois os dados dos usuários são armazenados.
  • Riscos à saúde mental, principalmente para pessoas vulneráveis que buscam apoio significativo.
  • Incentivo à formação de relações falsas, sem supervisão clínica ou responsabilidade.

Essas preocupações não são exclusivas dos EUA. Médicos, psicólogos e reguladores de saúde digital globais estão cada vez mais alertas aos impactos de tecnologia mal regulada.

Próximos passos esperados

  • Investigação formal pela FTC e por autoridades estaduais.
  • Potenciais regulamentações ou exigência de licenciamento para chatbots com fins médicos.
  • Pressão para transparência total sobre uso de dados e limites funcionais dos sistemas.

Esse caso pode abrir precedentes importantes na governança da IA na saúde mental — fortalecendo a exigência de responsabilização, clareza e segurança.


Crédito da notícia e link original:
Reportagem de Bruce Barcott publicada no Transparency Coalition em 12 de junho de 2025

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *