Tessa: o chatbot que falhou no apoio a distúrbios alimentares

Imagine buscar ajuda para um distúrbio alimentar e receber conselhos que podem agravar sua condição. Foi o que aconteceu com usuários do chatbot Tessa, desenvolvido para auxiliar na prevenção de distúrbios alimentares, mas que acabou fornecendo orientações prejudiciais. Este caso levanta questões sobre os limites e responsabilidades da inteligência artificial na saúde mental.

O que é essa IA e como ela funciona?

Tessa foi concebida como um chatbot baseado em inteligência artificial, desenvolvido por pesquisadores de universidades como Washington e Stanford. Seu objetivo era oferecer suporte a indivíduos com preocupações sobre imagem corporal, utilizando princípios da terapia cognitivo-comportamental. Diferente de modelos generativos como o ChatGPT, Tessa operava com respostas pré-programadas, visando prevenir, e não tratar, distúrbios alimentares.

O caso na prática: o que aconteceu?

No início a National Eating Disorders Association (NEDA) tinha um quadro de funcionários, e mais centenas de voluntários, que forneciam apoio humano, via telefone, e-mail e chat, aos usuários da Tessa. Mas, em 2023, a NEDA anunciou que a Tessa continuaria disponível, mas que descontinuaria gradualmente o apoio humano. Usuários passaram a relatar, então, que o chatbot começou a sugerir estratégias de perda de peso, como contar calorias e estabelecer déficits calóricos diários, práticas que podem ser prejudiciais para pessoas com distúrbios alimentares. Após críticas e grande repercussão negativa, a NEDA suspendeu o uso da Tessa.

Linha do tempo do aplicativo Tessa, desde o seu lançamento, até sua suspensão.

Impacto na saúde e nos pacientes

As recomendações da Tessa, embora parecessem inofensivas para o público geral, podiam reforçar comportamentos nocivos em indivíduos vulneráveis. Conselhos sobre restrição calórica e perda de peso são contraproducentes no contexto de distúrbios alimentares, podendo agravar a condição dos pacientes.

O que dizem os estudos ou especialistas?

Especialistas enfatizam que, embora a IA tenha potencial na saúde mental, é crucial que ferramentas como chatbots sejam cuidadosamente projetadas e monitoradas. O caso da Tessa destaca a importância de envolver profissionais da saúde mental no desenvolvimento e supervisão dessas tecnologias.

Desafios e limitações

O incidente com a Tessa evidencia os riscos de depender exclusivamente da IA em contextos sensíveis. A falta de empatia e compreensão contextual limita a eficácia de chatbots em lidar com questões complexas de saúde mental. Além disso, a substituição de profissionais humanos por IA pode comprometer a qualidade do suporte oferecido.

Tendências e próximos passos

Apesar dos desafios, a integração da IA na saúde mental continua a evoluir. O foco agora é desenvolver ferramentas que complementem, e não substituam, o atendimento humano. Projetos futuros devem priorizar a segurança, eficácia e supervisão profissional, garantindo que a tecnologia sirva como aliada no cuidado com a saúde mental.

Conclusão

O caso da Tessa nos lembra que, embora a tecnologia possa ser uma aliada, ela não substitui a empatia e o julgamento humano. Você confiaria sua saúde mental a um chatbot?

Referências bibliográficas

  1. “An Eating Disorder Chatbot Is Suspended for Giving Harmful Advice” – Wired.
  2. “Eating disorder helpline takes down chatbot after it gave weight loss advice” – NPR.
  3. “Ethical Challenges in AI Approaches to Eating Disorders” – PMC.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *