Introdução
Imagine uma adolescente navegando no TikTok em busca de vídeos de receitas saudáveis. Em poucos minutos, seu feed é inundado com conteúdos que glorificam dietas extremas e corpos irreais. Essa é a realidade de muitos jovens hoje.
Para enfrentar esse desafio, plataformas como TikTok, Instagram e Snapchat estão implementando modelos de Inteligência Artificial (IA) que operam 24 horas por dia, 7 dias por semana, com o objetivo de identificar e mitigar conteúdos relacionados a distúrbios alimentares.
O que é essa IA e como ela funciona?
Essas plataformas utilizam modelos de IA que combinam visão computacional e Processamento de Linguagem Natural (NLP) para analisar imagens, vídeos e textos em tempo real.
- Visão Computacional: Analisa elementos visuais, como imagens de corpos extremamente magros ou comportamentos alimentares prejudiciais.
- NLP: Avalia legendas, comentários e hashtags em busca de termos associados a distúrbios alimentares, incluindo variações de linguagem conhecidas como “algospeak”, como “ana” para anorexia ou “thinspo” para “thin inspiration”.
Esses sistemas são treinados com grandes volumes de dados para reconhecer padrões e identificar conteúdos potencialmente prejudiciais, mesmo quando disfarçados por linguagem codificada.
Divulgamos uma notícia recente de que a Meta irá automatizar até 90% das avaliações de risco relacionadas à privacidade, segurança e integridade por sistemas de inteligência artificial (IA), acesse aqui.
Na Prática
TikTok: Pesquisas indicam que o algoritmo do TikTok pode exacerbar sintomas de distúrbios alimentares ao personalizar conteúdos que promovem dietas restritivas e padrões corporais inalcançáveis. Usuários com tendências a esses distúrbios recebem significativamente mais vídeos relacionados a dietas e exercícios extremos.
Instagram (Meta): O Instagram implementou recursos que direcionam usuários a recursos de apoio quando buscam por conteúdos relacionados a distúrbios alimentares. Além disso, a plataforma utiliza IA para identificar e remover conteúdos que promovem esses comportamentos.
Snapchat: Embora haja menos informações públicas sobre as medidas específicas do Snapchat, a plataforma também está envolvida em esforços para detectar e mitigar conteúdos prejudiciais relacionados a distúrbios alimentares.
Impacto na saúde e nos pacientes
A exposição contínua a conteúdos que promovem distúrbios alimentares pode levar ao desenvolvimento ou agravamento dessas condições, especialmente entre adolescentes e jovens adultos.
Por outro lado, a implementação eficaz de IA para detectar e remover esses conteúdos pode servir como uma ferramenta preventiva, reduzindo a exposição a gatilhos e promovendo ambientes online mais seguros.
O que dizem os estudos ou especialistas?
Estudos demonstram que modelos de IA podem identificar conteúdos relacionados a distúrbios alimentares com alta precisão. Por exemplo, modelos que combinam análise de texto e imagem alcançaram taxas de acurácia superiores a 95% na detecção de conteúdos prejudiciais.
Especialistas enfatizam a importância de abordagens multimodais, que consideram tanto elementos visuais quanto textuais, para melhorar a eficácia da detecção e moderação de conteúdos nocivos.
Desafios e limitações
- Linguagem Codificada: Usuários frequentemente utilizam termos alternativos ou “algospeak” para contornar os sistemas de moderação, dificultando a detecção automatizada.
- Falsos Positivos: Há o risco de que conteúdos legítimos de apoio ou recuperação sejam erroneamente sinalizados e removidos.
- Privacidade: A análise profunda de conteúdos pode levantar preocupações sobre a privacidade dos usuários.
- Adaptação Contínua: Os modelos de IA precisam ser constantemente atualizados para acompanhar as mudanças nas táticas dos usuários que promovem conteúdos prejudiciais.
Tendências e próximos passos
As plataformas estão investindo em IA mais avançada, incluindo modelos que incorporam conhecimento contextual e aprendizado contínuo para melhorar a detecção de conteúdos prejudiciais.
Além disso, há um movimento crescente para envolver comunidades de usuários e especialistas em saúde mental no desenvolvimento de políticas e ferramentas de moderação mais eficazes e sensíveis.
Conclusão
A aplicação de IA na moderação de conteúdos relacionados a distúrbios alimentares é uma ferramenta poderosa, mas não isenta de desafios. Enquanto as plataformas buscam equilibrar liberdade de expressão e segurança dos usuários, é essencial considerar as implicações éticas e práticas dessas tecnologias.
E você, acredita que a IA está sendo utilizada de forma eficaz e ética na proteção da saúde mental dos usuários nas redes sociais?
Referências
- Does TikTok contribute to eating disorders? A comparison of the TikTok algorithms belonging to individuals with eating disorders versus healthy controls – ScienceDirect
- Instagram is adding easier access to support for eating disorders – The Verge
- A Novel Site-Agnostic Multimodal Deep Learning Model to Identify Pro-Eating Disorder Content on Social Media – arXiv
- Empowering machine learning models with contextual knowledge for enhancing the detection of eating disorders in social media posts – arXiv
- Algospeak – Wikipedia



