Como TikTok, Instagram e Snap usam IA contra distúrbios alimentares

Introdução

Imagine uma adolescente navegando no TikTok em busca de vídeos de receitas saudáveis. Em poucos minutos, seu feed é inundado com conteúdos que glorificam dietas extremas e corpos irreais. Essa é a realidade de muitos jovens hoje.

Para enfrentar esse desafio, plataformas como TikTok, Instagram e Snapchat estão implementando modelos de Inteligência Artificial (IA) que operam 24 horas por dia, 7 dias por semana, com o objetivo de identificar e mitigar conteúdos relacionados a distúrbios alimentares.

O que é essa IA e como ela funciona?

Essas plataformas utilizam modelos de IA que combinam visão computacional e Processamento de Linguagem Natural (NLP) para analisar imagens, vídeos e textos em tempo real.

  • Visão Computacional: Analisa elementos visuais, como imagens de corpos extremamente magros ou comportamentos alimentares prejudiciais.
  • NLP: Avalia legendas, comentários e hashtags em busca de termos associados a distúrbios alimentares, incluindo variações de linguagem conhecidas como “algospeak”, como “ana” para anorexia ou “thinspo” para “thin inspiration”.

Esses sistemas são treinados com grandes volumes de dados para reconhecer padrões e identificar conteúdos potencialmente prejudiciais, mesmo quando disfarçados por linguagem codificada.

Divulgamos uma notícia recente de que a Meta irá automatizar até 90% das avaliações de risco relacionadas à privacidade, segurança e integridade por sistemas de inteligência artificial (IA), acesse aqui.

Na Prática

TikTok: Pesquisas indicam que o algoritmo do TikTok pode exacerbar sintomas de distúrbios alimentares ao personalizar conteúdos que promovem dietas restritivas e padrões corporais inalcançáveis. Usuários com tendências a esses distúrbios recebem significativamente mais vídeos relacionados a dietas e exercícios extremos.

Instagram (Meta): O Instagram implementou recursos que direcionam usuários a recursos de apoio quando buscam por conteúdos relacionados a distúrbios alimentares. Além disso, a plataforma utiliza IA para identificar e remover conteúdos que promovem esses comportamentos.

Snapchat: Embora haja menos informações públicas sobre as medidas específicas do Snapchat, a plataforma também está envolvida em esforços para detectar e mitigar conteúdos prejudiciais relacionados a distúrbios alimentares.

Impacto na saúde e nos pacientes

A exposição contínua a conteúdos que promovem distúrbios alimentares pode levar ao desenvolvimento ou agravamento dessas condições, especialmente entre adolescentes e jovens adultos.

Por outro lado, a implementação eficaz de IA para detectar e remover esses conteúdos pode servir como uma ferramenta preventiva, reduzindo a exposição a gatilhos e promovendo ambientes online mais seguros.

O que dizem os estudos ou especialistas?

Estudos demonstram que modelos de IA podem identificar conteúdos relacionados a distúrbios alimentares com alta precisão. Por exemplo, modelos que combinam análise de texto e imagem alcançaram taxas de acurácia superiores a 95% na detecção de conteúdos prejudiciais.

Especialistas enfatizam a importância de abordagens multimodais, que consideram tanto elementos visuais quanto textuais, para melhorar a eficácia da detecção e moderação de conteúdos nocivos.

Desafios e limitações

  • Linguagem Codificada: Usuários frequentemente utilizam termos alternativos ou “algospeak” para contornar os sistemas de moderação, dificultando a detecção automatizada.
  • Falsos Positivos: Há o risco de que conteúdos legítimos de apoio ou recuperação sejam erroneamente sinalizados e removidos.
  • Privacidade: A análise profunda de conteúdos pode levantar preocupações sobre a privacidade dos usuários.
  • Adaptação Contínua: Os modelos de IA precisam ser constantemente atualizados para acompanhar as mudanças nas táticas dos usuários que promovem conteúdos prejudiciais.

Tendências e próximos passos

As plataformas estão investindo em IA mais avançada, incluindo modelos que incorporam conhecimento contextual e aprendizado contínuo para melhorar a detecção de conteúdos prejudiciais.

Além disso, há um movimento crescente para envolver comunidades de usuários e especialistas em saúde mental no desenvolvimento de políticas e ferramentas de moderação mais eficazes e sensíveis.

Conclusão

A aplicação de IA na moderação de conteúdos relacionados a distúrbios alimentares é uma ferramenta poderosa, mas não isenta de desafios. Enquanto as plataformas buscam equilibrar liberdade de expressão e segurança dos usuários, é essencial considerar as implicações éticas e práticas dessas tecnologias.

E você, acredita que a IA está sendo utilizada de forma eficaz e ética na proteção da saúde mental dos usuários nas redes sociais?

Referências

  • Does TikTok contribute to eating disorders? A comparison of the TikTok algorithms belonging to individuals with eating disorders versus healthy controls – ScienceDirect
  • Instagram is adding easier access to support for eating disorders – The Verge
  • A Novel Site-Agnostic Multimodal Deep Learning Model to Identify Pro-Eating Disorder Content on Social Media – arXiv
  • Empowering machine learning models with contextual knowledge for enhancing the detection of eating disorders in social media posts – arXiv
  • Algospeak Wikipedia

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *