Profissionais de saúde vazam dados de pacientes ao usar IA e nuvem sem proteção

Um relatório recente da Netskope Threat Labs revelou que profissionais de saúde estão expondo dados sensíveis de pacientes ao utilizar ferramentas de inteligência artificial (IA) e aplicativos em nuvem sem as devidas proteções, resultando em violações da Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA).

Uso indevido de ferramentas de IA e aplicativos em nuvem

A pesquisa indica que 88% das organizações de saúde utilizam ferramentas de IA baseadas em nuvem, e 98% empregam aplicativos com recursos de IA generativa. No entanto, 71% dos profissionais ainda utilizam contas pessoais para acessar essas ferramentas, o que representa um risco significativo de conformidade com a HIPAA.

Ferramentas como ChatGPT e Google Gemini, amplamente utilizadas, não possuem acordos de associação comercial (BAAs) e não atendem aos padrões de conformidade exigidos, tornando seu uso com informações de saúde protegidas (PHI) uma potencial violação legal.

Vazamento de dados sensíveis

O relatório destaca que 81% das violações de políticas de dados nas organizações de saúde envolvem dados regulados, como PHI. Além disso, aplicativos de armazenamento em nuvem pessoal, como Google Drive, OneDrive e Amazon S3, estão sendo utilizados de forma inadequada por funcionários bem-intencionados, que tentam economizar tempo, mas sem autorização adequada, tornando-se riscos significativos de conformidade.

Ameaças de malware por meio de plataformas confiáveis

Além das preocupações com a privacidade, houve um aumento acentuado nas ameaças de malware entregues por meio de aplicativos em nuvem comumente usados. Em 2025, 13% das organizações de saúde experimentaram downloads de malware provenientes do GitHub. Outros serviços em nuvem frequentemente explorados por invasores incluem Microsoft OneDrive, Amazon S3 e Google Drive.

Crescimento no uso de ferramentas de prevenção de perda de dados (DLP)

Para combater esses riscos, mais organizações estão implantando ferramentas de prevenção de perda de dados (DLP). O uso de DLP aumentou de 31% para 54% no último ano, sinalizando uma crescente conscientização sobre os riscos associados ao uso não autorizado de IA generativa.

Aplicativos de IA generativa comumente bloqueados incluem DeepAI (44% das organizações), Tactiq (40%) e Scite (36%).

Necessidade de treinamento e supervisão adequados

Embora grande parte da ameaça venha do uso indevido da tecnologia, o problema raiz frequentemente reside no comportamento humano. Funcionários utilizam “IA sombra” — ferramentas de IA não autorizadas — devido à sua rapidez e facilidade. No entanto, essa conveniência pode levar a violações dispendiosas da HIPAA.

Para combater isso, a Netskope recomenda que as organizações de saúde:

  • Bloqueiem aplicativos não essenciais ou de alto risco.
  • Escaneiem todo o tráfego web e em nuvem em busca de phishing e malware.
  • Utilizem Isolamento Remoto de Navegador (RBI) para domínios arriscados.
  • Apliquem políticas de DLP que sinalizem uploads de PHI, código-fonte ou propriedade intelectual.
  • Reforcem o treinamento dos funcionários para reconhecer comportamentos de risco.

O relatório da Netskope enfatiza que a adoção segura da IA na saúde é possível, mas requer supervisão inteligente, treinamento adequado e transparência para manter a confiança dos pacientes.

Fonte:
Medical Economics – “Health care workers are leaking patient data through AI tools, cloud apps”.
Link: MedicalEconomics

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *