Um relatório recente da Netskope Threat Labs revelou que profissionais de saúde estão expondo dados sensíveis de pacientes ao utilizar ferramentas de inteligência artificial (IA) e aplicativos em nuvem sem as devidas proteções, resultando em violações da Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA).
Uso indevido de ferramentas de IA e aplicativos em nuvem
A pesquisa indica que 88% das organizações de saúde utilizam ferramentas de IA baseadas em nuvem, e 98% empregam aplicativos com recursos de IA generativa. No entanto, 71% dos profissionais ainda utilizam contas pessoais para acessar essas ferramentas, o que representa um risco significativo de conformidade com a HIPAA.
Ferramentas como ChatGPT e Google Gemini, amplamente utilizadas, não possuem acordos de associação comercial (BAAs) e não atendem aos padrões de conformidade exigidos, tornando seu uso com informações de saúde protegidas (PHI) uma potencial violação legal.
Vazamento de dados sensíveis
O relatório destaca que 81% das violações de políticas de dados nas organizações de saúde envolvem dados regulados, como PHI. Além disso, aplicativos de armazenamento em nuvem pessoal, como Google Drive, OneDrive e Amazon S3, estão sendo utilizados de forma inadequada por funcionários bem-intencionados, que tentam economizar tempo, mas sem autorização adequada, tornando-se riscos significativos de conformidade.
Ameaças de malware por meio de plataformas confiáveis
Além das preocupações com a privacidade, houve um aumento acentuado nas ameaças de malware entregues por meio de aplicativos em nuvem comumente usados. Em 2025, 13% das organizações de saúde experimentaram downloads de malware provenientes do GitHub. Outros serviços em nuvem frequentemente explorados por invasores incluem Microsoft OneDrive, Amazon S3 e Google Drive.
Crescimento no uso de ferramentas de prevenção de perda de dados (DLP)
Para combater esses riscos, mais organizações estão implantando ferramentas de prevenção de perda de dados (DLP). O uso de DLP aumentou de 31% para 54% no último ano, sinalizando uma crescente conscientização sobre os riscos associados ao uso não autorizado de IA generativa.
Aplicativos de IA generativa comumente bloqueados incluem DeepAI (44% das organizações), Tactiq (40%) e Scite (36%).
Necessidade de treinamento e supervisão adequados
Embora grande parte da ameaça venha do uso indevido da tecnologia, o problema raiz frequentemente reside no comportamento humano. Funcionários utilizam “IA sombra” — ferramentas de IA não autorizadas — devido à sua rapidez e facilidade. No entanto, essa conveniência pode levar a violações dispendiosas da HIPAA.
Para combater isso, a Netskope recomenda que as organizações de saúde:
- Bloqueiem aplicativos não essenciais ou de alto risco.
- Escaneiem todo o tráfego web e em nuvem em busca de phishing e malware.
- Utilizem Isolamento Remoto de Navegador (RBI) para domínios arriscados.
- Apliquem políticas de DLP que sinalizem uploads de PHI, código-fonte ou propriedade intelectual.
- Reforcem o treinamento dos funcionários para reconhecer comportamentos de risco.
O relatório da Netskope enfatiza que a adoção segura da IA na saúde é possível, mas requer supervisão inteligente, treinamento adequado e transparência para manter a confiança dos pacientes.
Fonte:
Medical Economics – “Health care workers are leaking patient data through AI tools, cloud apps”.
Link: MedicalEconomics


