O avanço da inteligência artificial (IA) nas empresas brasileiras já traz impacto direto sobre risco operacional e proteção de dados. É o que mostra o Netskope Threat Labs Report: Brazil 2026, que identifica que 64% das violações de políticas de dados em aplicações de IA generativa no país envolvem dados regulados.
O dado ganha peso em um cenário em que a IA já está disseminada nas operações. Segundo a pesquisa, 100% das organizações analisadas utilizam aplicações de IA generativa (GenAI), e o uso dela avançou de 50% para 71% no último ano. A tecnologia também passou a fazer parte do fluxo de trabalho de forma indireta: 96% dos usuários utilizam ferramentas com recursos com IA generativa incorporada, o que amplia a complexidade de gerenciar a exposição de dados.
A exposição não se limita às ferramentas corporativas. Em aplicações pessoais usadas no ambiente de trabalho, os dados regulados representam 66% das violações de políticas. Apesar do avanço no uso de soluções de IA generativa gerenciadas pelas organizações, que subiu de 29% para 70%, 52% dos usuários ainda utilizam aplicações pessoais, e a alternância entre contas pessoais e corporativas aumentou de 10% para 22%, mantendo brechas de controle.
“A velocidade de adoção da IA nas empresas brasileiras superou a maturidade dos processos de governança e controle sobre os dados. Hoje, o desafio das empresas não é mais decidir se vão usar IA, porque ela já está integrada à rotina corporativa. A prioridade agora é entender quais aplicações estão sendo usadas, quais informações estão sendo compartilhadas e onde existem riscos de exposição de dados sensíveis e propriedade intelectual”, explica Claudio Bannwart, country manager da Netskope.
O relatório também mostra uma mudança na dinâmica dos ataques. As plataformas amplamente utilizadas no ambiente corporativo passaram a ser usadas para distribuição de malware. No Brasil, GitHub e Microsoft OneDrive impactaram 10% das organizações cada, seguidos por Google Drive, com 6%, o que aumenta a dificuldade de diferenciar tráfego legítimo de atividades maliciosas.
O DeepSeek é a aplicação de IA mais bloqueada, com 37%, seguida pelo Tactiq, com 36%, e pelo Sider AI, com 33%. Essas ferramentas são frequentemente associadas a extensões de navegador, transcrição de reuniões ou sobreposições de produtividade, o que pode aumentar o risco de exposição de dados confidenciais devido à visibilidade e ao controle limitados sobre como os dados são processados. Esses padrões indicam que as organizações no Brasil não estão apenas reagindo aos riscos representados por aplicações específicas, mas também reforçando estratégias de governança mais amplas para garantir que o uso de IA esteja alinhado com os requisitos de segurança e conformidade.
Para Vini Egerland, engenheiro sênior de Pesquisa de Ameaças do Netskope Threat Labs, o Brasil se destaca como um verdadeiro pioneiro na adoção de IA – sua taxa de adoção de IA de geração própria lidera a maior parte do mundo, segundo o Netskope’s AI Index – mas esse entusiasmo colide frontalmente com a ansiedade em relação à conformidade. O código-fonte sozinho representa 21% das violações de DLP (Prevenção contra Perda de Dados), e muitas organizações estão optando por bloquear aplicações enquanto a governança evolui. O verdadeiro desafio não é se devemos adotar a IA, mas como construir uma governança robusta e controles de DLP que permitam que a produtividade e a inovação avancem sem deixar dados sensíveis expostos.
As informações são baseadas em dados agregados de uso coletados pela plataforma Netskope One, referentes a um subconjunto de clientes da Netskope no Brasil, entre 1º de março de 2025 e 31 de março de 2026.