Um novo relatório divulgado em março de 2026 revelou um crescimento alarmante na produção e disseminação de material de abuso sexual infantil (CSAM) gerado por inteligência artificial. O fenômeno representa um novo e grave desafio para legislações, plataformas digitais e autoridades ao redor do mundo.
O que o relatório aponta
A IA generativa tem sido utilizada para criar imagens e vídeos sintéticos de abuso sexual infantil com realismo crescente. Diferentemente do material tradicional, que exige a vitimização direta de uma criança real para ser produzido, o conteúdo gerado por IA pode ser criado sem contato físico — o que não elimina o dano, mas altera radicalmente o perfil do crime e dificulta sua detecção e combate.
Entre os principais pontos destacados pelo relatório:
- Volume em expansão: o número de imagens e vídeos sintéticos detectados cresceu de forma exponencial nos últimos dois anos
- Qualidade crescente: os modelos de IA generativa produzem conteúdo cada vez mais difícil de distinguir de material real
- Uso como ferramenta de grooming: o material sintético é utilizado por abusadores para normalizar o abuso diante de crianças reais
- Desafios legais: muitos países ainda não possuem legislação específica para CSAM gerado por IA, criando lacunas de proteção
O papel das plataformas digitais
As grandes plataformas de tecnologia enfrentam pressão crescente para detectar e remover esse tipo de conteúdo. No entanto, as ferramentas tradicionais de hash-matching — que identificam material já catalogado — são ineficazes contra conteúdo sintético inédito.
A necessidade de desenvolver sistemas de detecção baseados em IA para combater IA é uma das principais recomendações do relatório, ao lado de maior cooperação internacional entre autoridades e plataformas.
Implicações para a proteção de dados e privacidade
Do ponto de vista da proteção de dados, o fenômeno levanta questões sobre:
- O uso de imagens reais de crianças para treinar modelos de IA que posteriormente geram CSAM sintético
- A responsabilidade das empresas de tecnologia que desenvolvem e disponibilizam ferramentas de geração de imagens
- A necessidade de regulamentação específica para modelos de IA generativa, incluindo requisitos de rastreabilidade e auditoria
O Brasil, com a LGPD e o Marco Civil da Internet, possui instrumentos legais relevantes — mas a regulamentação específica para IA e para o combate ao CSAM sintético ainda está em desenvolvimento, tornando urgente a atuação legislativa e regulatória.




