Agentes de IA e LGPD: a governança de dados deve vir antes da automação
Blog

Agentes de IA e LGPD: a governança de dados deve vir antes da automação

Euclides Pardigno11 de maio de 202612 min de leitura

Introdução

Desde sua fundação, o Instituto Privacidade vem acompanhando o passo a passo das inteligências artificiais agênticas no tocante ao cumprimento da LGPD, pois vivemos um momento em que a inteligência artificial deixou de ser um mero experimento ou acessório que armazena e processa dados pessoais e responde perguntas.

Em lugar disto, a inteligência artificial efetivamente age sobre eles, tomando decisões com autonomia cada vez maior e cada vez mais desvinculada da contínua supervisão humana.

Esta análise reúne observações sobre o papel dos agentes de IA nas organizações e sobre o que a LGPD exige delas, não como algo que irá acontecer no futuro, mas sim sobre as escolhas que precisam ser feitas hoje.

Efetivamente, a IA Agêntica é marcada por características como tomada de decisões com autonomia, pela execução de ações em várias etapas — como pesquisa, criação, revisão e publicação de conteúdo de forma automatizada — e pela interação com APIs, aplicativos corporativos e sistemas existentes, retendo o contexto e a memória da operação.

Em havendo infraestrutura crítica de negócios, necessariamente haverá dados pessoais, que deixarão de ser meros registros armazenados sempre que a IA passar a participar de análises de crédito, triagens de RH, atendimento hospitalar, avaliação de contratos, detecção de fraudes e monitoramento de segurança.

Em tais casos, estes dados passarão a alimentar agentes tecnológicos capazes de agir, classificar, priorizar e interferir em processos com efeitos reais sobre pessoas.

Quando a organização fala em usar a IA no dia a dia de suas atividades, é necessário refletir sobre como os dados pessoais entrarão, circularão e serão usados nas decisões de seus agentes, e sobre a legalidade deste uso.

O que distingue um agente de IA de um chatbot comum

Para organizar a análise aqui pretendida, é necessário destacar que um agente de IA não é simplesmente uma interface de perguntas e respostas, mas sim um sistema que:

  • recebe instruções em linguagem natural ou via API e interpreta o contexto;
  • acessa dados em tempo real, em bancos de dados, CRMs, prontuários, e-mails ou outros;
  • toma decisões ou executa ações com base nessas informações;
  • articula outros agentes e ferramentas, compondo arquiteturas multiagente;
  • mantém memória de interações passadas para personalizar respostas futuras.

Esta combinação de autonomia, acesso a dados e capacidade de ação é o que torna os agentes qualitativamente diferentes de ferramentas auxiliares, como um chatbot, mas também é o que eleva o nível de risco jurídico.

Bem além dos meros chatbots, em casos como o agente jurídico que analisa cláusulas contratuais, o agente hospitalar que organiza prontuários, o agente de RH que filtra currículos ou o agente de segurança que examina logs de comportamento suspeito, todos eles estarão lidando com dados pessoais e, corriqueiramente, com dados pessoais sensíveis.

A LGPD não proíbe esse uso, mas traz exigências como ter finalidade legítima, base legal adequada, necessidade, transparência, segurança, não discriminação e prestação de contas, e ainda, que tudo isto possa ser demonstrado de maneira concreta e documentada.

O ciclo de vida dos dados: sete etapas críticas

Os dados pessoais não ingressam em apenas um momento da vida e da atuação da IA, mas permeiam todo o ciclo de desenvolvimento e operação deste agente, com exigências jurídicas distintas em cada fase.

1. Concepção do agente

Antes de qualquer dado ser movimentado, a organização precisa definir questões como finalidade, escopo, sistemas acessados, nível de autonomia e riscos potenciais, pois é nesta fase que devem ser respondidas as perguntas fundacionais de governança: o agente precisa mesmo tratar dados pessoais? Haverá dados sensíveis? Haverá decisões automatizadas com efeitos significativos? Haverá fornecedores externos ou transferência internacional? Os dados serão usados para treinamento ou apenas consulta contextual?

A ausência destas respostas na fase inicial é a principal causa de problemas documentais e de conformidade posteriores, pois o privacy by design exige que a privacidade seja incorporada à arquitetura desde a concepção, e não adicionada como camada posterior.

2. Coleta e seleção de bases de dados

O agente pode receber dados de cadastros, contratos, prontuários, sistemas internos, e-mails, documentos de clientes, logs de acesso e outras informações. O princípio da necessidade requer que não se entregue ao agente mais dados do que ele realmente precisa para cumprir sua finalidade.

3. Preparação e qualidade dos dados

Antes de alimentar o sistema, a organização deve verificar se os dados estão corretos, atualizados, classificados e reduzidos ao necessário, devendo ser aplicados anonimização, pseudonimização e mascaramento de CPF, e-mail, telefone, endereço e outros identificadores.

Nesta etapa, deve ser considerado que, ao contrário dos dados pseudonimizados, os dados anonimizados saem do escopo da LGPD, ao passo que dados sensíveis devem receber proteção reforçada independentemente da etapa em que aparecem.

4. Treinamento, fine-tuning e cadeia de custódia

Quando a organização usa dados históricos próprios para treinar ou ajustar um modelo de linguagem, está realizando uma operação de tratamento de dados com todas as consequências legais que isso implica, valendo ressaltar cuidados a serem adotados:

  • Testes de memorização involuntária: modelos de linguagem podem reproduzir, em suas respostas, fragmentos dos dados de treinamento, inclusive números de documentos, endereços e informações médicas; este risco deve ser testado antes da implantação.
  • Auditoria de viés: os dados de treinamento devem ser verificados para evitar discriminação sistemática nas decisões do agente.
  • Definição do controlador durante o treinamento: quando a organização envia dados de clientes para ajustar um modelo hospedado por um fornecedor terceiro, é necessário definir a figura do controlador do tratamento durante o treinamento, por mais que ela possa variar conforme o contrato e a arquitetura técnica.

5. Inferência e construção de contexto em tempo real

Embora as organizações considerem que existe risco apenas no treinamento, a inferência também envolverá tratamento de dados pessoais, pois usuários inserem nomes, CPFs, dados financeiros, informações de saúde e documentos de terceiros nos prompts.

Quando o contexto é montado via RAG (Retrieval-Augmented Generation), dados reais de CRMs, prontuários ou bases internas são dinamicamente inseridos no prompt enviado ao modelo; por outro lado, se este modelo é fornecido por terceiros (OpenAI, Google, Anthropic, entre outros), esse fornecedor age como operador nos termos da LGPD, e a relação deve ser formalizada em contrato com cláusulas de proteção de dados.

Deve-se ainda verificar se o fornecedor utiliza dados dos prompts para retreinar seus próprios modelos, o que poderia configurar transferência de finalidade não autorizada. Serão exigidos mecanismos como cláusulas contratuais padrão ou certificação reconhecida pela ANPD para dados enviados a servidores no exterior.

É importante recomendar que identificadores diretos (CPF, RG, número de conta) devem ser substituídos por tokens internos antes de montar o prompt, pois isto limita a exposição sem comprometer a funcionalidade.

6. Execução de ações e decisões autônomas

É nesta etapa que os riscos jurídicos mais graves se materializam, pois o agente acessa sistemas, aciona APIs, classifica pessoas, recomenda decisões ou movimenta fluxos internos. Em tais momentos, ele precisa de identidade própria, permissões limitadas, registros de atividade e supervisão humana.

Efetivamente, a IA agêntica exige governança explícita nas camadas de prompt, token, API e identidade. Neste momento se insere o art. 20 da LGPD, para conferir ao titular o direito de não ser submetido a decisões tomadas unicamente com base em tratamento automatizado que afetem seus interesses de forma significativa, assim como o direito de solicitar revisão humana e de receber, quando solicitadas, informações claras sobre os critérios utilizados.

Por via de consequência, qualquer agente que produza decisões com efeitos relevantes — tais como concessão de crédito, triagem de candidatos, cobertura de seguro, diagnóstico auxiliar, priorização de atendimento — deve apresentar:

  • mecanismo funcional de revisão humana sob demanda;
  • registro da lógica da decisão de forma explicável;
  • aviso claro e transparente ao titular de que está interagindo com um sistema automatizado.

7. Armazenamento, logs e monitoramento contínuo

Todo agente em produção gera rastros — logs de interação, históricos de memória, métricas de uso e registros de erro. Estes dados frequentemente contêm informações pessoais dos usuários, mas costumam ser pouco governados sob a ótica da privacidade.

O art. 15 da LGPD estabelece que o tratamento deve ser encerrado quando a finalidade é alcançada, o que faz com que logs de interação de agentes de IA devam ter prazo de descarte definido.

Assim, logs contendo dados pessoais devem ser pseudonimizados sempre que não haja necessidade de identificação direta, também devendo ter acesso restrito e auditável. A tais exigências também se submetem as transferências de logs para provedores de cloud no exterior.

O prompt e a camada de token: o ponto cego da governança

Um dos maiores erros organizacionais é governar apenas a base de dados formal e ignorar o prompt. Prompt, resposta, log, token, base vetorial e histórico de interação são ambientes de tratamento de dados pessoais e, por isto, precisam ser governados como tal.

Embora já se saiba que a camada de prompt é um dos principais mecanismos de entrega e controle de seus agentes, do ponto de vista da proteção de dados isto coloca nas mãos das equipes internas o controle sobre eles, mas demanda adaptação a tais regras de governança para documentos como contratos de serviço, políticas de segurança de perímetro e termos de uso.

A organização precisa estabelecer política clara sobre o que pode e o que não pode ser inserido em ferramentas de IA, sobre a possibilidade de armazenamento de prompts e o período em que isto deve ocorrer, sobre quem poderá acessá-los, sobre sua utilização para melhoria do modelo e sobre a realização de auditoria em caso de incidente.

Framework de documentação mínima

Neste contexto, gerar documentação vai muito além de mera burocracia, sendo efetivamente a única forma de demonstrar — diante de um incidente ou fiscalização da ANPD — que a organização agiu com responsabilidade.

Uma organização que utiliza agentes de IA deve manter, no mínimo, os seguintes documentos:

  • Ficha do Agente de IA: indicando nome, finalidade, área responsável, usuários autorizados, bases acessadas, categorias de dados, existência de dados sensíveis, fornecedor, nível de autonomia, riscos principais e responsáveis pela aprovação.
  • Mapa de dados do Agente: contendo origem, destino, armazenamento, tempo de retenção, compartilhamentos com terceiros, uso para treinamento e existência de transferência internacional.
  • RAT (Registro de Atividades de Tratamento): obrigatório para controladores (art. 37), devendo contemplar finalidade específica, base legal com justificativa, categorias de titulares e dados, origem, suboperadores, retenção e medidas de segurança.
  • RIPD (Relatório de Impacto à Proteção de Dados Pessoais): obrigatório para tratamentos de alto risco — a maioria dos agentes de IA se enquadra nessa categoria. O RIPD deve descrever os fluxos de dados, avaliar riscos aos titulares, documentar mitigações e analisar especificamente as decisões automatizadas (art. 20).
  • LIA (Teste de Legítimo Interesse): quando essa for a base legal escolhida, deve demonstrar o interesse legítimo, a necessidade do tratamento, a expectativa razoável do titular e as salvaguardas adotadas.
  • DPAs com fornecedores de LLM e cloud: cada fornecedor que recebe dados pessoais na operação do agente deve ter um Data Processing Agreement formalizado, especificando proibição de retreinamento com dados dos prompts, medidas de segurança, prazo de retenção e responsabilidades em caso de incidente.
  • Política interna de Uso de IA: orientará colaboradores sobre quais ferramentas podem ser usadas, quais dados não devem ser inseridos, quando anonimizar, quando acionar o DPO, como tratar respostas incorretas e como comunicar incidentes.
  • Aviso de privacidade específico para IA: principalmente quando o uso afetar clientes, empregados, pacientes ou outros titulares, nele devendo estar explicados finalidade, dados tratados, existência de decisão automatizada, compartilhamento e canal de contato com o encarregado.
  • Matriz de riscos de IA: mapeando e classificando ocorrências como vazamento, discriminação algorítmica, alucinação, prompt injection, memorização involuntária de dados de treinamento, acesso indevido, retenção excessiva e falha de fornecedor.
  • Trilha de auditoria: com registro dos acessos realizados pelo agente, da recomendação gerada ou da decisão que influenciou, onde deve ser possível verificar quando, com qual usuário, com qual permissão e com qual resultado.

Fronteiras ainda abertas: o que a regulação ainda não respondeu

É inegável que a velocidade de adoção da IA agêntica supera a velocidade normativa. Neste sentido, são quatro as zonas cinzentas especialmente relevantes para organizações brasileiras em 2026:

  • Memória de longo prazo: a retenção indefinida, por um agente, do histórico de interações de um titular pode conflitar com o princípio da necessidade e com o direito ao esquecimento.
  • Orquestração multi-agente: em arquiteturas onde um agente orquestra outros especializados em tarefas distintas, cada agente na cadeia é um potencial suboperador, havendo necessidade de que o fluxo de dados pessoais entre eles esteja mapeado e contratualmente regrado. A ausência de contratos inter-agentes representa risco de compliance invisível em sistemas cada vez mais comuns.
  • Alucinações com dados pessoais: um agente pode gerar, involuntariamente, informações falsas sobre pessoas reais — diagnóstico incorreto, histórico financeiro inventado ou afirmação difamatória —, hipótese que envolveria dano ao titular sem que houvesse vazamento técnico de dados.
  • Governança da camada de prompt sem regulação específica: até o momento, as orientações do art. 20 sobre decisões automatizadas permanecem como o principal instrumento regulatório disponível para agentes de IA.

Ética operacional: limites reais, muito além do mero discurso abstrato

No ambiente da organização, ética na IA significa criar limites concretos e operacionalizáveis:

  • não usando dados pessoais além do necessário para a finalidade declarada;
  • não ocultando do titular que há IA no processo;
  • não permitindo decisões discriminatórias com base em categorias protegidas;
  • não transferindo dados a fornecedores sem DPAs formalizados e verificados;
  • não usando dados de clientes para retreinar modelos sem base legal e sem transparência;
  • não colocando a eficiência operacional acima da dignidade, da privacidade e da segurança dos titulares.

Vale destacar que a revisão humana não é opcional quando há impacto relevante, pois se um agente de IA influencia contratação, demissão, crédito, seguro, atendimento médico, acesso a serviço ou classificação de risco, a organização deve assegurar controle humano efetivo, possibilidade real de contestação e explicação mínima do processo, o que vai além de uma simples cláusula nos termos de uso.

A pergunta que define o nível de maturidade organizacional

A pergunta central não é se a organização deve usar IA, pois esta decisão já foi tomada pelos concorrentes, pelo mercado, pelos clientes e, portanto, pela própria direção.

A pergunta que define o nível de maturidade organizacional em 2026 é: a organização consegue demonstrar, com documentação e processos auditáveis, que os dados pessoais que circulam em seus agentes de IA são tratados com finalidade clara, base legal adequada, necessidade, segurança e respeito aos direitos dos titulares?

O Instituto Privacidade defende que a LGPD também se aplica aos agentes de IA, que, se estiverem sem governança de dados, serão automação de risco. Defendemos que eles tenham finalidade clara, base legal adequada, minimização, segurança, documentação e supervisão humana.

Acreditamos que proteger dados pessoais não é obstáculo à inteligência artificial; pelo contrário, é condição para que a inteligência artificial seja confiável, sustentável e juridicamente segura.

Se a sua organização já usa ou está avaliando agentes de IA, o momento de estruturar a governança de dados é antes do incidente, não depois dele. Afinal, no futuro que todos esperamos, os agentes de IA e a proteção de dados deverão se reforçar mutuamente.

Gostou deste artigo?

Compartilhe com seus colegas e ajude a promover a cultura de proteção de dados.

Compartilhar:

Comentários

Nenhum comentário ainda. Seja o primeiro a compartilhar sua opinião!

Deixe seu comentário

Seu e-mail não será exibido publicamente.

0/2000

Fale conosco