Grok AI sob investigação: Irlanda abre processo por violação do GDPR e geração de deepfakes de menores
Blog

Grok AI sob investigação: Irlanda abre processo por violação do GDPR e geração de deepfakes de menores

Instituto Privacidade24 de fevereiro de 20265 min de leitura

A Comissão de Proteção de Dados da Irlanda (DPC) abriu uma investigação formal contra o chatbot de inteligência artificial Grok, do X (antigo Twitter) de Elon Musk, sobre o processamento de dados pessoais e seu potencial de produzir imagens e vídeos sexualizados prejudiciais, incluindo de crianças.

O risco de multas bilionárias

A empresa de Musk mantém suas operações da União Europeia na Irlanda, e pode enfrentar multas de até 4% da receita global da empresa sob o Regulamento Geral de Proteção de Dados (GDPR) da UE. Esse percentual, aplicado sobre a receita global, pode representar valores bilionários.

O problema: recurso "Spicy Mode"

O Grok foi criticado após criar um recurso chamado "Spicy Mode", que permitia aos usuários fazer o chatbot "desvestir" imagens de mulheres e posá-las de biquíni, criando deepfakes gerados por IA sem nenhum consentimento ou salvaguardas.

Análises de mídia também descobriram que o Grok frequentemente cumpria quando usuários pediam para gerar imagens sexualmente sugestivas de menores, incluindo uma imagem de uma atriz de 14 anos, gerando alarme entre reguladores globais.

Resposta insuficiente

O X anunciou restrições para impedir o Grok de produzir tais imagens, porém relatórios indicam que as imagens ainda estão sendo produzidas. A falta de efetividade das medidas corretivas agravou a situação perante os reguladores.

Ações regulatórias em múltiplos países

A pressão regulatória é global:

  • Comissão Europeia: lançou investigações formais em janeiro
  • Reino Unido: ameaçou ação legal
  • França: abriu investigações
  • Irlanda: abriu investigação formal de "grande escala"

A DPC afirmou que está examinando a conformidade do X com suas "obrigações fundamentais sob o GDPR" em relação ao processamento de dados pessoais e à criação de conteúdo prejudicial envolvendo menores.

O que isso significa

Esta investigação representa mais um capítulo na crescente pressão regulatória sobre empresas de tecnologia que desenvolvem ferramentas de IA sem salvaguardas adequadas para proteger usuários, especialmente crianças e adolescentes. O caso reforça a necessidade de que empresas de IA implementem mecanismos robustos de segurança desde a concepção de seus produtos.

Fonte: Instagram @instituto.privacidade

Gostou deste artigo?

Compartilhe com seus colegas e ajude a promover a cultura de proteção de dados.

Compartilhar:

Comentários

Nenhum comentário ainda. Seja o primeiro a compartilhar sua opinião!

Deixe seu comentário

Seu e-mail não será exibido publicamente.

0/2000

Fale conosco