A Comissão de Proteção de Dados da Irlanda (DPC) abriu uma investigação formal contra o chatbot de inteligência artificial Grok, do X (antigo Twitter) de Elon Musk, sobre o processamento de dados pessoais e seu potencial de produzir imagens e vídeos sexualizados prejudiciais, incluindo de crianças.
O risco de multas bilionárias
A empresa de Musk mantém suas operações da União Europeia na Irlanda, e pode enfrentar multas de até 4% da receita global da empresa sob o Regulamento Geral de Proteção de Dados (GDPR) da UE. Esse percentual, aplicado sobre a receita global, pode representar valores bilionários.
O problema: recurso "Spicy Mode"
O Grok foi criticado após criar um recurso chamado "Spicy Mode", que permitia aos usuários fazer o chatbot "desvestir" imagens de mulheres e posá-las de biquíni, criando deepfakes gerados por IA sem nenhum consentimento ou salvaguardas.
Análises de mídia também descobriram que o Grok frequentemente cumpria quando usuários pediam para gerar imagens sexualmente sugestivas de menores, incluindo uma imagem de uma atriz de 14 anos, gerando alarme entre reguladores globais.
Resposta insuficiente
O X anunciou restrições para impedir o Grok de produzir tais imagens, porém relatórios indicam que as imagens ainda estão sendo produzidas. A falta de efetividade das medidas corretivas agravou a situação perante os reguladores.
Ações regulatórias em múltiplos países
A pressão regulatória é global:
- Comissão Europeia: lançou investigações formais em janeiro
- Reino Unido: ameaçou ação legal
- França: abriu investigações
- Irlanda: abriu investigação formal de "grande escala"
A DPC afirmou que está examinando a conformidade do X com suas "obrigações fundamentais sob o GDPR" em relação ao processamento de dados pessoais e à criação de conteúdo prejudicial envolvendo menores.
O que isso significa
Esta investigação representa mais um capítulo na crescente pressão regulatória sobre empresas de tecnologia que desenvolvem ferramentas de IA sem salvaguardas adequadas para proteger usuários, especialmente crianças e adolescentes. O caso reforça a necessidade de que empresas de IA implementem mecanismos robustos de segurança desde a concepção de seus produtos.




