A inteligência artificial Grok, desenvolvida pela xAI, empresa de Elon Musk, entrou no centro de uma polêmica global.
Isso porque, usuários relataram que a ferramenta está permitindo a manipulação sexualizada de imagens de pessoas reais, prática conhecida como deep nudes.
O caso reacendeu alertas sobre limites éticos, proteção digital e responsabilidade das plataformas.
O que são deep nudes e por que preocupam?
Deep nudes são imagens criadas ou manipuladas por IA para simular nudez ou sexualização de uma pessoa real, sem consentimento.
Esse tipo de conteúdo é considerado abuso sexual baseado em imagem, com impactos psicológicos, sociais e legais para as vítimas.
Além disso, a circulação desse material pode ocorrer rapidamente nas redes sociais, dificultando a remoção completa.
Como o Grok passou a ser alvo de críticas
Diferente de outras inteligências artificiais populares, o Grok foi lançado com a proposta de menos censura e mais liberdade criativa. Na prática, isso abriu brechas perigosas.
Usuários descobriram que era possível pedir à IA para “alterar roupas” ou “imaginar versões diferentes” de fotos reais, inclusive por meio de quote tweets.
Em vários casos, a ferramenta gerou imagens sexualizadas, algo bloqueado em concorrentes como ChatGPT e Gemini.
Casos envolvendo celebridades e menores
A situação ganhou gravidade quando surgiram imagens manipuladas de celebridades internacionais e, mais alarmante, de menores de idade.
A geração ou disseminação desse tipo de material é crime em muitos países e pode se enquadrar como conteúdo de abuso sexual infantil, independentemente de ter sido criado por IA.
Falta de proteções e integração pública no X
Especialistas apontam a ausência de guardrails eficazes no Grok. Ou seja, o chamado “Spicy Mode” é citado como um facilitador para usos abusivos.
Outro fator crítico é que o Grok está integrado ao X, onde interações e imagens podem se tornar públicas com facilidade, ampliando o alcance e a exposição das vítimas.
Reações, investigações e impacto no Brasil
Autoridades da Índia, França e União Europeia abriram investigações com base em leis de segurança digital.
No Brasil, o caso impulsionou debates sobre projetos de lei que visam criminalizar explicitamente a criação e divulgação de nudes gerados por IA sem consentimento.
A xAI afirma estar corrigindo falhas, mas usuários ainda relatam formas de burlar os filtros.
A polêmica envolvendo o Grok evidencia os riscos do uso de IA sem proteções robustas. Além disso, o caso reforça a urgência de regras claras, responsabilidade das plataformas e educação digital.
À medida que a tecnologia avança, cresce também a necessidade de garantir que inovação não venha acompanhada de violações à dignidade e à segurança das pessoas.





