Um vídeo que circula nas redes sociais mostra uma suposta onça-parda entrando em um condomínio em Campinas (SP).
8 benefícios para idosos de 60, 70, 80 anos ou mais; descubra seus direitos em 2026 Spotify lança recurso de IA que cria recaps automáticos de audiolivros Exercícios físicos para quem tem problema no coração: veja quais estão liberados e os riscos Seu celular foi invadido e você nem desconfia — Aprenda a identificar e se proteger!
A gravação, que rapidamente viralizou no Facebook e no WhatsApp, foi desmentida por fontes oficiais e especialistas.
Segundo a Prefeitura de Campinas, trata-se de fake news, uma vez que seria de inteligência artificial (IA).
Prefeitura confirma: vídeo de onça-parda é falso e pode ser a IA
A gravação mostra uma onça-parda caminhando tranquilamente por ruas residenciais no bairro San Martin.
O conteúdo chegou a passar em portais e perfis de notícias locais, mas a prefeitura divulgou nota oficial afirmando que não houve nenhum registro real do animal.
Biólogos da Mata de Santa Genebra, área ambiental próxima, também descartaram a possibilidade de um avistamento verdadeiro.
A análise indicou inconsistências visuais, como movimentos artificiais e sombras imprecisas, típicas de vídeos manipulados por IA generativa.
O caso reacendeu o alerta sobre deepfakes, vídeos criados ou alterados digitalmente para parecerem reais, muitas vezes com o objetivo de enganar o público ou gerar engajamento.
O que são deepfakes e por que são perigosos?
Deepfakes usam redes neurais para criar rostos, vozes ou cenas falsas com aparência realista.
Embora a tecnologia tenha aplicações positivas, como no cinema e em pesquisas, ela também é usada de forma maliciosa para:
-
Espalhar desinformação em períodos eleitorais;
-
Criar pânicos falsos, como no caso da onça em Campinas;
-
Cometer golpes, simulando pessoas conhecidas em chamadas de vídeo ou áudios;
-
Manipular reputações, com montagens de personalidades ou cidadãos comuns.
Além de causar confusão, o compartilhamento de deepfakes pode configurar crime de disseminação de fake news, dependendo do contexto e da intenção.
Como identificar um vídeo criado por IA
Para evitar cair em golpes, especialistas recomendam observar alguns detalhes antes de compartilhar:
-
Verifique a fonte – Prefira perfis verificados e veículos reconhecidos.
-
Observe movimentos e sombras – Vídeos falsos costumam ter expressões robóticas e sombras inconsistentes.
-
Busque confirmações oficiais – Órgãos públicos e portais locais são as melhores referências em casos de supostos incidentes.
-
Use ferramentas de checagem – Sites como E-Farsas, Aos Fatos e Lupa ajudam a confirmar a veracidade de conteúdos virais.
-
Desconfie de títulos sensacionalistas – Muitas vezes, servem apenas para gerar cliques e espalhar pânico.
Um alerta necessário
O caso da “onça de Campinas” mostra como a IA pode ser usada para enganar com realismo impressionante.
Em tempos de algoritmos cada vez mais sofisticados, a responsabilidade de cada usuário aumenta. Então, antes de compartilhar, vale sempre a pergunta: “isso realmente aconteceu?”
