Vídeos falsos criados por IA estão cada vez mais realistas, veja como identificá-los

Victor Rodrigues

7/10/20252 min read

O avanço da inteligência artificial está transformando a forma como criamos e consumimos conteúdo. Mas, com ele, surge um desafio urgente: a proliferação de vídeos ultrarrealistas falsificados, os chamados deepfakes. De políticos fazendo declarações que nunca disseram a influenciadores promovendo produtos que nunca testaram, os riscos de desinformação são cada vez maiores — e enganar o público está se tornando mais fácil do que nunca.

Segundo especialistas, o crescimento exponencial da IA generativa está acelerando a criação de vídeos manipulados com alta qualidade visual e sonora. Em muitos casos, até mesmo olhos atentos têm dificuldade para perceber que se trata de uma farsa.

Mas como, então, se proteger e identificar esses vídeos falsos antes de compartilhá-los ou acreditar neles?

Sinais que entregam um vídeo gerado por IA

Embora a tecnologia esteja cada vez mais convincente, ainda existem algumas pistas que podem denunciar a falsificação. Especialistas listam sinais como:

  • Movimentos estranhos: Piscadas irregulares, expressões faciais artificiais ou gestos corporais robóticos são comuns em vídeos gerados por IA.

  • Sincronia labial fora de ritmo: Se os lábios da pessoa não acompanham perfeitamente a fala, é um indício de manipulação.

  • Falta de imperfeições: Texturas de pele muito lisas, ausência de poros, reflexos de luz anormais e ausência de pequenas falhas visuais podem indicar que o rosto foi criado digitalmente.

  • Áudio desalinhado: Vozes com entonação robótica ou que não combinam com a expressão facial também levantam suspeitas.

  • Fundo desfocado ou estranho: Detalhes de fundo borrados, distorcidos ou que “dançam” são pistas comuns de edição com IA.

  • Contexto suspeito: Vídeos fora do padrão de comportamento conhecido da pessoa retratada, ou com mensagens muito sensacionalistas, devem levantar um sinal de alerta.

Ferramentas e atitude crítica são aliadas

Além da observação cuidadosa, há ferramentas online que ajudam a analisar metadados e padrões de edição em imagens e vídeos, como o Deepware Scanner e o Hive Moderation. Porém, mais importante que isso é o senso crítico: verificar a fonte original do vídeo, cruzar com outras fontes confiáveis e desconfiar de conteúdos muito apelativos ou que circulam apenas em redes sociais.

O especialista da CNN Brasil, John Redgrave, ressalta que a IA não precisa ser demonizada, mas é fundamental educar a sociedade sobre como ela pode ser usada de forma enganosa. “A tecnologia evolui, mas nossa capacidade de pensamento crítico também precisa evoluir junto.”

O perigo da desinformação

Os riscos não são apenas digitais. Deepfakes já foram usados para fraudes financeiras, campanhas de desinformação política e até extorsão. Em um mundo onde a confiança na informação está em jogo, saber identificar o que é real e o que é simulação digital pode ser a chave para proteger a si mesmo e aos outros