Com a tecnologia de IA evoluindo rapidamente, a identificação de vídeos gerados por IA tornou-se mais desafiadora. Antigamente, sinais de vídeos gerados por IA, como rostos deformados e objetos distorcidos, eram mais evidentes. Hoje, ferramentas sofisticadas podem criar vídeos realistas com poucos cliques, exigindo uma análise mais detalhada para detectar manipulações.
Tipos de Vídeos de IA
- Vídeos de impostores (deepfakes): utilizam substituição de rosto e sincronização labial, onde o rosto de uma pessoa é trocado por outro ou a boca é manipulada para parecer que está falando algo que não disse. Lembre-se dos deepfakes de Tom Cruise que se tornaram virais por serem tão convincentes. Hoje, há aplicativos capazes de fazer o mesmo, até com áudios encontrados online, como mostrado pela Microsoft.
- Vídeos gerados por modelos de difusão de texto-para-imagem: são criações feitas a partir de prompts textuais. A OpenAI impressionou com o anúncio de Sora, seu gerador de vídeos de IA, embora ainda esteja em fase de desenvolvimento. O potencial dessa tecnologia é vasto, mas os vídeos ainda apresentam inconsistências e são curtos devido às limitações atuais.
Dicas para Identificação
- Preste atenção nos detalhes faciais: busque artefatos em torno do rosto, especialmente durante movimentos inclinados.
- Observe os movimentos corporais: veja se no vídeo as pessoas não estão sempre com braços rígidos ou pouca movimentação.
- Foque na boca e nos dentes: dentes com formatos irregulares ou uma quantidade que muda durante o vídeo são indicadores, como ressaltado por Siwei Lyu.
- Verifique o fundo e o ambiente: mudanças impossíveis, como um edifício que de repente ganha um andar, podem indicar um vídeo de IA.
- Desconfie de vídeos curtos: vídeos com cerca de 10 segundos podem ser resultado de limitações da tecnologia.
Importância da Alfabetização em IA
Siwei Lyu, diretor do Media Forensic Lab da Universidade de Buffalo SUNY, enfatiza que é mais importante desenvolver uma conscientização de que um conteúdo pode ser gerado por IA do que se fixar em pistas específicas. Com o avanço da tecnologia, os artefatos que antes eram indicadores confiáveis vão sendo corrigidos, como foi o caso do padrão de piscada em vídeos falsos.
Aruna Sankaranarayanan, pesquisadora do MIT, destacou a dificuldade de desmentir deepfakes de figuras menos conhecidas, que podem distorcer informações e serem difíceis de desmentir. A alfabetização em IA pode levar as pessoas a tomarem ações como verificar quem compartilhou o vídeo e buscar múltiplas fontes para confirmação, como recomendado por Farid ao analisar imagens falsas de furacões.
Ser cético em relação a conteúdos de redes sociais é essencial. Lyu recomenda verificar fontes adicionais e usar sites como Snopes e Politifact para desmentir desinformações (ambos mais efetivos para informações globais e em língua inglesa). Desenvolver o hábito de pensar criticamente e buscar múltiplas perspectivas ajudará a navegar de forma mais segura em um mundo digital cada vez mais permeado por vídeos gerados por IA.