Veja as principais notícias no MODO STORIES
calor intenso e céu nublado
Como detectar deepfakes e vídeos de IA: é possível?
Espanha vai buscar financiamento da UE para minerais críticos do Brasil
nublado e com calor em alta
“As pernas tremem”, diz Matheus e Kauan sobre cantar na Festa de Barretos
Gripe, Covid-19, pneumococo, VSR: como saber quais vacinas respiratórias tomar (e quando)
Transtorno bipolar: psiquiatras e Dr. Kalil explicam demora no diagnóstico
Sandra Oh fala sobre desafios de interpretar Debbie em Invencível Temporada 4
NOVA MUTUM CLIMA
Publicidade Nova Mutum

Como detectar deepfakes e vídeos de IA: é possível?


A tecnologia de inteligência artificial evoluiu a um ponto em que distinguir o que é real do que foi fabricado tornou-se um desafio diário. A pergunta que surge é: como detectar se um vídeo foi feito por IA?

Ferramentas avançadas como o Sora (OpenAI), o Veo 3 e o Nano Banana (Google) levam a nos questionar o que é realidade e o que é fantasia gerada por inteligência artificial com suas cenas hiper-realistas em segundos.

smart_display

Nossos vídeos em destaque

Entender como essas mídias são produzidas é o primeiro passo para não cair em golpes financeiros ou compartilhar desinformação.

Confira, a seguir, o guia completo para identificar manipulações digitais com as técnicas mais atualizadas.

O que são deepfakes e como funcionam?

Deepfakes são arquivos de vídeo ou áudio criados por meio de algoritmos de aprendizado profundo (deep learning) para substituir o rosto ou a voz de uma pessoa real.

A tecnologia utiliza redes neurais artificiais para mapear expressões e padrões de fala, replicando-os em outra pessoa com precisão assustadora.

Vale lembrar que figuras públicas e celebridades são especialmente vulneráveis a esses conteúdos.

Segundo o site CNET, sindicatos como o SAG-AFTRA (que representa atores em Hollywood) chegaram a pressionar a OpenAI para reforçar medidas de segurança e evitar o uso indevido de imagens de artistas.

Como a IA cria rostos e vozes falsas

A IA cria rostos falsos utilizando uma técnica onde duas redes neurais “competem” entre si para refinar a imagem até que ela pareça humana.

Para a voz, o algoritmo clona o timbre e a entonação. Desse modo, os criminosos conseguem simular ordens de pagamento ou declarações polêmicas.

Já conferiu o seu feed? Há mais vídeos de IA circulando pelas redes sociais do que imaginamos. (Fonte: Yuliya Taba/Getty Images)

Quais são os principais sinais de um deepfake

É possível ao observar as limitações técnicas que os algoritmos ainda enfrentam para identificar um vídeo de IA.

Em entrevista à BBC, o especialista em perícia digital Hany Farid, professor da Universidade da Califórnia, destaca que a duração é um fator importante: vídeos de IA costumam ter entre 6 e 10 segundos, pois gerar clipes longos é caro e aumenta a chance de erros da máquina.

Fique atento aos detalhes técnicos que apontam manipulação digital em vídeos:

Cortes frequentes

Note se o vídeo tem cortes a cada 8 segundos, isso pode ser uma tentativa de esconder falhas da IA em sequências longas.

Resolução e qualidade do vídeo

Observe se o fundo parece excessivamente borrado ou se a textura da pele muda subitamente de nitidez.

Sincronia labial falha

Verifique se os movimentos da boca condizem exatamente com o que é dito, especialmente em letras que exigem fechar os lábios (m, p, b).

Piscada de olhos

Ainda é comum a IA falhar ao reproduzir a frequência natural do piscar humano. Um detalhe que facilita a detecção de vídeos de IA!

O “Vale da Estranheza”

Se algo no rosto parece “perfeito demais” ou levemente robótico, desconfie.

Ferramentas que ajudam a detectar vídeos de IA

Há softwares que analisam vídeos e entregam a probabilidade de ser falso em porcentagem. Ferramentas como Sightengine, MyDetector e DecopyAI são amplamente utilizadas para essa finalidade.

Além delas, você mesmo pode verificar a procedência de um arquivo analisando seus metadados:

  1. Acesse o site Content Authenticity;
  2. Carregue o arquivo (foto ou vídeo) desejado;
  3. Verifique o painel à direita, se o conteúdo foi gerado por IA, isso aparecerá no resumo.

Importante: Nenhuma ferramenta de detecção de IA é perfeita! Vídeos feitos com o Midjourney, por exemplo, muitas vezes não são sinalizados por esses detectores automáticos.

Deepfakes, golpes e desinformação

Os riscos dos deepfakes envolvem desde fraudes financeiras até a manipulação da opinião pública. Um exemplo real citado pelo g1 foi um vídeo viral que mostrava o líder venezuelano Nicolás Maduro tomando banho de sol em um presídio nos EUA.

A cena, que teve mais de 500 mil visualizações no X (antigo Twitter), era totalmente falsa e criada por IA para sustentar uma narrativa política falsa.

Como se proteger de vídeos manipulado

Para se proteger dos vídeos de IA, a primeira regra é a checagem cruzada: se um vídeo apresenta uma notícia bombástica, procure o mesmo conteúdo em veículos de imprensa profissionais.

No cotidiano, se receber um vídeo de um familiar pedindo dinheiro em situação de emergência, desconfie de clipes muito curtos ou com falhas de áudio.

Lembre-se: o custo de validar uma informação é muito menor do que o prejuízo de um golpe.

O uso ético de ferramentas como o Seedance 2.0, que sofreu restrições após queixas da indústria do cinema, mostra que o combate à manipulação é uma luta constante entre tecnologia e regulação.

Manter o senso crítico é sua melhor defesa. O avanço de modelos como o Nano Banana tornou a criação de fakes acessível a qualquer um. Portanto, não confie apenas no que seus olhos veem em telas de celular e computador!

Gostou de aprender a desmascarar vídeos de IA? Então compartilhe esta matéria nas suas redes sociais e ajude a combater a desinformação!

Para saber mais sobre como a tecnologia está mudando o mundo, continue navegando no TecMundo.



Source link

Publicidade Publicidade Alerta Mutum News

Related Post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Logo Alerta Mutum News