Cheapfakes e deepfakes — Como identificá-los

Publicidade

Nas últimas semanas, o termo “cheapfake” disparou para a vanguarda da nossa consciência nacional. Cheapfakes — e sua contraparte igualmente perturbadora, deepfakes — estão se tornando muito mais prevalentes hoje, com o volume desse conteúdo enganoso estimado dobrando online a cada seis meses. É por isso que os principais mecanismos de busca, redes de mídia social e editores de conteúdo do mundo estão tomando nota. Nas últimas semanas, o Google anunciou um plano de longo alcance para reduzir a capacidade de descoberta de deepfakes em suas classificações de pesquisa.

Felizmente, você não precisa dos recursos do Google para detectar mídia alterada. Aqui, examinaremos as principais diferenças entre cheapfakes e deepfakes, bem como as ferramentas baseadas em IA que podem ser usadas para detectá-las decisivamente.

Publicidade

Cheapfakes são mídias que foram manipuladas por meios baratos e mais acessíveis, como softwares comerciais de edição de fotos e vídeos. Muitos cheapfakes são criados com ferramentas como a Adobe, que permite acelerar e desacelerar vídeos, bem como criar animações, movimentos e trocas de rostos. Cheapfakes geralmente têm uma pegada amadora — na verdade, qualquer adolescente que tenha feito aulas básicas de animação por computador pode criá-los. Eles são essencialmente o equivalente a efeitos especiais de baixo orçamento, e é muito fácil produzi-los com habilidades limitadas.

Deepfakes, por outro lado, são mais realistas do que cheapfakes e muito mais difíceis de detectar. Eles exigem um nível muito maior de treinamento, competência e ferramentas sofisticadas para criar. Mesmo na extremidade inferior, um certo nível de conhecimento de software programático é necessário. Na extremidade superior, os criadores exigem experiência em design rápido e engenharia rápida para alimentar essa entrada em ferramentas de IA generativas, como Sora. O escalão mais sofisticado de deepfakes faz uso de redes neurais adversárias generativas (GANs), onde dois algoritmos competem e evoluem: um algoritmo aprende a criar deepfakes, enquanto outro aprende a detectá-los. É aqui que se torna muito difícil discernir entre o que é real e o que não é.

A boa notícia em tudo isso? É altamente possível dizer a diferença entre um cheapfake/deepfake e um conteúdo real, porque esses materiais frequentemente introduzem inconsistências que podem ser detectadas.

Publicidade

Esteja atento ao seguinte ao tentar determinar a autenticidade da mídia:

  • As posições do corpo e do rosto são estranhas ou incomuns no primeiro ou no segundo plano?
  • A coloração não é natural?
  • O envelhecimento da pele não condiz com os olhos ou cabelos do sujeito?
  • As pessoas no vídeo não estão piscando ou estão piscando de forma não natural?
  • O áudio é inconsistente com o visual?
  • Os membros estão estranhamente misturados ao fundo ou parecem estranhos?

Recomendamos uma combinação do bom e velho olho humano — que geralmente é afiado o suficiente para dizer quando algo está “errado” — e uma ou mais das seguintes ferramentas de IA que são muito eficazes na detecção de manipulação. Isso é “usar IA para detectar IA”, por assim dizer.

No exemplo de imagens, uma das principais pistas de um cheapfake ou um deepfake é a marca d'água que está incorporada na imagem. Com base nessas marcas d'água, as ferramentas podem facilmente dizer se uma imagem é genuína ou não. Vídeos falsos, por outro lado, podem ser detectados por meio de várias técnicas, incluindo:

Publicidade
  • Análise de marcos faciaisque funciona analisando o posicionamento de características-chave em um rosto no vídeo, como olhos, nariz e boca. A análise de marcos faciais demonstrou a capacidade de identificar manipulação de vídeo no nível de pixel para detectar imagens de rosto falsas. A consistência temporal pode analisar ainda mais como as características faciais se movem ao longo do tempo; cheapfakes e deepfakes geralmente apresentam inconsistências sutis nesses movimentos.
  • Adicionalmente, detecção de cintilação pode encontrar sinais que consistem na junção de diferentes fontes. Essas ferramentas podem detectar inconsistências na iluminação ou cor em um vídeo para apontar a possibilidade de manipulação.
  • Outra técnica se concentra em movimentos labiais e sincronização labial erros. A fala consiste em sons que correspondem a formatos de lábios. As ferramentas podem comparar movimentos de lábios a sons; qualquer discrepância pode indicar um cheapfake ou deepfake.
  • Finalmente, outras ferramentas concentram-se em analisando variações em tons de cinza dentro de um vídeo. O olho humano pode realmente distinguir cerca de dez tons diferentes de cinza, e cheapfakes e deepfakes podem introduzir inconsistências em tons de cinza que podem ser detectados.

Dada a proliferação crescente de cheapfakes e deepfakes e seu potencial para incendiar a agitação social — assim como ameaçar a privacidade individual — acreditamos que ferramentas de detecção precisam ser implantadas de forma mais agressiva e proativa. Por exemplo:

  • Sites de compartilhamento de vídeos podem integrar ferramentas de detecção de deepfake para sinalizar ou verificar a autenticidade do conteúdo enviado.
  • Técnicas de detecção de cheapfake e deepfake podem se tornar parte de ferramentas educacionais para capacitar os alunos a avaliar criticamente o conteúdo online e reconhecer deepfakes quando os encontrarem.
  • Artistas podem ter sua reputação e sua arte comprometidas por deepfakes. A comunidade artística pode adotar a detecção cheapfake/deepfake para autenticar a origem de obras de arte digitais ou determinar se a aparição de uma celebridade em um filme é real ou sintética.
  • Protegendo crianças e aqueles que são vulneráveis: a detecção de deepfake pode ser usada para identificar e sinalizar deepfakes criados para propósitos de cyberbullying. Isso pode ajudar a proteger vítimas e responsabilizar os valentões.

Está claro que as tecnologias de detecção de deepfake baseadas em IA ainda estão se desenvolvendo e ainda não atingiram a maturidade completa. Isso ocorre porque essas soluções são estatísticas por natureza e “adivinham” se uma imagem ou vídeo é um cheapfake ou um deepfake ou não, e podem fazer uma determinação incorreta. A verdade é que os criadores de cheapfake/deepfake e as ferramentas de detecção estão em uma corrida armamentista constante. E o que está claro é que os resultados estão ficando cada vez mais sofisticados, tornando mais difícil para as ferramentas de detecção distinguir o que é real do que é fabricado. Também é importante lembrar que as ferramentas de detecção de IA são treinadas em grandes conjuntos de dados de imagens ou vídeos, e esses conjuntos de dados podem introduzir viés.

Algoritmos de detecção são tão bons quanto os dados de treinamento inseridos neles. Novos deepfakes estão sendo constantemente desenvolvidos, desafiando constantemente as ferramentas de detecção existentes. A boa notícia é que um progresso considerável foi feito com essas ferramentas e cada interação está melhorando. No entanto, ainda temos um longo caminho a percorrer para garantir que a sociedade não seja vítima dessas imagens fabricadas.

Dr. Mohamed Lazzouni é CTO, Consciente.



Você está aqui: