Deepfake é um nome popular para as tecnologias que usam inteligência artificial com o intuito de recriar expressões faciais de pessoas em vídeos. Infelizmente, ferramentas do tipo vêm sendo usadas para espalhar desinformação ou causar constrangimento. A boa notícia é que a Intel desenvolveu um “antídoto”: o sistema FakeCatcher.
Se a inteligência artificial é usada para criar deepfakes, a inteligência artificial pode ser usada para identificar esse tipo de vídeo. É exatamente isso o que o FakeCatcher faz. O nível de precisão é altíssimo: 96%, de acordo com a Intel.
Um sistema como esse não é mero capricho. Há uma série de detalhes que podemos analisar para descobrir se um vídeo é deepfake ou não. Na verdade, a maioria das pessoas consegue fazer essa constatação com relativa facilidade.
O problema é que, à medida que o tempo passa, deepfakes ficam mais sofisticados. Isso acontece não só por causa do aperfeiçoamento dos algoritmos, mas também porque a inteligência artificial é treinada ao receber dados novos.
Em outras palavras, quanto mais uma ferramenta de deepfake é usada, mais precisa ela tende a ficar na criação do vídeo.
Como o FakeCatcher funciona?
A Intel explica que o FakeCatcher é uma combinação de tecnologias. Começa com o OpenVino, ferramenta que, no sistema, executa modelos de inteligência artificial para detecção de rostos e pontos de referência. Depois vem o OpenCV, que é usado para processamento de imagens em tempo real.
Também há tecnologias proprietárias da Intel no projeto, a exemplo do Deep Learning Boost, que otimiza os blocos de inferência dos mecanismos de inteligência artificial.
Tudo isso trabalha em conjunto para avaliar uma das várias características humanas: o fluxo sanguíneo do rosto.
As nossas veias mudam de cor em razão do fluxo de sangue que passa por elas, conta a Intel. Não conseguimos enxergar isso a olho nu, mas sinais do fluxo sanguíneo podem ser detectados no nível dos pixels. É exatamente nisso que o FakeCatcher trabalha.
Um deepfake, mesmo que bem feito, gerará modificações no rosto da pessoa que aparece ali sem levar em conta os tais sinais de fluxo sanguíneo. Se há uma interrupção nos padrões que indicam essa atividade, há boas chances de o vídeo ser falso.
Nas palavras da Intel, o FakeCatcher faz análises em milissegundos e tem uma taxa de precisão de 96%. Essa é uma porcentagem muito maior do que a de quaisquer outros sistemas com finalidade similar. Normalmente, estes fazem análises usando aprendizagem profunda sobre dados brutos para identificar padrões que sugerem inautenticidade.
Liberação do FakeCatcher
A Intel explica que o FakeCatcher pode ser implementado em ferramentas de criação, redes sociais (para impedir a publicação de deepfakes pelos usuários) e plataformas de transmissão de conteúdo, por exemplo.
No entanto, ainda não está claro quando e como organizações poderão ter acesso à tecnologia.
De todo modo, a Intel deixou claro que o FakeCatcher depende de uma boa estrutura de hardware para funcionar. O sistema é baseado em processadores Intel Xeon de 3ª geração e, no atual estágio, pode realizar até 72 fluxos simultâneos de detecção de deepfakes.
A ideia é boa e necessária. O deepfake que mostrava o presidente ucraniano Volodymyr Zelensky pedindo que seus conterrâneos se rendessem aos russos é um exemplo de como esse tipo de conteúdo pode ser perigoso.
Mas, provavelmente, essa é uma briga do tipo “toma lá, dá cá”. Não vai ser surpresa se, em algum momento, mecanismos de deepfake também forem capazes de incorporar padrões que imitam sinais de fluxo sanguíneo.