Deepfake: assustador avanço tecnológico que usa Inteligência Artificial

Os vídeos adulterados por Inteligência Artificial, chamados de deepfake, podem ameaçar nossos conceitos do que é verdade.

10/06/2019 às 9:00

Você certamente conhece a expressão inglesa fake news, não é mesmo? São as notícias falsas plantadas na internet que tanto tumultuam o mundo todo. Mas agora surgiu uma expressão nova: deepfake.

O termo contém a mesma palavra fake (que significa “falso”) e junta ainda deep — “profundo”, como em deep learning das Inteligências Artificiais (IA). Aliás, até porque o machine learning da IA é usado nos programas de criação de deepfake. Então, o que é um deepfake?

Basicamente é um avanço tecnológico das fake news. Pois se antes as notícias e informações falsas vinham em forma de texto, agora elas podem ser produzidas em vídeo. Um vídeo adulterado, manipulado, é um deepfake.

Programas que amadores podem usar

Então, agora o deepfake começa a aparecer por causa da evolução tecnológica. Até há pouco tempo mexer em um vídeo requeria equipamento sofisticado e programas muito complexos. Assim, essa tecnologia só era utilizada por estúdios em Hollywood, pelos magos dos efeitos especiais.

Você sabe o que é deepfake?

Entretanto, hoje existem programas simples e acessíveis. Na verdade, qualquer usuário com conhecimento médio em computadores pode baixar um programa e manipular vídeos. Já tem muito amador fazendo isso — em síntese, colocando a cabeça de uma pessoa no corpo de outra.

Aliás, já escrevemos sobre as antecessoras do deepfake, as fake news, aqui no Vivo Tech. Leia sobre as redes sociais mais usadas para notícias falsas. Ou ainda sobre ferramentas para identificar fake news.

Vítimas famosas de deepfake

Um cineasta americano, para demonstrar o poder de um deepfake bem feito, criou um vídeo com o ex-presidente norte-americano Barack Obama. No vídeo, Obama diz coisas que ele jamais falaria — pelo menos em público. Veja nesta reportagem do Jornal da Band: você não nota que não foi o Obama quem fez aquelas declarações.

Vídeos falsos com tecnologia Deepfake.

Deepfake é uma evolução tecnológica das fake news pois usa conteúdos em vídeos.

Políticos são um prato cheio para deepfakes, assim como são para fake news. Na foto acima, vemos em detalhe como são trabalhadas duas imagens. À esquerda, vemos o presidente norte-americano Donald Trump; à direita, está o ator Nicolas Cage. Mas o cabelo do último é o do presidente, não é mesmo? E assim imagens são sobrepostas, misturadas, até que não se observe nada estranho. A fala do ator poderá estar na boca de Trump e assim por diante.

Obviamente, não é só na política que existe o risco. Muitas atrizes já tiveram seus rostos inseridos em filmes pornográficos. Scarlett Johansson foi uma das vítimas e ficou enfurecida com a situação. Em uma declaração pública, ela afirmou: “Não há nada que impeça alguém de recortar a imagem de meu rosto e colá-la em um corpo diferente, editando tudo para que fique realista. E aliás não há como se defender de toda a depravação da internet. A web é, dessa forma, um território sem lei”.

Deepfake com vídeo falso de Scarlett Johansson.

A atriz Scarlett Johansson, uma vítima de vídeos deepfake.

Um vídeo deepfake de Scarlett já foi assistido mais de 1 milhão de vezes. Diz a atriz que em breve outras celebridades sofrerão o mesmo. E isso que casos como os de Scarlett são obras de amadores interessados apenas em pornografia.

Deefake, poder de uma bomba nuclear

Contudo, se profissionais se dedicarem ao deepfake, coisas terríveis podem acontecer. Por exemplo, um falso alerta de ataque nuclear ou um vídeo falso mudando o resultado de uma eleição. Ainda, a destruição de carreiras de empresários e políticos ou, até mesmo, uma cena de sexo de um dos cônjuges com deepfake pode resultar no fim de um casamento.

Certamente, é uma questão preocupante. Marco Rubio, senador norte-americano que foi candidato à indicação para a eleição presidencial de 2016 pelo Partido Republicano, diz que o deepfake tem o poder de uma bomba nuclear.

Deepfake é motivo de debate entre autoridades.

Para Marco Rubio, deepfake tem o poder de uma bomba nuclear.

“Antigamente”, disse Rubio, “se alguém quisesse ameaçar os EUA precisaria de porta-aviões, bombas nucleares e mísseis de longo alcance. Hoje, contudo, é só acessar a internet e ter a capacidade de produzir um vídeo falso que provoque uma tremenda crise interna na Nação”.

Desmentidos chegam tarde

Entretanto, há quem considere a posição de Rubio um exagero. Tim Hwang, um especialista em ética de Inteligência Artificial, diz que “as demonstrações de deepfake que vimos até agora são certamente perturbadoras. Porém, sou cético em relação à possibilidade de deepfake virar o jogo de forma radical”.

O deepfake tem sucesso na internet porque funciona da mesma forma que as fake news. Assim, o vídeo é postado, rapidamente pode viralizar e ser assistido por milhares e até milhões de pessoas. E quando afinal um verificador constatar e declarar que ele é falso já é tarde demais. O mesmo sempre acontece com as fake news: os desmentidos chegam quando o estrago já está feito.

Os deepfakes são produzidos de forma parecida com a de criação de arte pela Inteligência Artificial, que já mostramos neste artigo. São usadas duas redes geradoras antagônicas, conhecidas pela sigla GAN. Ambas são modelos de aprendizado de máquina.

Assim, a primeira delas é abastecida com um conjunto de dados (vídeos e imagens garimpados na internet) para criar um vídeo falso. A segunda GAN tenta detectar as falsificações, enquanto a primeira vai aprimorando o produto até que a segunda não encontre mais sinal de falsificação.

Muito material disponível na web

Pronto, temos então um deepfake aparentemente perfeito. E é pelo uso desse modelo que os deepfakes de personalidades famosas e atrizes são muito comuns. É que existem muitos vídeos das celebridades na internet, muito material para as GANs usarem como matéria-prima.

Até mesmo deepfake feito com baixa tecnologia pode funcionar bem. É o exemplo de um caso que aconteceu na Casa Branca, quando uma estagiária do presidente Trump tentou tirar o microfone do jornalista Jim Acosta, da CNN.

O vídeo original mostra isso com clareza, mas logo após veio uma versão que mostrava, em vez disso, Acosta tentando agredir a estagiária. Não chegava a ter a qualidade de um bom deepfake, que coloca palavras na boca de pessoas, mas foi o suficiente para gerar dúvidas. E a credibilidade do jornalista Jim Acosta ficou abalada.

Deepfake causa confusão sobre a veracidade de vídeos.

São difíceis as defesas contra os ataques que semeiam dúvidas.

Semear dúvidas, junto com medo e incerteza, são objetivos básicos de hackers e piratas digitais. E não há defesa contra esses ataques.

GANs podem ser úteis também

Eventualmente, as GANs são altamente positivas e podem fazer mais do que criar falsos vídeos de sexo ou colocar palavras inventadas na boca de personalidades. Elas apresentam um avanço no chamado aprendizado não supervisionado. Quando dois modelos de aprendizado de máquina debatem entre si, ambos aprendem então mais rapidamente.

Aliás, há quem diga que as GANs são o surgimento da imaginação na Inteligência Artificial. As GANs podem melhorar a capacidade dos veículos autônomos e aumentar a capacidade de conversação de auxiliares virtuais, como a Siri ou a Google Assistente.

Deepfake usa tecnologia GAN, que pode beneficiar Google Assistente.

Redes GANs poderão deixar Google Assistente mais interativa.

Contudo, o problema que os deepfakes criaram é mesmo grande. E se não descobrirmos como detectar um deepfake, somente poderemos confiar na análise digital forense para dizer se um vídeo é falso ou não.

Deepfake feito por amadores por vezes fica ruim. Por exemplo, você nota olhos que não piscam ou sombras erradas. Mas as montagens profissionais são, até agora, quase perfeitas a olho nu. E isso que as GANs ainda estão aprendendo e melhorando.

Aliás, o DARPA, programa de inovação do departamento de defesa do governo norte-americano, está investindo fortunas para autenticar vídeos que não sejam deepfakes. Mas as GANs podem ser ensinadas a contornar essas perícias e validar seus próprios vídeos.

Podemos vencer essa batalha? É incerto. Mas se as GANs e seus programadores vencerem, seremos forçados a desconfiar de tudo que vemos ou ouvimos na internet. Perderíamos a fé no que seria a realidade objetiva compartilhada. E enfrentaríamos, portanto, uma espécie de fim da verdade.

Gostou da notícia?

Veja mais sobre
EntretenimentoTecnologia
campo obrigátório

Cadastro efetuado com sucesso!

Em breve você receberá o melhor da tecnologia no seu email