Facebook tira do ar deepfake de Zelenski pedindo rendição

A Meta, holding do Facebook, retirou do ar um vídeo falso do presidente da Ucrânia, Volodmir Zelenski, após identificar que o conteúdo era, na verdade, uma deepfake – vídeos nos quais o rosto de uma pessoa é substituído pelo de outra. A mensagem falsa, veiculada na quarta-feira, 16, dizia para que os soldados ucranianos se rendessem às tropas russas e encerrassem o conflito que os dois países travaram nas últimas semanas.

De acordo com o chefe de políticas de segurança da empresa, Nathaniel Gleicher, o vídeo foi tirado do ar por violar regras de uso da plataforma, como exibir uma mídia manipulada.
“Nossas equipes identificaram e removeram um vídeo deepfake alegando mostrar o presidente Zelenski emitindo uma declaração que ele nunca fez. Ele apareceu em um site supostamente comprometido e depois começou a ser exibido na internet. Analisamos e removemos rapidamente este vídeo por violar nossa política contra mídia manipulada enganosa e notificamos nossos colegas em outras plataformas”, afirmou Gleicher em sua conta no Twitter.

Zelenski também recorreu ao seu canal oficial no Telegram para alertar que o vídeo era manipulado e falso. Segundo o Centro de Comunicação Estratégica ucraniano, conteúdos de desinformação por deepfakes já estavam no radar do órgão desde o começo de março.

“Imagine ver Volodmir Zelenski na TV fazendo uma declaração de rendição”, escreveu o centro em sua página no Facebook, em 2 de março. “Você vê, você ouve – então é verdade. Exceto que isso não é a verdade. Esteja ciente – isso é uma farsa!”

Não é a primeira vez que o Facebook lida com o assunto. Em dezembro de 2019, a empresa removeu cerca de 900 páginas, grupos e contas falsas que postavam conteúdo ligado ao EpochMediaGroup, grupo que defende causas conservadoras nos EUA. Agora, o conteúdo ligado à tecnologia preocupa também em relação à guerra na Ucrânia.

Deepfake não é novidade
Os primeiros algoritmos de IA capazes de criar rostos surgiram em 2014 como resultado do trabalho da equipe liderada pelo pesquisador Ian Goodfellow, do Google. Na época o time estudava a replicação de imagens, sem se dedicar especificamente a retratos de pessoas. Chamados de Generative Adversarial Network (GAN, na sigla em inglês), esses sistemas são compostos por duas redes de algoritmos que disputam para conseguir enganar ou desmascarar o outro lado.

Uma das utilizações das GANs, é, justamente, as deepfakes. Para esse tipo de vídeo, é preciso coletar milhares de imagens do rosto de um único indivíduo, que passa a ser tão bem conhecido pela IA que pode aplicá-lo, sem falhas, ao corpo de outra pessoa. É por isso que pessoas públicas, ou que têm muitas imagens na web, correm mais riscos de aparecer em situações que não viveram, pois há abundância de dados para alimentar as máquinas. Nos Estados Unidos, por exemplo, ficaram famosos vídeos em que o rosto da ex-primeira-dama Michelle Obama aparece no corpo de uma atriz pornô.

 

Agência Estado

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTÍCIAS RELACIONADAS