Ao mesmo tempo que fascinante, a deepfake, um dos avanços da inteligência artificial, é uma ferramenta assustadora e perigosa. A tecnologia possibilita criar vídeos e áudios nos quais as pessoas aparecem fazendo ou dizendo coisas que na verdade não estão.
Um grupo de pesquisadores desenvolveu um algoritmo que simplifica os passos da criação de vídeos, fazendo com que pessoas ‘digam’ qualquer coisa através da edição de fala.
Através de um vídeo fonte, a IA analisa tudo o que uma pessoa está falando: desde as palavras, pronúncia, unidades de som, fonemas, até os movimentos bocais e expressões faciais.
A partir do vídeo fonte com duração de 40 minutos, a IA terá dados suficientes para criar qualquer tipo de conteúdo com um simples passo. Os pesquisadores já criaram aproximadamente 44 fonemas em inglês.
Será preciso apenas editar a transcrição do vídeo para que o algoritmo organize de maneira inteligente os sons e movimentos da boca necessários.
Em um vídeo divulgado do experimento com o algoritmo, eles alteraram a frase emblemática do filme Apocalypse Now, “I love the smell of Napalm in the morning”, trocando ‘napalm’ por ‘french toast’.
Os pesquisadores são da Universidade de Standford, Princeton, Instituto de informática Max Planck e Adobe. Até eles temem que esta tecnologia seja usada para fins destrutivos.
“Nós sabemos que maus atores podem usar tecnologias como essa para falsificar declarações pessoais e difamar pessoas importantes. Eles ressaltam “que é necessário um debate público para criar um conjunto de regulamento e leis apropriados para equilibrar os riscos de uso indevido dessa ferramenta contra a importância de casos de uso criativos e consensuais”, explicam no artigo publicado.
Deepfake e desinformação
Para quem não sabe, as deepfakes criam conteúdos manipulados por meio de deep learning (aprendizagem através de uso maciço de dados). São usadas para sobrepor e combinar imagens e áudios de vídeos existentes e repassá-los na internet como conteúdo original.
Um exemplo mais famoso é da entrevista manipulada do Obama.
Recentemente, uma iniciativa do Museu Salvador Dalí ‘reviveu’ o mestre do surrealismo por meio da deepfake, na qual ele próprio recepciona e conversa com o público em telas imensas espalhadas pela exposição do museu. Milhares de entrevistas e vídeos foram usados para recriar, pixel por pixel, as expressões faciais do artista.
O que determina para quais fins a tecnologia será usada são as intenções humanas por trás das mãos em que ela se encontra.
Se processos eleitorais de nações, assim como no Brasil, já foram alterados por bots e fake news, a deepfake pode ser uma arma letal para a sociedade.
Polarizações políticas comandadas pelo ódio estão aí para provar como os reflexos se estendem também para aspectos da vida moderna.
Dentro deste cenário pessimista, a possibilidade de as IAs mimetizarem conteúdo humano pode ser usada tanto por indivíduos isolados com más intenções, até em campanhas por Estados para manipular a opinião pública e os sentimentos da população de maneira irreparáveis.
Segundo o pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, o conteúdo falso tende a ser aceito por quem deseja acreditar nele, até mesmo quando sua falsidade é comprovada.
“Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores”, explica.
Para imaginar como esta tecnologia pode ser fatal, se usada de maneira irresponsável, Giorgio sugere um cenário hipotético.
Imagine que duas superpotências como os EUA e Coreia estão em tensão. Uma rede de TV recebe um vídeo inédito, de fonte anônima, que mostra Kin Jong-Un organizando um ataque nuclear. O vídeo chega à Casa Branca, e a inteligência não consegue identificar sua autenticidade. O presidente americano tem que agir: uma guerra está pronta.
O pesquisador explica que as deepfakes estão em cenário de alerta pois não há uma tecnologia capaz de identificar conteúdos audiovisuais falsos.
“É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás”, ressalta.
Segundo o pesquisador, a solução mais apropriada seria usar a inteligência artificial para identificar sinais de adulteração nos conteúdos, que não são visíveis a olhos humanos.
“Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação”.