O que é um deepfake? Ainda te lembras das palavras de Barack Obama: "O Presidente Trump é um idiota total e completo!"? Bastante provocadoras, não estamos habituados a tais declarações do ex-presidente dos EUA. Mas será que ele disse mesmo isso? Claro que não. Este vídeo é um chamado deepfake e foi criado por Jordan Peele para mostrar o quão perigosa pode ser uma falsificação deste género. Mas vamos aprofundar um pouco mais o assunto.
O que é exatamente um deepfake e para que serve?
Deepfake é um neologismo composto por "deep learning" (aprendizagem profunda) e "fake" (falso). Descreve um método de manipulação de imagens, vídeos ou formatos de áudio (com a ajuda de inteligência artificial) de tal forma que o olho ou o ouvido humano dificilmente conseguem perceber as falsificações. Mas qual é exatamente o objetivo de uma "deepfake" e como é que ela é gerada?
Para criar um deepfake, são utilizadas as chamadas redes neuronais. Estas redes actuam de forma semelhante ao cérebro humano e, dado um conjunto de dados elevado, podem prever o aspeto de outros dados do mesmo tipo. Por conseguinte, se alimentarmos estas redes com imagens, vídeos e conteúdos áudio suficientes, elas tornam-se cada vez melhores e criam manipulações de maior qualidade.
Uma rede neural altamente eficaz é a GAN. Foi mencionada pela primeira vez num artigo científico de Ian Goodfellow em 2014. Ao longo dos anos, vários investigadores continuaram a expandir estas redes e a combiná-las entre si. Como resultado, as falsificações tornaram-se de maior qualidade e mais credíveis. Mas primeiro, vamos definir o que é uma GAN.
Uma GAN - abreviatura de Generative Adversarial Networks - é uma rede composta por dois algoritmos. Um algoritmo falsifica uma imagem (falsificador) enquanto o outro algoritmo tenta detetar a falsificação (investigador). Se o investigador conseguir identificar a falsificação, o falsificador aprende com ela e melhora constantemente. Este processo é também designado por aprendizagem profunda.
Que tipos de deepfakes existem?
O primeiro tipo, e provavelmente o mais difundido, é a troca de rostos em fotografias ou vídeos, o chamado face-swapping. Neste caso, as cabeças de pessoas famosas são normalmente retiradas e colocadas num contexto diferente.
Um método semelhante é a troca de voz. Como o nome sugere, as vozes ou o conteúdo áudio geral são manipulados para soarem como uma pessoa específica. Este método pode ainda ser desenvolvido com a manipulação das expressões faciais, de modo a que as palavras ditas correspondam ao movimento dos lábios e aos movimentos faciais.
Por fim, há a fantochada corporal. Aqui, os movimentos do corpo são analisados e podem mesmo ser imitados em tempo real.
Porque é que os deepfakes são tão perigosos?
Quando a tecnologia começou a ser utilizada em 2014, foi constantemente alargada e melhorada. Em 2017, a tecnologia chegou ao ponto de permitir a produção dos primeiros vídeos. Isto levou os utilizadores da Internet a explorar os deepfakes para a manipulação de conteúdos pornográficos, que foram disponibilizados pela primeira vez na plataforma Internet Reddit. Estes vídeos consistiam em celebridades retratadas em poses comprometedoras. De acordo com um estudo da Sensity (então conhecida como Deeptrace), 96% de todos os vídeos deepfake em 2019 eram pornográficos e diziam respeito exclusivamente a mulheres.
"O desenvolvimento de uma inteligência artificial completa pode significar o fim da raça humana."
- Stephen Hawking
Com o tempo e o desenvolvimento contínuo do processo de aprendizagem profunda, foram criados cada vez mais canais do YouTube para enganar. Falsificações de políticos, actores e outras figuras públicas começaram a ver a luz do dia. De 2018 a 2020, o número de vídeos falsos duplicou a cada seis meses, atingindo mais de 85 000 em dezembro de 2020.
Hao Li, um especialista em deepfake, alertou para o facto de, em breve, já não sermos capazes de identificar os deepfakes como sendo falsificações. O problema, no entanto, não é a tecnologia em si, mas a falta de meios para reconhecer essas falsificações. "As deepfakes serão perfeitas dentro de dois ou três anos", afirmou Li.
A verdade desta afirmação é revelada num concurso de programação iniciado pelo Facebook AI em 2019. O grupo desenvolveu um conjunto de dados de 124 000 vídeos, 8 algoritmos de modificação facial e documentos de investigação associados. Mas mesmo os melhores concorrentes só conseguiram uma taxa de deteção de pouco mais de 65%.
"Este resultado reforça a importância de aprender a generalizar para exemplos imprevistos quando se abordam os desafios da deteção de deepfake", explicou um porta-voz do Facebook AI.
Exemplo de utilização incorrecta de deepfakes
A dimensão dos danos que os deepfakes podem causar pode ser ilustrada, entre outros exemplos, por um caso ocorrido no Gabão em 2018. O Presidente Ali Bongo, que não aparecia aos olhos do público há muito tempo e que alguns pensavam estar morto, publicou um vídeo de um discurso. Os opositores políticos apelidaram o vídeo de deepfake, desencadeando uma tentativa de golpe de Estado por parte dos militares.
TW: Violência contra crianças/jovens
Outro caso assustador é contado por X Gonzáles, uma forte defensora de leis mais rígidas sobre armas nos EUA. Gonzáles é uma sobrevivente do massacre na escola de Parkland e ganhou reconhecimento internacional pelo seu discurso emocionado num serviço memorial após o evento. Os opositores de mais legislação sobre armas difamaram Gonzáles num vídeo que a mostrava a rasgar a Constituição americana. No vídeo original, ela rasga um alvo.
Um vídeo produzido sobre a democrata norte-americana Nancy Pelosi demonstra a capacidade de troca de vozes. Os apoiantes de Trump, e portanto concorrentes da Presidente da Câmara dos Representantes, editaram um vídeo para a fazer parecer bêbeda e algo confusa. O falso foi clicado milhões de vezes, apesar de Nancy Pelosi não beber álcool.
TW: Sexualised voilence
O escândalo seguinte dizia respeito a Rana Ayyub. A jornalista indiana fez um comentário sobre o partido nacionalista BJP, acusando-o de defender os abusadores de crianças. Como resultado, e como tentativa de minar a sua credibilidade, foi-lhe feito um falso filme pornográfico por aqueles que criticavam as suas acções.
Que aplicações estão disponíveis para criar deepfakes?
DeepFaceLab: Provavelmente a aplicação de código aberto mais conhecida é o DeepFaceLab. De acordo com os criadores da aplicação, 95% de todos os vídeos deepfake são gerados com o DeepFaceLab. A aplicação permite trocar rostos ou cabeças inteiras, modificar a idade de uma pessoa ou ajustar os movimentos dos lábios de estranhos. O DeepFaceLab está disponível para Windows e Linux.
Zao: Ao contrário do DeepFaceLab, o Zao é uma aplicação para smartphones. Originária da China, a aplicação extremamente popular cria vídeos deepfake em segundos e é direccionada para fins de entretenimento. Até agora, no entanto, a aplicação só está disponível na China (ou para quem tem um número de telefone chinês) em Android e iOS. Recentemente, a aplicação foi criticada pela sua política de privacidade questionável. Os utilizadores abdicam de todos os direitos sobre as suas próprias imagens e vídeos quando utilizam a aplicação.
FaceApp: A aplicação ganhou cada vez mais popularidade em 2019. Oferece inúmeras funções, como rejuvenescimento ou envelhecimento, adição de barbas, maquilhagem, tatuagens, penteados ou mesmo a possibilidade de mudar de género. No entanto, tal como a Zao, a FaceApp também tem sido objeto de muitas críticas devido à sua política de privacidade. Também aqui são cedidos os direitos sobre a própria imagem e vídeo. A aplicação está disponível para Android e iOS.
Avatarify: Finalmente, temos o Avatarify. Com esta aplicação, os utilizadores podem criar deepfakes ao vivo em chats de vídeo. A tecnologia é capaz de recriar movimentos faciais, como piscar de olhos e movimentos da boca, em tempo real, conseguindo assim imitações extremamente realistas. No entanto, os requisitos básicos não são isentos de dificuldades. É necessária uma placa gráfica potente e outras ferramentas adicionais para poder efetuar a instalação. Está disponível para Windows, Mac e Linux ou, numa versão reduzida, para iOS.
Como é que reconheço um deepfake?
Desmascarar um deepfake nem sempre é uma tarefa fácil. Em primeiro lugar, é sempre necessário verificar o contexto do vídeo ou da imagem e considerar se o contexto faz sentido. O FBI também publicou uma lista na qual destaca as características dos deepfakes. Esta lista inclui, mas não está limitada a:
- Indicadores visuais, tais como distorções, deformações ou incoerências.
- Espaços oculares distintos/colocação dos olhos
- Movimentos perceptíveis da cabeça e do corpo
- Problemas de sincronização entre os movimentos faciais e labiais e o som associado
- Distorções visuais distintas, geralmente nas pupilas e nos lóbulos das orelhas
- Fundos indistintos ou desfocados
- Artefactos visuais na imagem ou no vídeo
Mas os deepfakes são apenas negativos?
Os deepfakes não são exclusivamente negativos. Um impacto positivo que têm pode ser testemunhado no mundo do cinema. Por exemplo, Luke Skywalker foi artificialmente falsificado na série Mandalorian. A Disney também está a planear mais filmes deepfake utilizando a sua tecnologia Disney Megapixel deepfakes. No futuro, será possível fazer filmes com actores que já morreram.
Estão também a ser feitos progressos no domínio da formação eletrónica. A empresa de software Synthesia desenvolveu uma IA que gera vídeos a partir de texto. Os vídeos contêm pessoas criadas artificialmente que podem reproduzir o conteúdo desejado. No caso da Synthesia, esta tecnologia é utilizada para criar cursos de e-learning, apresentações, vídeos personalizados ou chatbots.
Outro exemplo da utilização inovadora da tecnologia deepfake é demonstrado por uma equipa de investigação de Moscovo. Conseguiram dar vida à Mona Lisa. Pode maravilhar-se com a pintura a óleo em movimento no YouTube.
Proteção contra os deepfakes: A importância da formação de sensibilização do pessoal para a cibersegurança
Em conclusão, como a prevalência da tecnologia deepfake continua a crescer, é imperativo que as empresas tomem medidas proactivas para se protegerem contra os perigos cibernéticos da IA. Fornecer formação abrangente de sensibilização para a cibersegurança ao pessoal é crucial para equipar os funcionários com os conhecimentos e as competências necessárias para identificar e mitigar os riscos associados às deepfakes. Ao investir em tais iniciativas de formação, as empresas podem reforçar as suas defesas e salvaguardar as suas operações contra as ameaças em evolução colocadas pela manipulação maliciosa da IA. Não se trata apenas de proteger os dados e a reputação da organização; trata-se também de capacitar os funcionários para se tornarem guardiões vigilantes da integridade digital numa era em que a confiança e a autenticidade estão cada vez mais sob cerco.