Voltar
Formazione Cybersecurity per Aziende | MetaCompliance

Produtos

Descubra o nosso conjunto de soluções personalizadas de formação em sensibilização para a segurança, concebidas para capacitar e educar a sua equipa contra as ciberameaças modernas. Desde a gestão de políticas a simulações de phishing, a nossa plataforma equipa a sua força de trabalho com os conhecimentos e as competências necessárias para proteger a sua organização.

eLearning em Cibersegurança

Cyber Security eLearning para explorar a nossa biblioteca de eLearning premiada, adaptada a cada departamento

Automação da Sensibilização para a Segurança

Programe a sua campanha anual de sensibilização em apenas alguns cliques

Simulação de phishing

Impeça os ataques de phishing no seu caminho com o premiado software de phishing

Gestão de políticas

Centralize as suas políticas num único local e faça uma gestão sem esforço dos ciclos de vida das políticas

Gestão de privacidade

Controlar, monitorizar e gerir a conformidade com facilidade

Gestão de Incidentes

Assuma o controlo dos incidentes internos e corrija o que é importante

Voltar
Indústria

Indústrias

Explore a versatilidade das nossas soluções em diversos sectores. Desde o dinâmico sector tecnológico até aos cuidados de saúde, descubra como as nossas soluções estão a fazer ondas em vários sectores. 


Serviços Financeiros

Criando uma primeira linha de defesa para organizações de serviços financeiros

Governos

Uma solução de sensibilização para a segurança para os governos

Empresas

Uma solução de formação de sensibilização para a segurança para grandes empresas

Trabalhadores à distância

Incorporar uma cultura de sensibilização para a segurança - mesmo em casa

Sector da Educação

Formação de sensibilização para a segurança no sector da educação

Trabalhadores do sector da saúde

Veja a nossa sensibilização para a segurança personalizada para profissionais de saúde

Indústria tecnológica

Transformar a formação em sensibilização para a segurança na indústria tecnológica

Conformidade NIS2

Apoie os seus requisitos de conformidade Nis2 com iniciativas de sensibilização para a cibersegurança

Voltar
Recursos

Recursos

Desde cartazes e políticas a guias definitivos e estudos de casos, os nossos recursos de sensibilização gratuitos podem ser utilizados para ajudar a melhorar a sensibilização para a cibersegurança na sua organização.

Cyber Security Awareness For Dummies - MetaCompliance

Um recurso indispensável para criar uma cultura de ciberconsciência

Guia de Segurança Cibernética para Principiantes Elearning

O melhor guia para implementar uma aprendizagem eficaz sobre cibersegurança

Guia definitivo para phishing

Educar os funcionários sobre como detetar e prevenir ataques de phishing

Cartazes de consciencialização gratuitos

Descarregue estes cartazes gratuitos para aumentar a vigilância dos empregados

Política Anti Phishing

Criar uma cultura consciente da segurança e promover a sensibilização para as ameaças à cibersegurança

Estudos de casos

Saiba como estamos a ajudar os nossos clientes a promover comportamentos positivos nas suas organizações

Terminologia de Segurança Cibernética A-Z

Glossário de termos de cibersegurança obrigatórios

Modelo de maturidade comportamental da cibersegurança

Audite a sua formação de sensibilização e compare a sua organização com as melhores práticas

Coisas grátis

Descarregue os nossos activos de sensibilização gratuitos para melhorar a sensibilização para a cibersegurança na sua organização

Voltar
MetaCompliance | Formazione Cybersicurezza per Aziende

Sobre

Com mais de 18 anos de experiência no mercado da cibersegurança e da conformidade, a MetaCompliance oferece uma solução inovadora para a sensibilização do pessoal para a segurança da informação e para a automatização da gestão de incidentes. A plataforma MetaCompliance foi criada para responder às necessidades dos clientes de uma solução única e abrangente para gerir os riscos pessoais relacionados com a cibersegurança, a proteção de dados e a conformidade.

Porquê escolher-nos

Saiba por que a Metacompliance é o parceiro de confiança para o treinamento de conscientização sobre segurança

Especialistas em envolvimento de empregados

Facilitamos o envolvimento dos funcionários e a criação de uma cultura de consciencialização cibernética

Automação da Sensibilização para a Segurança

Automatize facilmente a formação de sensibilização para a segurança, o phishing e as políticas em minutos

MetaBlog

Mantenha-se informado sobre tópicos de formação de sensibilização cibernética e mitigue os riscos na sua organização.

Ilusão ou Realidade? Como as inteligências artificiais abusam da nossa confiança

falso

sobre o autor

Partilhar esta publicação

Ainda se lembram das palavras de Barack Obama: "O Presidente Trump é um idiota total e completo!"? Bastante provocadoras, não estamos habituados a tais declarações do ex-presidente dos EUA. Mas será que ele disse mesmo isso? Claro que não. Este vídeo é um chamado deepfake e foi criado por Jordan Peele para mostrar o quão perigosa pode ser uma falsificação deste género.1 Mas vamos aprofundar um pouco mais o assunto.

Deepfake é um neologismo composto por "deep learning" (aprendizagem profunda) e "fake" (falso). Descreve um método de manipulação de imagens, vídeos ou formatos de áudio (com a ajuda de inteligência artificial) de tal forma que o olho ou o ouvido humano dificilmente conseguem perceber as falsificações. Mas qual é exatamente o objetivo de uma "deepfake" e como é que ela é gerada?

Para criar um deepfake, são utilizadas as chamadas redes neuronais. Estas redes actuam de forma semelhante ao cérebro humano e, dado um conjunto de dados elevado, podem prever o aspeto de outros dados do mesmo tipo. Por conseguinte, se alimentarmos estas redes com imagens, vídeos e conteúdos áudio suficientes, elas tornam-se cada vez melhores e criam manipulações de maior qualidade.

Uma rede neural altamente eficaz é a GAN. Foi mencionada pela primeira vez num artigo científico de Ian Goodfellow em 2014. Ao longo dos anos, vários investigadores continuaram a expandir estas redes e a combiná-las entre si. Como resultado, as falsificações tornaram-se de maior qualidade e mais credíveis. Mas primeiro, vamos definir o que é uma GAN.

Uma GAN - abreviatura de Generative Adversarial Networks - é uma rede composta por dois algoritmos. Um algoritmo falsifica uma imagem (falsificador) enquanto o outro algoritmo tenta detetar a falsificação (investigador). Se o investigador conseguir identificar a falsificação, o falsificador aprende com ela e melhora constantemente. Este processo é também designado por aprendizagem profunda.

Que tipos de deepfakes existem?

O primeiro tipo, e provavelmente o mais difundido, é a troca de rostos em fotografias ou vídeos, o chamado face-swapping. Neste caso, as cabeças de pessoas famosas são normalmente retiradas e colocadas num contexto diferente.

Um método semelhante é a troca de voz. Como o nome sugere, as vozes ou o conteúdo áudio geral são manipulados para soarem como uma pessoa específica. Este método pode ainda ser desenvolvido com a manipulação das expressões faciais, de modo a que as palavras ditas correspondam ao movimento dos lábios e aos movimentos faciais.

Por fim, há a fantochada corporal. Aqui, os movimentos do corpo são analisados e podem mesmo ser imitados em tempo real.

Porque é que os deepfakes são tão perigosos?

Quando a tecnologia começou a ser utilizada em 2014, foi constantemente alargada e melhorada. Em 2017, a tecnologia chegou ao ponto de permitir a produção dos primeiros vídeos. Isto levou os utilizadores da Internet a explorar os deepfakes para a manipulação de conteúdos pornográficos, que foram disponibilizados pela primeira vez na plataforma Internet Reddit. Estes vídeos consistiam em celebridades retratadas em poses comprometedoras. De acordo com um estudo da Sensity (então conhecida como Deeptrace), 96% de todos os vídeos de deepfake em 2019 eram pornográficos e diziam respeito exclusivamente a mulheres.2

"O desenvolvimento de uma inteligência artificial completa pode significar o fim da raça humana."
- Stephen Hawking

Com o tempo e o desenvolvimento contínuo do processo de aprendizagem profunda, foram criados cada vez mais canais do YouTube para enganar. Falsificações de políticos, actores e outras figuras públicas começaram a ver a luz do dia. De 2018 a 2020, o número de vídeos falsos duplicou a cada seis meses, atingindo mais de 85 000 em dezembro de 2020.3

Hao Li, um especialista em deepfake, alertou para o facto de, em breve, já não sermos capazes de identificar os deepfakes como sendo falsificações. O problema, no entanto, não é a tecnologia em si, mas a falta de meios para reconhecer estas falsificações. As "deepfakes" serão perfeitas dentro de dois a três anos", afirmou Li.4

A verdade desta afirmação é revelada num concurso de programação iniciado pelo Facebook AI em 2019. O grupo desenvolveu um conjunto de dados de 124 000 vídeos, 8 algoritmos de modificação facial e documentos de investigação associados. Mas mesmo os melhores concorrentes só conseguiram uma taxa de deteção de pouco mais de 65%.

"Este resultado reforça a importância de aprender a generalizar para exemplos imprevistos quando se abordam os desafios da deteção de deepfake.", explicou um porta-voz do Facebook AI.5

Exemplo de utilização incorrecta de deepfakes

A dimensão dos danos que os deepfakes podem causar pode ser ilustrada, entre outros exemplos, por um caso ocorrido no Gabão em 2018. O Presidente Ali Bongoque não aparecia aos olhos do público há muito tempo e que alguns pensavam estar morto, publicou um vídeo de um discurso. Os opositores políticos apelidaram o vídeo de deepfake, desencadeando uma tentativa de golpe de Estado por parte dos militares.

TW: Violência contra crianças/jovens
Mais um caso assustador é contado por X Gonzálesuma forte defensora de leis mais rígidas sobre armas nos EUA. Gonzáles é uma sobrevivente do massacre na escola de Parkland e ganhou reconhecimento internacional pelo seu discurso emocionado num serviço memorial após o evento. Os opositores de mais legislação sobre armas difamaram Gonzáles num vídeo que a mostrava a rasgar a Constituição americana. No vídeo original, ela rasga um alvo.

Um vídeo produzido sobre a democrata norte-americana, Nancy Pelosidemonstra a capacidade de troca de vozes. Os apoiantes de Trump, e portanto concorrentes da Presidente da Câmara dos Representantes, editaram um vídeo para que ela parecesse bêbeda e algo confusa. O falso foi clicado milhões de vezes, apesar de Nancy Pelosi não beber álcool.

TW: Sexualised voilence
O próximo escândalo em causa Rana Ayyub. A jornalista indiana fez um comentário sobre o partido nacionalista BJP, acusando-o de defender os abusadores de crianças. Como resultado, e numa tentativa de minar a sua credibilidade, foi-lhe feito um falso filme pornográfico por aqueles que criticavam as suas acções.

Que aplicações estão disponíveis para criar deepfakes?

DeepFaceLab: Provavelmente a aplicação de código aberto mais conhecida é o DeepFaceLab. De acordo com os criadores da aplicação, 95% de todos os vídeos deepfake são gerados com o DeepFaceLab. A aplicação permite trocar rostos ou cabeças inteiras, modificar a idade de uma pessoa ou ajustar os movimentos dos lábios de estranhos. O DeepFaceLab está disponível para Windows e Linux.

Zao: Ao contrário do DeepFaceLab, o Zao é uma aplicação para smartphones. Originária da China, a aplicação extremamente popular cria vídeos deepfake em segundos e é direccionada para fins de entretenimento. Até agora, no entanto, a aplicação só está disponível na China (ou para quem tem um número de telefone chinês) em Android e iOS. Recentemente, a aplicação foi criticada pela sua política de privacidade questionável. Os utilizadores abdicam de todos os direitos sobre as suas próprias imagens e vídeos quando utilizam a aplicação.

FaceApp: A aplicação ganhou cada vez mais popularidade em 2019. Oferece inúmeras funções, como rejuvenescimento ou envelhecimento, adição de barbas, maquilhagem, tatuagens, penteados ou mesmo a possibilidade de mudar de género. No entanto, tal como a Zao, a FaceApp também tem sido objeto de muitas críticas devido à sua política de privacidade. Também aqui são cedidos os direitos sobre a própria imagem e vídeo. A aplicação está disponível para Android e iOS.

Avatarify: Finalmente, temos o Avatarify. Com esta aplicação, os utilizadores podem criar deepfakes ao vivo em chats de vídeo. A tecnologia é capaz de recriar movimentos faciais, como piscar de olhos e movimentos da boca, em tempo real, conseguindo assim imitações extremamente realistas. No entanto, os requisitos básicos não são isentos de dificuldades. É necessária uma placa gráfica potente e outras ferramentas adicionais para poder efetuar a instalação. Está disponível para Windows, Mac e Linux ou, numa versão reduzida, para iOS.

Como é que reconheço um deepfake?

Desmascarar um deepfake nem sempre é uma tarefa fácil. Em primeiro lugar, é necessário verificar sempre o contexto do vídeo ou da imagem e considerar se o contexto faz sentido. O FBI também publicou uma lista6 na qual destaca as características dos deepfakes. Esta lista inclui, mas não se limita a:

  • Indicadores visuais, tais como distorções, deformações ou incoerências.
  • Espaços oculares distintos/colocação dos olhos
  • Movimentos perceptíveis da cabeça e do corpo
  • Problemas de sincronização entre os movimentos faciais e labiais e o som associado
  • Distorções visuais distintas, geralmente nas pupilas e nos lóbulos das orelhas
  • Fundos indistintos ou desfocados
  • Artefactos visuais na imagem ou no vídeo

O DeepFake-o-meter também pode ser utilizado para analisar e desmascarar ficheiros de vídeo.

Mas os deepfakes são apenas negativos?

Os deepfakes não são exclusivamente negativos. Um impacto positivo que têm pode ser testemunhado no mundo do cinema. Por exemplo, Luke Skywalker foi artificialmente falsificado na série Mandalorian. A Disney também está a planear mais filmes deepfake utilizando a sua tecnologia Disney Megapixel deepfakes. No futuro, será possível fazer filmes com actores que já morreram.

Estão também a ser feitos progressos no domínio da formação eletrónica. A empresa de software Synthesia desenvolveu uma IA que gera vídeos a partir de texto. Os vídeos contêm pessoas criadas artificialmente que podem reproduzir o conteúdo desejado. No caso da Synthesia, esta tecnologia é utilizada para criar cursos de e-learning, apresentações, vídeos personalizados ou chatbots.

Outro exemplo da utilização inovadora da tecnologia deepfake é demonstrado por uma equipa de investigação de Moscovo. Conseguiram dar vida à Mona Lisa. Pode maravilhar-se com a pintura a óleo em movimento no YouTube.

1 https://www.youtube.com/watch?v=cQ54GDm1eL0
2 https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
3 https://sensity.ai/how-to-detect-a-deepfake/
4 https://www.cnbc.com/2019/09/20/hao-li-perfectly-real-deepfakes-will-arrive-in-6-months-to-a-year.html
5 https://ai.facebook.com/datasets/dfdc
6 https://www.ic3.gov/Media/News/2021/210310-2.pdf

Outros artigos sobre a formação em sensibilização para a cibersegurança que poderão ser do seu interesse