Volver
Formación Ciberseguridad | Cyber security para Empresas | MetaCompliance

Productos

Descubra nuestro conjunto de soluciones personalizadas de formación en concienciación sobre seguridad, diseñadas para capacitar y educar a su equipo frente a las ciberamenazas modernas. Desde la gestión de políticas hasta simulaciones de phishing, nuestra plataforma dota a su plantilla de los conocimientos y habilidades necesarios para proteger su organización.

Cyber security eLearning

Ciberseguridad eLearning Explore nuestra galardonada biblioteca de eLearning, adaptada a cada departamento

Automatización de la concienciación sobre la seguridad

Programe su campaña anual de sensibilización en unos pocos clics

Simulación de suplantación de identidad

Detenga los ataques de phishing en seco con el galardonado software de phishing

Gestión de políticas

Centralice sus políticas en un solo lugar y gestione sin esfuerzo los ciclos de vida de las políticas

Gestión de la privacidad

Controle, supervise y gestione el cumplimiento con facilidad

Gestión de incidentes

Tome el control de los incidentes internos y corrija lo que importa

Volver
Industria

Industrias

Explore la versatilidad de nuestras soluciones en diversos sectores. Desde el dinámico sector tecnológico hasta la sanidad, descubra cómo nuestras soluciones están causando sensación en múltiples sectores. 


Servicios financieros

Crear una primera línea de defensa para las organizaciones de servicios financieros

Gobiernos

Una solución de concienciación sobre seguridad para las administraciones públicas

Empresas

Una solución de formación en sensibilización sobre seguridad para grandes empresas

Trabajadores a distancia

Implantar una cultura de concienciación sobre la seguridad, incluso en casa

Sector educativo

Formación en sensibilización sobre seguridad para el sector educativo

Personal sanitario

Vea nuestra concienciación sobre seguridad a medida para el personal sanitario

Industria tecnológica

Transformación de la formación en sensibilización sobre seguridad en el sector tecnológico

Conformidad con NIS2

Apoye sus requisitos de cumplimiento de Nis2 con iniciativas de concienciación sobre ciberseguridad

Volver
Recursos

Recursos

Desde carteles y políticas hasta guías definitivas y casos prácticos, nuestros recursos gratuitos de concienciación pueden utilizarse para ayudar a mejorar la concienciación sobre ciberseguridad dentro de su organización.

Concienciación sobre ciberseguridad para dummies

Un recurso indispensable para crear una cultura de concienciación cibernética

Guía Dummies de Ciberseguridad Elearning

La guía definitiva para implantar un aprendizaje electrónico eficaz sobre ciberseguridad

Guía definitiva del phishing

Educar a los empleados sobre cómo detectar y prevenir los ataques de phishing

Carteles de sensibilización gratuitos

Descargue estos carteles gratuitos para mejorar la vigilancia de los empleados

Política antiphishing

Crear una cultura consciente de la seguridad y fomentar la concienciación sobre las amenazas a la ciberseguridad

Estudios de caso

Descubra cómo ayudamos a nuestros clientes a impulsar comportamientos positivos en sus organizaciones.

Terminología de ciberseguridad de la A a la Z

Glosario de términos de ciberseguridad

Modelo de madurez del comportamiento de ciberseguridad

Audite su formación en sensibilización y compare su organización con las mejores prácticas

Cosas gratis

Descargue nuestros recursos de concienciación gratuitos para mejorar la concienciación sobre ciberseguridad en su organización

Volver
MetaCompliance | Formación Ciberseguridad para Empresas

Acerca de

Con más de 18 años de experiencia en el mercado de la Ciberseguridad y el Cumplimiento Normativo, MetaCompliance ofrece una solución innovadora para la concienciación del personal en materia de seguridad de la información y la automatización de la gestión de incidentes. La plataforma MetaCompliance fue creada para satisfacer las necesidades de los clientes de una solución única e integral para gestionar los riesgos de las personas en torno a la Ciberseguridad, la Protección de Datos y el Cumplimiento.

Por qué elegirnos

Sepa por qué Metacompliance es el socio de confianza para la formación en concienciación sobre seguridad

Especialistas en compromiso de los empleados

Facilitamos la participación de los empleados y creamos una cultura de concienciación cibernética

Automatización de la concienciación sobre la seguridad

Automatice fácilmente la formación sobre concienciación en materia de seguridad, phishing y políticas en cuestión de minutos

MetaBlog

Manténgase informado sobre los temas de formación en materia de concienciación cibernética y mitigue el riesgo en su organización.

¿Ilusión o realidad? Cómo las inteligencias artificiales abusan de nuestra confianza

deepfake

sobre el autor

Compartir esta entrada

¿Todavía recuerdas las palabras de Barack Obama: "¡El presidente Trump es un total y completo imbécil!"? Bastante provocadoras, uno no está acostumbrado a tales declaraciones del expresidente estadounidense. Pero, ¿realmente dijo eso? Por supuesto que no. Este vídeo es un llamado deepfake y fue creado por Jordan Peele para mostrar lo peligroso que puede ser un fake de este tipo.1 Pero profundicemos un poco más en el asunto.

Deepfake es un neologismo formado por "deep learning" y "fake". Describe un método de manipulación de imágenes, vídeos o formatos de audio (con ayuda de la inteligencia artificial) de tal forma que el ojo o el oído humanos apenas pueden percibir las falsificaciones. Pero, ¿cuál es exactamente el propósito de un deepfake y cómo se genera en primer lugar?

Para crear un deepfake se utilizan las llamadas redes neuronales. Estas redes actúan de forma similar al cerebro humano y, dado un conjunto de datos elevado, pueden predecir qué aspecto podrían tener otros datos del mismo tipo. Por tanto, si se alimenta a estas redes con suficientes imágenes, vídeos y contenidos de audio, mejoran cada vez más y crean manipulaciones de mayor calidad.

Una red neuronal muy eficaz es la GAN. Fue mencionada por primera vez en un artículo científico de Ian Goodfellow en 2014. A lo largo de los años, varios investigadores siguieron ampliando estas redes y combinándolas entre sí. Como resultado, las falsificaciones pasaron a ser de mayor calidad y más creíbles. Pero antes, definamos qué es una GAN.

Una GAN (abreviatura de Generative Adversarial Networks) es una red formada por dos algoritmos. Uno de ellos falsifica una imagen (falsificador) y el otro intenta detectarla (investigador). Si el investigador consigue identificar la falsificación, el falsificador aprende de ella y mejora constantemente. Este proceso también se denomina aprendizaje profundo.

¿Qué tipos de deepfakes existen?

El primer tipo, y probablemente el más extendido, es el intercambio de caras en fotos o vídeos, el llamado face-swapping. En este caso, se suelen tomar las cabezas de personajes famosos y colocarlas en un contexto diferente.

Un método similar es el intercambio de voces. Como su nombre indica, las voces o el contenido general de audio se manipulan para que suenen como una persona concreta. Este método puede desarrollarse aún más con la manipulación de las expresiones faciales para que las palabras pronunciadas coincidan con el movimiento de los labios y los movimientos faciales.

Por último, están las marionetas corporales. Aquí se analizan los movimientos del cuerpo e incluso se pueden imitar en tiempo real.

¿Por qué son tan peligrosos los deepfakes?

Cuando la tecnología comenzó en 2014, se fue ampliando y mejorando constantemente. En 2017, la tecnología había alcanzado el punto en el que se podían producir los primeros vídeos. Esto llevó a los internautas a explotar los deepfakes para la manipulación de contenidos pornográficos, que se difundieron por primera vez en la plataforma de internet Reddit. En estos vídeos aparecían celebridades en poses comprometidas. Según un estudio de Sensity (entonces conocida como Deeptrace), el 96 % de todos los vídeos deepfake de 2019 eran pornográficos y se referían exclusivamente amujeres2.

"El desarrollo de la inteligencia artificial completa podría suponer el fin de la raza humana"
- Stephen Hawking

Con el tiempo y el continuo desarrollo del proceso de aprendizaje profundo, se crearon cada vez más canales de YouTube para engañar. Falsificaciones de políticos, actores y otras figuras públicas empezaron a ver la luz. De 2018 a 2020, el número de vídeos falsos se duplicó cada seis meses, alcanzando más de 85.000 en diciembre de 2020.3

Hao Li, experto en deepfakes, ha advertido de que pronto ya no podremos identificar los deepfakes como falsificaciones. El problema, sin embargo, no es la tecnología en sí, sino la falta de medios para reconocer estas falsificaciones. "Los deepfakes serán perfectos en dos o tres años", afirma Li.4

La verdad de esta afirmación se revela en un concurso de programación iniciado por Facebook AI en 2019. El grupo desarrolló un conjunto de datos de 124.000 vídeos, 8 algoritmos de modificación facial y trabajos de investigación asociados. Pero incluso los mejores competidores solo lograron una tasa de detección de poco más del 65%.

"Este resultado refuerza la importancia de aprender a generalizar a ejemplos imprevistos cuando se abordan los retos de la detección de deepfake", explicó un portavoz de Facebook AI.5

Ejemplo de uso indebido de deepfakes

El alcance del daño que pueden causar los deepfakes puede ilustrarse, entre otros ejemplos, con un caso ocurrido en Gabón en 2018. El presidente Ali Bongoque llevaba mucho tiempo sin aparecer en público y al que algunos daban por muerto, publicó un vídeo de un discurso. Los opositores políticos tacharon el vídeo de deepfake, lo que desencadenó un intento de golpe de Estado por parte de los militares.

TW: Violencia contra los niños/jóvenes
Otro caso aterrador contado por X Gonzálesuna firme defensora del endurecimiento de las leyes sobre armas en Estados Unidos. Gonzáles es una superviviente de la masacre de la escuela de Parkland y obtuvo reconocimiento internacional por su emotivo discurso en un servicio conmemorativo tras el suceso. Los detractores de una mayor legislación sobre armas difamaron a González en un vídeo en el que aparecía rompiendo la Constitución estadounidense. En el vídeo original, rompe una diana.

Un vídeo sobre la demócrata estadounidense Nancy Pelosidemuestra la capacidad del intercambio de voces. Los partidarios de Trump, y por tanto competidores de la presidenta de la Cámara de Representantes, editaron un vídeo para hacerla aparecer borracha y algo confusa. El fake fue pinchado millones de veces, a pesar de que Nancy Pelosi no bebe alcohol.

TW: Voilencia sexualizada
El próximo escándalo en cuestión Rana Ayyub. La periodista india hizo un comentario sobre el partido nacionalista BJP, acusándolo de defender a los pederastas. Como consecuencia, y en un intento de socavar su credibilidad, quienes criticaban sus acciones hicieron de ella una falsa película porno.

¿Qué aplicaciones existen para crear deepfakes?

DeepFaceLab: Probablemente la aplicación de código abierto más conocida sea DeepFaceLab. Según los desarrolladores de la aplicación, el 95% de todos los vídeos deepfake se generan con DeepFaceLab. La aplicación permite intercambiar caras o cabezas enteras, modificar la edad de una persona o ajustar los movimientos de los labios de desconocidos. DeepFaceLab está disponible para Windows y Linux.

Zao: A diferencia de DeepFaceLab, Zao es una aplicación para smartphones. Originaria de China, la popularísima aplicación crea vídeos deepfake en cuestión de segundos y está orientada al entretenimiento. Hasta ahora, sin embargo, la aplicación sólo está disponible en China (o para aquellos con un número de teléfono chino) en Android e iOS. Recientemente, la aplicación ha sido criticada por su cuestionable política de privacidad. Los usuarios renuncian a todos los derechos sobre sus propias imágenes y vídeos cuando utilizan la aplicación.

FaceApp: La aplicación ganó cada vez más popularidad en 2019. Ofrece numerosas funciones como rejuvenecer o envejecer, añadir barba, maquillaje, tatuajes, peinados o incluso la posibilidad de cambiar de sexo. Sin embargo, al igual que Zao, FaceApp también ha sido objeto de numerosas críticas por sus políticas de privacidad. Aquí también se ceden los derechos sobre la propia imagen y vídeo. La aplicación está disponible para Android e iOS.

Avatarify: Por último, tenemos Avatarify. Con esta aplicación, los usuarios pueden crear deepfakes en directo en chats de vídeo. La tecnología es capaz de recrear movimientos faciales como parpadeos y movimientos de la boca en tiempo real y consigue así imitaciones extremadamente realistas. Sin embargo, los requisitos básicos no están exentos de dificultades. Se necesita una tarjeta gráfica potente y otras herramientas adicionales para poder llevar a cabo la instalación. Está disponible para Windows, Mac y Linux o en versión reducida para iOS.

¿Cómo reconozco un deepfake?

Desenmascarar un deepfake no siempre es tarea fácil. En primer lugar, compruebe siempre el contexto del vídeo o la imagen y considere si el contexto tiene sentido. El FBI también ha publicado una lista6 en la que destaca las características de los deepfakes. Esta lista incluye, entre otras, las siguientes:

  • Indicadores visuales como distorsiones, deformaciones o incoherencias.
  • Distinción del espacio ocular/colocación de los ojos
  • Movimientos notables de la cabeza y el cuerpo
  • Problemas de sincronización entre los movimientos faciales y labiales y el sonido asociado
  • Distorsiones visuales distintivas, generalmente en las pupilas y los lóbulos de las orejas.
  • Fondos borrosos o poco definidos
  • Artefactos visuales en la imagen o el vídeo

El DeepFake-o-meter también puede utilizarse para analizar y desacreditar archivos de vídeo.

Pero, ¿los deepfakes son sólo negativos?

Los deepfakes no son exclusivamente negativos. Uno de los efectos positivos que tienen puede observarse en el mundo del cine. Por ejemplo, Luke Skywalker fue artificialmente deepfakeado en la serie Mandalorian. Disney también está planeando más películas deepfake utilizando su tecnología Disney Megapixel deepfakes. En el futuro, será posible hacer películas con actores que ya han muerto.

También se está avanzando en el campo de la formación electrónica. La empresa de software Synthesia ha desarrollado una IA que genera vídeos a partir de texto. Los vídeos contienen personas creadas artificialmente que pueden reproducir el contenido deseado. En el caso de Synthesia, esta tecnología se utiliza para crear cursos de e-learning, presentaciones, vídeos personalizados o chatbots.

Otro ejemplo del uso innovador de la tecnología deepfake lo demuestra un equipo de investigación de Moscú. Han conseguido insuflar vida a la Mona Lisa. Puedes maravillarte con el óleo en movimiento en YouTube.

1 https://www.youtube.com/watch?v=cQ54GDm1eL0
2 https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
3 https://sensity.ai/how-to-detect-a-deepfake/
4 https://www.cnbc.com/2019/09/20/hao-li-perfectly-real-deepfakes-will-arrive-in-6-months-to-a-year.html
5 https://ai.facebook.com/datasets/dfdc
6 https://www.ic3.gov/Media/News/2021/210310-2.pdf

Cyber Security Awareness Training – Otros artículos que podría encontrar interesantes