Si hay una tecnología de la que no paramos de hablar en El Telescopio en los últimos meses, es la inteligencia artificial [IA]. No cabe duda de que su desarrollo está siendo exponencial, pero con él también crecen los riesgos y las amenazas.

Entre ellas, el deepfake, un fenómeno que provoca diferentes tipos de fraudes y manipulaciones contra individuos o entidades y que crece a un ritmo anual del 900%, según datos del Foro Económico Mundial.

Este tipo de fraude crece a un ritmo anual del 900%

Luchar contra los deepfakes

Uno de los principales aspectos a los que afeta este tipo de cibercrimen es la reputación de marca, según nos explica David Marcos, Data Analytics Business Manager de Innovery, una empresa especializada en ciberseguridad, entre otras disciplinas.

“Productos que se parecen a los originales pero luego no lo son. Gente que se hace pasar por otras personas. Los comentarios son texto, no hay caras, pero sí imágenes. Los ponen como rotos o defectuosos, pero no lo son”, explica.

El récord de estafa se sitúa en 35 millones de dólares en una sola operación

Engaño audiovisual

Pero esa no es la única preocupación. De hecho, asegura que el mayor incremento se está produciendo en engaños en vídeo y audio. La famosa estafa del CEO, en la que alguien se hace pasar por un alto cargo de una empresa para conseguir que se realice una transferencia a su propia cuenta, se ha actualizado y ahora se realiza con audio.

“Creo que el récord de estafa de un deepfake ahora mismo lo tiene una empresa de Emiratos Árabes. Un directivo de una de las ramas recibió correos y audios, supuestamente de su jefe, en los que le decía que transfiriese 35 millones de dólares por una compra de una empresa y lo hizo”, nos cuenta Marcos.

Lo primero es usar el sentido común

Protegerse

La protección contra este tipo de actuaciones es complicada. “Lo primero es usar el sentido común”, recomienda este experto. “El FBI ha dado algunas directrices sobre cómo identificar deepfakes, mirando las sombras y otros detalles, pero eso cada vez es más complicado”.

La dificultad para distinguir este tipo de montajes de la realidad es mayor casi cada día, como señala Marcos. Hasta el punto de que “asustan”. Pone como ejemplo el vídeo This is not Morgan Freeman, en el que aparece una imagen falsa de este actor que es casi imposible identificar como deepfake.

Recomendaciones

Marcos recomienda “implementar procesos, controles o dobles revisiones, en lugar de simplemente creerte lo que estás viendo”. En el caso de la empresa citada anteriormente, evitar el fraude habría sido tan sencillo como “que el ejecutivo hubiese llamado a su jefe por teléfono o que hubiese un proceso de aprobación en alguna herramienta en el que tuviese que hacer clic”.

En cuanto a las medidas para identificar este tipo de contenidos, se centran en la inteligencia artificial adversaria [adversarial AI]: “Una máquina intentando engañar a la otra y la otra intentando detectarlo”.

Controlando los riesgos de los deepfakes

Innovery destaca seis puntos en los que es las compañías y organizaciones pueden afrontar este tipo de riesgos:

  1. Desarrollar IA diseñada para su detección. Tecnologías como machine learning e IA permiten el desarrollo de algoritmos avanzados, capaces de detectar este tipo de fraudes con alta precisión. Pueden incluso analizar vídeos y audios, en busca de anomalías sutiles que indiquen una manipulación
  2. Avanzar en soluciones de ciberseguridad que integren la detección de imágenes y audios falsos, como una de sus características. Esto sería particularmente útil para proteger a las empresas de este tipo de fraude
  3. Autenticar los contenidos multimedia. Desarrollar sistemas que permitan a las empresas verificar el contenido multimedia publicado o compartido. Esto puede incluir tecnologías de marcas de agua digitales o blockchain para garantizar que no se trata de ningún engaño.
  4. Realizar simulaciones y entrenamiento. Gracias al uso de la IA, es posible crear simulaciones de ataque para capacitar a las personas en su detección y respuesta.
  5. Desarrollar herramientas de evaluación de riesgos capaces de ayudar a estimar el nivel de vulnerabilidad ante este tipo de ataques y ofrecer recomendaciones de seguridad.
  6. Introducir análisis forense para entender cómo se produjo el fraude y cómo protegerse de cara al futuro.

Primeros pasos

Aun así, nos encontramos en los primeros pasos de esta tecnología, que supone un porcentaje poco elevado de los fraudes en la actualidad: “El malware sigue siendo el top 1, pero el crecimiento de los deepfakes es exponencial”.

Un riesgo que se está incrementando porque la tecnología es cada vez más asequible. Ya no hace falta tener enormes conocimientos para llevarla a cabo. Marcos pone de ejemplo el canal de TikTok de vídeos falsos de Tom Cruise. “No es algo que necesites ser una gran compañía para poder haceerlo. Ya hay herramientas capaces de generarlos”.

Futuro

Las previsiones apuntan a que esta modalidad de ataque se mantendrá en los próximos años. Incluso. algunas voces ya predicen que en 2026 prácticamente el 90% del contenido online será generado artificialmente. La consecuencia podría ser un deterioro de la confianza y un aumento de la amenaza para las empresas.

Por este motivo, la Unión Europea votó [hace tan solo unos días y por primera vez] en favor de una Ley de Inteligencia Artificial que regule el desarrollo de este avance tecnológico.