El 'caso Santos Cerdán' ha puesto sobre la mesa el debate sobre los audios que se presentan como prueba en los procedimientos judiciales. El que fuera secretario de organización del PSOE dijo no reconocer las grabaciones de voz que lo implicaban en la trama de corrupción, lo que abrió la puerta a una posible manipulación, que finalmente los peritos han descartado.

En los últimos años el número de grabaciones de WhatsApp, notas de voz y llamadas registradas con aplicaciones de mensajería que se presentan en los tribunales se ha disparado en nuestro país, hasta el punto de que en algunos casos constituyen la prueba central de los procesos.

Según datos de Lazarus Technology, una empresa española especializada en ciberseguridad y análisis forense digital, aproximadamente el 98% de las pruebas digitales de los juicios son audios.

El uso masivo de smartphones y de aplicaciones de mensajería, sumado a la facilidad que implica la grabación y distribución de los mensajes es lo que ha llevado a este cambio tan significativo, que, sin embargo, también entraña un riesgo, pues cada vez son más los audios falsificados y las clonaciones de voz mediante inteligencia artificial.

“Lo que antes era un complemento ahora es la prueba estrella en numerosos juicios", asevera Manuel Huerta, CEO de la citada compañía.

Esto ha hecho que los tribunales españoles hayan reforzado el criterio de admisión de este tipo de pruebas, a las que normalmente ha de acompañar un análisis forense.. "El reto no está en la presencia de audios, sino en garantizar su autenticidad y su contextualización ante el aumento de técnicas de manipulación”, advierte.

"La cadena de custodia, la autenticidad del archivo, la integridad del contenido y su contraste con otras evidencias son determinantes para admitir su validez", apunta este especialista, explicando que "el análisis técnico suele encomendarse a laboratorios criminalísticos como el Servicio de Criminalística de la Guardia Civil, que aplica metodologías de analítica forense, detección de huellas de edición y análisis espectral de la voz".

“El auge de los deepfakes obliga a reforzar la vigilancia y el análisis forense sobre estas pruebas en los procesos judiciales", insiste Huerta, que también subraya que los "audios no editados ni manipulados siguen siendo una prueba sólida”.

El proceso por el cual se realiza una falsificación abarca desde técnicas tradicionales de montaje y edición de fragmentos hasta sistemas avanzados de inteligencia artificial, capaces de clonar voces con apenas unos segundos de muestra y de generar nuevos audios con entonación natural y apariencia realista. "La combinación de generación sintética y postprocesado, con la adición de ruido ambiente, incrementa además la dificultad de detección", destacan desde Lazarus.

Audios falsos en el ámbito delictivo

Los audios falsos también se han convertido en un recurso habitual para cometer fraudes y robos. Los grupos criminales venden estos servicios de clonación de voz o generación de audios deepfake de dos maneras, explican desde Lazarus, "como un servicio en foros underground o como parte de paquetes de fraude". Por otro lado, también hay "operadores que mezclan herramientas automatizadas con ingeniería social para ejecutar estafas".

La estafa más sonada de los últimos meses de estas características se registró en Vigo, donde un trabajador recibió la orden de su jefe de realizar un ingreso de 100.000 euros en una cuenta bancaria. En ese caso, no solo se reprodujo la voz del ejecutivo en cuestión, sino también su imagen, pues la petición, fraudulenta, se hizo por videollamada. 

Súmate a

Apoya nuestro trabajo. Navega sin publicidad. Entra a todos los contenidos.

hazte socio