En un mundo cada vez más virtual, en el que pronto estaremos relacionándonos con personas y personajes virtuales en el Metaverso, los riesgos de ser engañados y encontrarnos hablando o escuchando a un avatar creado por un algoritmo de Inteligencia Artificial son cada vez mayores. Si hasta ahora el riesgo de desinformación procedía de las Fake News, los personajes artificiales que vemos en esos vídeos conocidos como Deep Fake, parece que son más creíbles que las personas reales.

Deep Fake: Cuando te crees más la mentira que la verdad

Esto abre un nuevo problema ético a tener en cuenta en las comunicaciones y relaciones digitales. Hasta ahora, sabemos de la capacidad de persuasión de profesionales de todo tipo, y de la “gente común” convertida en “influencer”.

Ahora, la posibilidad de crear un personaje a la medida, que diga lo que quieras y que sea más confiable que tú mismo, es cuando menos preocupante.

 

La Dra. Sophie Nightingale de la Universidad de Lancaster y el profesor Hany Farid de la Universidad de California, Berkeley, realizaron experimentos en los que se pidió a los participantes que distinguieran los rostros sintetizados StyleGAN2 de última generación de los rostros reales y qué nivel de confianza evocaban los rostros.

Los resultados revelaron que los rostros generados sintéticamente no solo son altamente fotorrealistas, sino que casi no se distinguen de los rostros reales e incluso se consideran más confiables. Por ello, los investigadores advierten sobre las implicaciones de la incapacidad de las personas para identificar imágenes generadas por IA.

“Quizás lo más pernicioso es la consecuencia de que en un mundo digital en el que se puede falsificar cualquier imagen o video, se puede cuestionar la autenticidad de cualquier grabación inconveniente o no deseada”, aseguran en la web de la universidad.

 

  • En el primer experimento, 315 participantes clasificaron 128 rostros tomados de un conjunto de 800 como reales o sintetizados. Su tasa de precisión fue del 48 %, cerca de una probabilidad de rendimiento del 50 %.
  • En un segundo experimento, 219 nuevos participantes fueron capacitados y recibieron retroalimentación sobre cómo clasificar rostros. Clasificaron 128 rostros tomados del mismo conjunto de 800 rostros que en el primer experimento, pero a pesar de su entrenamiento, la tasa de precisión solo mejoró al 59%.

Los investigadores decidieron averiguar si las percepciones de confiabilidad podrían ayudar a las personas a identificar imágenes artificiales.

  • Un tercer estudio pidió a 223 participantes que calificaran la confiabilidad de 128 rostros tomados del mismo conjunto de 800 rostros en una escala de 1 (muy poco confiable) a 7 (muy confiable).

La calificación promedio para las caras sintéticas fue un 7,7 % MÁS confiable que la calificación promedio para las caras reales, lo cual es estadísticamente significativo.

 

Unos rostros son más confiables que otros

Los investigadores descubrieron además que hay un tipo de cara que resulta más de fiar que otro, y que el color de la piel o el género tienen incidencia en esa confianza:

  • Las caras negras se calificaron como más confiables que las caras del sur de Asia, pero por lo demás no hubo ningún efecto entre razas.
  • Las mujeres fueron calificadas como significativamente más confiables que los hombres.

“Es más probable que una cara sonriente se califique como confiable, pero el 65,5 % de las caras reales y el 58,8 % de las caras sintéticas sonríen, por lo que la expresión facial por sí sola no puede explicar por qué las caras sintéticas se califican como más confiables”.

Los investigadores sugieren que las caras sintetizadas pueden considerarse más confiables porque se parecen a las caras promedio, que a su vez se consideran más confiables.

 

Fuente: Lancaster University News.