Los sesgos en los algoritmos, la desinformación y los bulos, la polarización de la sociedad y la vigilancia de los gobiernos y las compañías tecnológicas, se han convertido en el segundo mayor riesgo global, únicamente superado por los conflictos armados -derivados, principalmente, de la invasión de Ucrania por Rusia-.

La tecnología se ha convertido en el segundo mayor factor de riesgo tras los conflictos armados

Esa es la principal conclusión del Informe de riesgos globales 2025, que acaba de publicar el World Economic Forum. Se trata de la edición número 20 de la investigación que lleva a cabo esta organización responsable, entre otras cosas, de la organización del Foro de Davos.

El documento advierte sobre el avance de la vigilancia a la ciudadanía y el análisis de datos por los algoritmos: “Tomados en conjunto, estos desarrollos amenazan con minar la confianza de las personas en la información y las instituciones”.

La vulnerabilidad digital de la ciudadanía es cada vez más profunda

La realidad de la tecnología

“La cada vez mayor ubicuidad de sensores, cámaras de circuito cerrado y escáneres biométricos, entre otras herramientas, se están añadiendo a la huella digital del ciudadano medio”, advierte el documento.

Y añade que “en paralelo, la capacidad de computación mundial se está incrementando rápidamente”, lo que "está permitiendo que los modelos de inteligencia artificial [IA] puedan analizar datos no estructurados con mayor rapidez y está reduciendo el coste de producir contenido”.

Este panorama, unido a la “polarización social, que se sitúa en el puesto número 4 del ránking”, hace que “la vulnerabilidades asociadas con las actividades digitales de los ciudadanos se sigan haciendo cada vez más profundas, de la mano de las divisiones políticas y sociales”.

Sesgos

Los bulos y la desinformación siguen en lo más alto del ránking de riesgos a dos años: “La cantidad de contenido falso o sesgado al que están expuestas las sociedades continúa creciendo, al igual que la dificultad que los ciudadanos, empresas y gobiernos afrontan para diferenciarlo de la información veraz”. Una vez más, este factor, unido a la polarización social, “crean un mayor alcance para los sesgos algorítmicos”.

El documento lanza una nueva advertencia: “Si los sesgos humanos, institucionales y sociales no se afrontan y se ignoran las buenas prácticas en los modelos, las condiciones serán perfectas para que el sesgo de los algoritmos esté más presente”.

Vigilancia

Cada vez es más fácil monitorizar a la ciudadanía por parte de los gobiernos, las compañías tecnológicas y actores peligrosos, que pueden profundizar en las vidas de las personas”, señala la investigación.

La consecuencia es que “se pueden explotar todavía más las vulnerabilidades de la huella digital de la ciudadanía”, lo que supone que “el incremento de la polarización política y social podría convertirse todavía más en una fuerza fundamental para el incremento de la vigilancia”.

Desinformación y bulos

El incremento del contenido generado por usuarios en las plataformas hace que “cada vez sea más difícil detectar y eliminar los bulos y la desinformación en un panorama más fragmentado de medios”.

Sobre todo, porque también es más fácil y más barato generar y distribuir ese contenido para los grupos activistas e incluso “agencias estatales en algunos países”, que pueden “automatizar y expandir sus campañas”.

Pero no solo eso, también se espera que aumenten los errores humanos o los generados por las “alucinaciones” de la IA.

La suma de estos factores hace que, de una muestra de 47 países, solo el 40% de las respuestas afirmaban creerse la mayoría de las noticias. Sobre todo en las naciones con mayores ingresos, en las que el nivel de desconfianza y preocupación por estas cuestiones es mayor.

Bulos para ciberataques

El World Economic Forum adiverte de que “los algoritmos, en especial los modelos complejos de aprendiza de máquinas [machine learning] también pueden ser un ß que utilizan la desinformación”.

Y a esto hay que añadir una dificultad adicional, que se deriva de “la falta de transparencia de los modelos, de forma intencionada, por accidente o por su opacidad intrínseca”, que hace que “sea difícil identificar vulnerabilidades y mitigar sus amenazas potenciales”.

Vigilancia

La tecnología gubernamental está entrando en una nueva era”, afirma el documento. Gracias a la IA, en análisis de datos y las plataforma digitales, que “se han convertido en la columna vertebral de la administración pública”.

Una situación que no es nueva: “Las compañías tecnológicas han trabajado de cerca durante mucho tiempo con los gobiernos; por ejemplo, en los sectores sensibles de Defensa e Inteligencia”.

Pero ahora, esos campos se han extendido a “los impuestos, la protección medioambiental y la verificación y registro de votantes”, que “son cada vez más dependientes de la tecnología”.

Por eso, el informe recomienda utilizar los modelos de IA que “minimicen los sesgos y mitiguen consecuencias involuntarias en la creación y distribución de contenido”.