La inteligencia artificial gana terreno día a día en todos los ámbitos, hasta el punto de que, según las previsiones, este sector podría llegar a generar este 2025 un volumen de negocio de 300.000 millones de dólares.

Sin embargo, como en todo lo que atañe al mundo digital, la IA está llena también de riesgos. “En muchas ocasiones no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado servicio. Sólo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo", advierte Silvia Martínez, profesora colaboradora de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC). En muchos casos el usuario no tiene paciencia para leer la larga lista de condiciones que acepta, y en otros, aunque lo haga, no llega a comprender del todo los términos por la dificultad que entraña el lenguaje empleado. 

En el caso de la inteligencia artificial, además, hay una "capa adicional de riesgo", apunta esta experta, ya que, además de permitir que cualquiera pueda alterar imágenes y vídeos de personas reales, ese material se emplea a su vez para "el entrenamiento y la mejora de esos sistemas". Para explicar cómo se hace lo comparara con la manera en que se enseñaría a un niño a reconocer una cara. "Le muestras varias fotos de la misma persona, desde distintos ángulos, con diferentes expresiones y poco a poco, empieza a identificarla", detalla, añadiendo que "cuantas más imágenes tenga, mejor aprenderá sus rasgos: la forma de los ojos, la curvatura de la sonrisa, el tono de piel, la manera en que se arrugan los párpados al reír, etc".

La tecnología que hay detrás de este proceso es compleja. "Hay redes neuronales profundas, una tecnología inspirada, de forma muy simplificada, en cómo funciona el cerebro humano", expone  Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación del mismo centro universitario. Este docente subraya que "estas redes procesan millones de datos visuales y aprenden a representar una cara como una especie de 'huella matemática' muy precisa, pero invisible al ojo humano". "Cuando una IA aprende a identificar un rostro humano, también se empodera para poder crear, a partir de ese momento, "nuevas imágenes hiperrealistas a partir de lo aprendido", alerta. Es en este punto donde surgen los deepfakes y memes que circulan por las redes sociales.

Riesgos reales 

Muchos de ellos se mueven en el ámbito del humor. Sin embargo, hay otros más peligrosos que persiguen engañar y manipular y que siven, incluso, para perpetrar estafas, como la ocurrida el pasado mes de abril en Galicia en la que una videollamada realizada con IA del CEO de una empresa llevó a un empleado a hacer una transferencia de 100.000 euros. 

Para llevar a cabo este tipo de robos de identidad  bastan unas cuantas imágenes públicas, una foto de perfil o un vídeo en redes. La inteligencia arificial puede "generar un vídeo hiperrealista en el que tú pareces hablar, mirar a cámara o decir cosas que jamás has dicho", afirma Pita. Es más, en muchos casos, "la víctima no llega ni a saber que su imagen ha sido utilizada hasta que el daño ya está hecho". "Literalmente, alguien puede 'ser tú' en vídeo sin que tú lo sepas", insiste.

Esto afecta a toda la población, a personajes públicos y a personas anónimas, que sin saberlo, pueden ver dañada su reputación y confianza, ya que, si bien las imágenes y vídeos generados con IA por creadores no profesionales son detectables, las realizadas por expertos son  "prácticamente indistinguibles de la realidad", asegura este docente. 

Del mismo, aunque hay una diferencia clara entre el uso que hacemos nosotros de nuestras imágenes para 'jugar' con la inteligencia artificial y el que hacen terceros no autorizados con intereses no siempre lícitos,  "en ambos casos nuestra información queda a merced del propietario del servicio o plataforma, y no sabemos qué hará después con lo que estamos subiendo a internet", dice Pita. 

Cómó o evitarlo 

Hacer frente a este problema no es fácil. Las plataformas buscan de manera contínua material con el que mejorar su tecnología. Meta, por ejemplo, ya se reserva el derecho a utilizar los contenidos que los usuarios comparten en Facebook o Instagram para entrenar a sus modelos de IA, y, según se ha sabido recientemente, podría poner en marcha una opción para que pueda emplear las que no se han compartido y están almacenadas en los dispositivos.

No obstante, "el hecho de que compartamos libremente una imagen en redes sociales no significa que perdamos todos nuestros derechos sobre ella", destaca Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la UOC. "Nuestra imagen sigue protegida por el derecho fundamental a la propia imagen, y también por la normativa de protección de datos personales, que reconoce al titular del dato un poder de control sobre su información como el de elegir quién la puede tratar, para qué fines y durante cuánto tiempo", aclara.

Asimismo, los usuarios pueden prohibir a las plataformas el uso de sus fotos y vídeos para entrenar a sus modelos de IA, pero "el verdadero riesgo está en lo que pueden hacer otros usuarios con esas fotos y vídeos compartidos", indica Blasi. Así las cosas, la única opción segura pasaría por no usar esas plataformas, lo que implicaría quedar aislados del "ecosistema donde se mueve la vida digital".

El papel de la legislación

Todos los expertos coinciden en subrayar que la tecnología en sí no es ni buena, ni mala, todo depende de cómo y para qué se use. Por ello, la regulación y la legislación juegan un papel clave. Sin embargo, es complejo y no siempre llega tiempo. El mundo digital avanza a una velocidad vertiginosa y opera en un entorno globalizado, donde se producen miles de millones de interacciones al día, lo que hace también difícil el control. 

Del mismo modo, las diferencias entre países son notables. "En Europa el uso de imágenes personales para entrenar sistemas de IA está sujeto a normas estrictas de protección de datos, como el RGPD", indica Blasi, que añade que "cualquier uso de datos personales, como imágenes que publica un usuario, requiere una base jurídica válida como el consentimiento del interés legítimo". El nuevo Reglamento de inteligencia artificial (AI Act) busca precisamente regular los usos de esta tecnología en la UE "introduciendo obligaciones adicionales cuando se usan datos personales en sistemas de alto riesgo"

En Estados Unidos, por el contrario. el modelo es "más flexible" y está basado "en la autorregulación empresarial y el principio del fair use". Y China, por su parte, tiene "un enfoque mucho más centralizado y orientado al control estatal que permite el uso masivo de datos, incluidos los biométricos, por parte del Gobierno y de grandes empresas tecnológicas. "La protección de los derechos individuales es mucho más débil, frente al interés público o la seguridad nacional", precisa este profesor de la UOC.

Las plaformas, por su parte, ya están etiquetando el contenido generado por IA para alertar a los usuarios, y empiezan a ganar terreno algoritmos y servicios capaces de analizar imágenes y vídeos para determinar si han sido manipulados.

"Entre esto, el sentido común, el pensamiento crítico y el conocimiento tenemos herramientas para defendernos de la cara negativa de una tecnología llamada a facilitar nuestras vidas en todos los ámbitos imaginables", concluye Antonio Pita. 

Súmate a El Plural

Apoya nuestro trabajo. Navega sin publicidad. Entra a todos los contenidos.

hazte socio