Reconócelo, estás todo el día con la inteligencia artificial (IA) a vueltas. No te preocupes, que está todo el mundo igual. Esta tecnología ha pasado en pocos años de ser una promesa a convertirse en una herramienta cotidiana. Hoy está presente en buscadores, plataformas de streaming, diagnósticos médicos, sistemas financieros, transporte o herramientas de generación de contenidos. Su capacidad de transformar sectores enteros es indiscutible, pero también ha despertado preocupaciones sobre privacidad, discriminación o manipulación.

La IA ha despertado preocupaciones sobre privacidad, discriminación o manipulación

Con ese contexto de fondo, la Unión Europea ha tenido que marcar las reglas del juego. Ya se sabe que, en este tipo de ámbitos, siempre ha sido más exigente que otros reguladores, como los de Estados Unidos, por ejemplo.

Algunas IA pueden influir en decisiones que afectan a millones de personas

Seguridad y respeto a los derechos fundamentales

La AI Act (ley de la IA), aprobada en 2024, fue la primera gran regulación integral en el mundo. El objetivo es claro: fomentar la innovación, pero al mismo tiempo establecer límites cuando la tecnología pueda poner en riesgo derechos fundamentales.

La Comisión Europea lo resume de forma directa al explicar que la norma pretende garantizar que los sistemas de IA “sean seguros y respeten los derechos fundamentales de las personas”, al tiempo que promueven la inversión y la innovación tecnológica.

La ley introduce una idea clave: no toda la IA es igual. Algunas aplicaciones tienen un impacto mínimo en la sociedad, mientras que otras pueden influir en decisiones críticas que afectan a la vida de millones de personas. Por eso la normativa europea establece distintos niveles de riesgo y adapta las obligaciones legales a cada uno de ellos.

La lógica de la ley: regular la IA según su riesgo

La AI Act clasifica los sistemas en diferentes categorías según el riesgo que representan para la sociedad. Este enfoque permite aplicar medidas proporcionales: cuanto mayor es el riesgo potencial, más exigentes son las obligaciones que deben cumplir las empresas.

En el extremo más alto se sitúan los usos considerados incompatibles con los valores europeos. En esos casos la ley no deja margen: están directamente prohibidos.

Manipulación y explotación de personas vulnerables

Uno de los ejemplos más claros es la manipulación del comportamiento mediante técnicas subliminales o engañosas. El reglamento impide el uso de sistemas de IA diseñados para influir en las decisiones de las personas de forma que puedan causarles daño.

La preocupación es que la tecnología permita formas de persuasión invisibles que limiten la capacidad de decisión de los ciudadanos. En la misma línea, la normativa prohíbe emplear IA para manipular a colectivos vulnerables, como menores o personas mayores, aprovechando su situación para influir en su comportamiento.

El veto al “social scoring

Otro de los usos vetados es el llamado “social scoring”, un siste ma que clasifica a los ciudadanos en función de su comportamiento o de características personales y les asigna una puntuación que puede afectar a su acceso a servicios o derechos.

La Comisión Europea considera que este tipo de tecnologías plantea riesgos graves para los derechos fundamentales. Por ese motivo, el reglamento establece que no se permitirá su utilización dentro del mercado europeo.

Reconocimiento facial masivo y datos biométricos

La normativa también establece límites claros en el uso de tecnologías biométricas. Una de las prácticas prohibidas es la creación de bases de datos de reconocimiento facial mediante la recopilación masiva de imágenes procedentes de internet o de cámaras de vigilancia.

Según el marco regulatorio europeo, estas técnicas pueden facilitar sistemas de vigilancia masiva incompatibles con la protección de la privacidad.

El reglamento también prohíbe utilizar IA para deducir características sensibles —como orientación sexual, religión o ideología política— a partir de datos biométricos de las personas.

IA para detectar emociones

Otra de las decisiones más llamativas de la normativa afecta a los sistemas que intentan identificar emociones a partir de expresiones faciales o patrones de comportamiento.

La AI Act prohíbe utilizar este tipo de tecnologías en entornos laborales o educativos, salvo en casos muy concretos relacionados con la salud o la seguridad. La UE considera que la fiabilidad científica de estos sistemas es limitada y que su uso podría vulnerar la privacidad de las personas.

Policía predictiva y riesgos de discriminación

El ámbito de la seguridad también está sujeto a límites. El reglamento impide utilizar IA para predecir la probabilidad de que una persona cometa un delito basándose únicamente en su perfil o en características personales.

Estos sistemas, conocidos como tecnologías de “policía predictiva”, han sido criticados por su potencial para amplificar sesgos sociales o discriminación. La normativa europea considera que el uso de IA en seguridad debe estar sujeto a garantías muy estrictas para evitar abusos.

Sistemas de alto riesgo: la IA que se puede usar con controles

Aunque las prohibiciones han generado gran parte del debate público, lo cierto es que la mayoría de estas aplicaciones seguirán siendo legales en Europa. Sin embargo, muchas de ellas estarán sujetas a requisitos estrictos.

Es el caso de los sistemas considerados de alto riesgo, que incluyen aplicaciones utilizadas en ámbitos especialmente sensibles.Entre ellos se encuentran sistemas de IA aplicados a la sanidad, el transporte, la gestión de infraestructuras críticas, la educación o los procesos de contratación laboral.

Las empresas que desarrollen estas tecnologías deberán demostrar que cumplen requisitos rigurosos antes de comercializarlas. La normativa exige, entre otras cuestiones, evaluar los riesgos potenciales, garantizar la calidad de los datos utilizados para entrenar los modelos y asegurar que existe supervisión humana.

Además, algunos sistemas deberán registrarse en una base de datos europea de IA para facilitar su supervisión por parte de las autoridades.

Transparencia para la IA generativa

La regulación también aborda el auge de la IA generativa, que ha ganado enorme popularidad con herramientas capaces de crear textos, imágenes o vídeos. La UE no prohíbe estas tecnologías, pero sí exige transparencia. Los usuarios deben saber cuándo están interactuando con un sistema de IA y cuándo un contenido ha sido generado artificialmente.

El objetivo es reducir riesgos asociados a fenómenos como los deepfakes o la desinformación generada por máquinas.

En el caso de los grandes modelos de propósito general, las empresas deberán proporcionar información sobre su funcionamiento, los datos utilizados para su entrenamiento y las medidas adoptadas para mitigar riesgos.

Multas millonarias para garantizar el cumplimiento

La AI Act también establece un régimen sancionador contundente. En los casos más graves, las multas pueden alcanzar hasta el 7% de la facturación anual global de una empresa.

La norma tiene además un alcance internacional. Cualquier compañía que quiera ofrecer sistemas de IA en el mercado europeo deberá cumplir estas reglas, incluso si está establecida fuera de la UE.

Un nuevo modelo de gobernanza tecnológica

La legislación europea es considerada por muchos analistas como el marco regulatorio más ambicioso del mundo en materia de IA.

Las instituciones europeas defienden que la confianza será clave para el desarrollo tecnológico en los próximos años. Según la Comisión Europea, el objetivo es construir un ecosistema en el que la IA pueda desarrollarse respetando “los valores europeos y los derechos fundamentales”.

La aplicación completa de la AI Act será progresiva y se extenderá durante los próximos años. Pero su aprobación marca ya un punto de inflexión: por primera vez, una gran región ha definido de forma clara qué puede —y qué no puede— hacer la IA dentro de sus fronteras.

Súmate a

Apoya nuestro trabajo. Navega sin publicidad. Entra a todos los contenidos.

hazte socio