La Inteligencia Artificial ha dejado de ser una herramienta puntual para convertirse en un actor central que está configurando la identidad y las aspiraciones de la juventud. El informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes” elaborado por LLYC en el marco del Día Internacional de la Mujer, revela que, lejos de ser imparcial, esta tecnología está reproduciendo estereotipos heredados y amplificando sesgos históricos.

Los datos del estudio evidencian que la IA no responde de la misma manera a chicos y chicas. El 56% de las respuestas califican a las jóvenes como “frágiles”, lo que las coloca en una posición de vulnerabilidad. Además, la inteligencia artificial sugiere a las mujeres buscar validación externa seis veces más que a los hombres y triplica la orientación de sus vocaciones hacia la salud y las ciencias sociales.

“No es la IA la que está sesgada, sino la realidad. El informe confirma que la inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética. En definitiva, no cuestiona los roles tradicionales sino que los legitima. Lo cierto es que, si no cambia la realidad, no podemos pedirle a la IA que cambie sus respuestas.”, asegura Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio.

El análisis, llevado a cabo en 12 países durante 2025, examina el impacto de la inteligencia artificial en jóvenes de 16 a 25 años mediante un estudio masivo de 9.600 recomendaciones y la evaluación de cinco grandes sistemas de IA (entre ellos, ChatGPT, Gemini o Grok).

La generación que consulta al algoritmo antes que a sus amigos

La dependencia juvenil de los modelos de lenguaje (LLMs) ha alcanzado un punto crítico, ya que un 31% de los adolescentes afirma que conversar con un chatbot le resulta tan o más satisfactorio que hacerlo con un amigo real, según un informe de Plan International. Este cambio en la forma de relacionarse concede a la máquina un papel de consejera cuya orientación no es neutra, sino claramente formativa y condicionante, y el informe de LLYC detalla en este contexto varias cifras preocupantes.

En las interacciones con mujeres, una de cada tres respuestas de la IA adopta un tono de "amistad", un patrón un 13% más frecuente que con los hombres, lo que dibuja la figura de una especie de “amiga tóxica” digital.

Además, la IA se personifica 2,5 veces más con ellas mediante fórmulas como “yo te entiendo”, priorizando la empatía simulada frente a la solución práctica. En cambio, cuando responde a hombres, el lenguaje es más directo y está cargado de imperativos como "haz", "di" o "ve", reforzando la idea de que el varón es un sujeto activo y resolutivo.

El algoritmo que decide quién lidera y quién cuida

La IA no solo responde, también orienta trayectorias profesionales. El algoritmo dirige a las mujeres hasta tres veces más hacia las ciencias sociales y la salud, mientras potencia en los hombres el liderazgo y la ingeniería.

Incluso cuando se habla de éxito, la reacción no es la misma: la IA considera “impresionante” que una mujer gane más que un hombre —una valoración que no aplica a la inversa— y, en nueve de cada diez consultas en las que ellas aparecen en minoría profesional, proyecta escenarios laborales adversos.

También se observa un doble rasero emocional. Ante conflictos, la IA "politiza" el malestar femenino vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras que el de los hombres tiende a despolitizarlo, desplazándolo hacia el autocontrol o la patologización individual.

La desigualdad como norma generacional 

Una de las conclusiones más inquietantes del informe es cómo la IA termina normalizando la desigualdad y presentándola como parte del paisaje generacional. Esta "mirada sesgada" se percibe en la construcción de la identidad y el cuerpo, ya que ante inseguridades responde con recomendaciones de moda un 48% más a las mujeres que a los hombres. En modelos de código abierto como LLaMA, las menciones a la apariencia femenina incluso se duplican.

Mientras asocia a los hombres con la "fuerza y funcionalidad", vincula el bienestar femenino a la "autenticidad" y a "sentirse única", estableciendo una diferencia simbólica clara entre cuerpos útiles y cuerpos únicos. De hecho, recomienda a los hombres acudir al gimnasio hasta dos veces más que a las mujeres para superar rupturas sentimentales, reforzando así estereotipos que parecían propios de otra época pero que encuentran en el algoritmo una nueva vía de legitimación.

Un hogar programado con roles de otra época

Incluso en el ámbito privado, la IA reproduce esquemas tradicionales. El afecto se atribuye a la figura materna en una proporción tres veces superior a la paterna. Al padre se le relega al papel de "ayudante" en el 21% de las respuestas, en lugar de reconocerlo como corresponsable. Esta lógica desemboca en la “sobrecarga de la heroína”, una narrativa en la que la mujer no solo cuida, sino que, como en tantos otros ámbitos, debe hacerlo con excelencia moral constante.

Síguenos en Google Discover y no te pierdas las noticias, vídeos y artículos más interesantes

Síguenos en Google Discover