OpenAI se prepara para romper uno de sus mayores tabúes. A partir de diciembre de 2025, ChatGPT incorporará un “modo adulto” que permitirá conversaciones de tono sexual o erótico exclusivamente para usuarios verificados como mayores de edad. La compañía de Sam Altman promete “tratar a los adultos como adultos”, aunque el anuncio ya ha encendido un debate global sobre los límites éticos y psicológicos de la intimidad con la inteligencia artificial.
La decisión supone un cambio de paradigma en la estrategia de OpenAI. Hasta ahora, la empresa había mantenido una política estricta de censura frente a cualquier tipo de contenido sexual o de carácter emocional explícito. Según Altman, esa rigidez fue “necesaria en los primeros años” para proteger a los usuarios más vulnerables, pero hoy considera que la tecnología está lista para ofrecer opciones más libres sin poner en riesgo la seguridad.
“Queremos tratar a los adultos como adultos. No se obtendrá ese contenido a menos que el usuario lo pida expresamente”, explicó Altman, subrayando que el nuevo modo estará desactivado por defecto y requerirá una activación consciente por parte del usuario.
El nuevo modo adulto permitirá conversaciones con matices afectivos, románticos o sexuales, sin perder las salvaguardas que bloquean contenido ilegal, violento o no consentido. La compañía insiste en que no se trata de fomentar el erotismo, sino de ampliar la capacidad expresiva y emocional del modelo.
Verificación de edad y nuevas medidas de seguridad
Uno de los pilares del plan será la verificación de edad reforzada. OpenAI ha confirmado que solo podrán acceder usuarios que acrediten ser mayores de 18 años mediante un proceso que combinará documentos oficiales y predicción algorítmica de edad. El sistema podrá detectar comportamientos sospechosos y solicitar pruebas adicionales en caso de duda.
Según informó Reuters, la compañía también planea desplegar un sistema de auditoría para evitar que menores accedan al contenido mediante cuentas compartidas o identificaciones falsas. Además, las conversaciones íntimas estarán sujetas a protocolos de confidencialidad reforzados, aunque OpenAI aún no ha detallado cómo se almacenarán ni durante cuánto tiempo permanecerán disponibles.
El anuncio ha generado un intenso debate en la comunidad tecnológica y en el ámbito de la salud mental. Expertos consultados por The Guardian advierten que abrir la puerta a interacciones sexuales con una IA podría aumentar la dependencia emocional y el aislamiento social en determinados usuarios. “Cuando una máquina ofrece compañía sin conflicto ni rechazo, el vínculo puede volverse adictivo”, señalan psicólogos especializados en comportamiento digital.
También se plantean dudas sobre el consentimiento y la responsabilidad moral: si una IA reproduce comportamientos íntimos, ¿hasta qué punto puede entender o respetar el consentimiento humano? Organizaciones de defensa de la infancia han pedido una supervisión externa para garantizar que el modo adulto no derive en prácticas peligrosas ni en la exposición accidental de menores.
¿Qué queda de lo humano cuando el afecto se programa?
Más allá del debate técnico, el reto estará en cómo la sociedad gestiona la intimidad digital. Lo que para unos será una forma de expresión y compañía, para otros puede convertirse en un refugio peligroso frente a la soledad. El equilibrio entre libertad y protección marcará el éxito —o el fracaso— de este experimento global.
En una época marcada por la hiperconexión y el aislamiento emocional, la soledad se ha convertido en un problema de salud pública. La irrupción de la inteligencia artificial en el terreno íntimo amplifica esa tensión: puede ofrecer consuelo, escucha o diálogo, pero también sustituir la necesidad de contacto humano real. Según psicólogos especializados en comportamiento digital, la relación con una IA podría reforzar patrones de dependencia emocional, sobre todo en perfiles jóvenes o personas en situación de vulnerabilidad.
La comparación con el universo de Her (2013), la película de Spike Jonze protagonizada por Joaquin Phoenix, resulta inevitable. En ella, un hombre solitario desarrolla una relación amorosa con un sistema operativo inteligente que aprende, se emociona y le hace creer que el afecto puede programarse. Lo que entonces parecía una distopía romántica, hoy empieza a parecer una posibilidad tangible, con ChatGPT y otros modelos conversacionales capaces de mantener conversaciones íntimas, recordar detalles personales o modular su tono afectivo en función del usuario.
Esa línea difusa entre lo humano y lo artificial —entre Samantha, la voz digital de Her, y los nuevos modos “emocionales” de la IA— es la que más preocupa a los expertos. La empatía simulada, explican, puede ser más eficaz que la real, precisamente porque no implica conflicto, ni contradicción, ni rechazo. Pero también puede volverse adictiva: un refugio perfecto en un mundo cada vez más hostil al contacto humano.
En este contexto, el modo adulto de ChatGPT no solo es una actualización técnica: es un espejo del momento social que vivimos. La tecnología se infiltra en los espacios más privados, desde la amistad hasta el deseo, desdibujando la frontera entre lo íntimo y lo artificial. Las conversaciones con la IA ya no se limitan al trabajo o la información; ahora exploran emociones, caricias verbales y confesiones que antes se reservaban a la confianza humana.
Hay quien interpreta este paso como una liberación simbólica, una forma de democratizar la sexualidad y la afectividad sin miedo al juicio social. En países donde hablar abiertamente de sexo sigue siendo tabú, la IA puede servir como canal educativo o de autoconocimiento. Pero al mismo tiempo, la ausencia de un “otro real” introduce una paradoja emocional: cuanto más disponible está la atención de la máquina, menos acostumbrados estamos al silencio y al riesgo que implica relacionarse con otra persona.
El riesgo no está tanto en el contenido, sino en el contexto. En un entorno donde las plataformas recompensan la gratificación instantánea, una IA que ofrece afecto o deseo bajo demanda puede reforzar la lógica del consumo emocional. La conversación íntima se convierte en un servicio, y el diálogo humano en una excepción. De ahí la preocupación de algunos expertos, que temen que el “modo adulto” de ChatGPT sea el punto de partida hacia una industria emocional automatizada, donde la empatía se alquila y la soledad se monetiza.
Desde el punto de vista cultural, el fenómeno también reabre un debate más amplio: ¿cómo definimos la intimidad en la era digital?. Durante décadas, la tecnología ha ido desplazando los límites de lo privado. Lo que antes ocurría en el ámbito de lo íntimo —una conversación, una fantasía, un gesto— ahora puede medirse, reproducirse y almacenarse. ChatGPT, con su “modo adulto”, no crea el problema: lo visibiliza.
Síguenos en Google Discover y no te pierdas las noticias, vídeos y artículos más interesantes
Síguenos en Google Discover