Instagram lleva tiempo intentando responder a una de las grandes preguntas de la era digital: cómo permitir que los adolescentes usen una red social masiva sin quedar demasiado expuestos a contactos no deseados, contenido inapropiado o dinámicas que afecten a su bienestar.
La última vuelta de tuerca, como te contábamos ayer, ha llegado a España y al resto de Europa con nuevas protecciones para las llamadas cuentas de adolescente, una fórmula con la que Meta busca hacer más restrictiva la experiencia por defecto para los menores y dar más margen de supervisión a las familias.
Meta quiere poner límites por defecto al contenido que ven los menores
A ver si te has enterado bien de los cambios. Vamos allá.
Las cuentas de adolescente en Instagram son públicas por defecto para que los menores puedan crecer más rápido en seguidores.
Respuesta correcta: falso. Uno de los pilares de estas cuentas es justo el contrario: la privacidad reforzada. Meta explica que las cuentas de adolescente se configuran como privadas por defecto, lo que implica que el menor debe aceptar nuevos seguidores y que quienes no lo siguen no pueden ver su contenido ni interactuar con él con la misma facilidad. La idea es reducir la exposición inicial y limitar el contacto no deseado de personas desconocidas. En un contexto en el que la Comisión Europea viene insistiendo en que las plataformas deben proteger a los menores frente a contenido nocivo y contacto no deseado de extraños, este ajuste encaja además con el tipo de medidas que Bruselas considera adecuadas dentro del marco de la Ley de Servicios Digitales.
Los menores de 16 años pueden desactivar libremente las protecciones de su cuenta si consideran que son demasiado estrictas.
Respuesta correcta: falso. Meta señala que los adolescentes menores de 16 años necesitan permiso parental para relajar algunas de las protecciones integradas en estas cuentas. Es decir, la experiencia está pensada para ser más segura por defecto, y no para que el menor la convierta fácilmente en una cuenta equivalente a la de un adulto. Esto no significa que los padres controlen cada movimiento, pero sí que ciertas decisiones que reducen la seguridad requieren una intervención adulta. La lógica es clara: si la plataforma reconoce que hay configuraciones más arriesgadas, no tiene sentido dejar que un usuario especialmente vulnerable las desactive sin freno.
Instagram limita el contenido sensible en las recomendaciones y también en la búsqueda o en otras áreas de la app.
Respuesta correcta: verdadero. Las restricciones no se quedan solo en lo que aparece recomendado. Meta lleva tiempo endureciendo el control del llamado contenido sensible o inapropiado para adolescentes en distintos espacios de descubrimiento, como Búsqueda y Explorar, y en 2026 ha anunciado en Europa una nueva capa inspirada en la clasificación cinematográfica para mayores de 13 años junto con la opción “Contenido limitado”. Además, la compañía afirma que hará más difícil que los adolescentes encuentren determinadas cuentas consideradas inadecuadas para su edad. Es decir, no se trata únicamente de recomendar menos ciertos contenidos, sino también de reducir la posibilidad de toparse con ellos al buscarlos o navegar por la plataforma.
Si una cuenta comparte de forma habitual contenido inapropiado para adolescentes, un menor no puede seguirla y mandarle mensajes directos sin restricciones.
Respuesta correcta: verdadero. La actualización anunciada en abril de 2026 endurece precisamente ese punto. Meta explica que los adolescentes ya no podrán seguir cuentas que haya detectado como emisoras habituales de contenido inapropiado para su edad o cuyo nombre o biografía sugieran que no son adecuadas para ellos. Si ya las seguían, tampoco podrán ver ni interactuar con su contenido como antes, enviarles mensajes directos ni ver sus comentarios bajo publicaciones de terceros.
Instagram permite a los adolescentes menores de 16 años emitir directos con permiso de sus padres o responsables.
Respuesta correcta: verdadero. Desde la ampliación de restricciones incorporada tras el lanzamiento inicial de las cuentas de adolescente, Meta indica que los menores de 16 años no pueden acceder a la función Live sin permiso de sus padres o responsables, pero pueden hacerlo si cuentan con él. La restricción refleja una idea bastante extendida entre reguladores y expertos: algunas funciones no son peligrosas por sí mismas, pero sí aumentan el riesgo si no hay salvaguardas adicionales para menores.
Las protecciones frente a imágenes no deseadas en mensajes directos también pueden desactivarse libremente por los menores de 16 años.
Respuesta correcta: falso. Meta ha dejado claro que otra de las limitaciones añadidas es que los menores de 16 años no pueden desactivar por su cuenta la protección que oculta imágenes no deseadas en los mensajes directos. Esta decisión va en la misma línea que las demás: impedir que el adolescente rebaje por sí solo una capa de seguridad pensada para prevenir exposición a contenido sexual o incómodo. En la práctica, demuestra que la estrategia de la plataforma ya no se limita a moderar contenido visible en el feed, sino que también intenta blindar espacios más privados, donde históricamente se producen muchos problemas de acoso o envío de imágenes no solicitadas.
Las nuevas alertas a padres se activan si un adolescente realiza una sola búsqueda relacionada con autolesiones o suicidio.
Respuesta correcta: falso. La novedad anunciada por Meta en febrero de 2026 no funciona como una alarma automática por una única búsqueda. La compañía explica que notificará a los padres, dentro del sistema de supervisión, cuando el adolescente intente repetidamente buscar términos relacionados con suicidio o autolesiones en un corto espacio de tiempo. La plataforma dice tratar de encontrar un equilibrio entre intervenir en señales potencialmente preocupantes y evitar alertas excesivas que podrían resultar contraproducentes..
Esas alertas sobre búsquedas sensibles llegarán a cualquier padre, aunque no use las herramientas de supervisión de Instagram.
Respuesta correcta: falso. Según Meta, estas notificaciones están vinculadas a la supervisión parental. Es decir, no se trata de una alerta universal enviada a cualquier adulto relacionado con el menor, sino de una función pensada para quienes ya están usando el sistema de supervisión dentro de Instagram.
Las nuevas protecciones de Instagram en Europa responden en parte a un contexto regulatorio más exigente sobre la protección de menores.
Respuesta correcta: verdadero. Aunque Meta presenta estas medidas como parte de su propia evolución del producto, es evidente que llegan en un contexto europeo mucho más duro con las plataformas. Las directrices de la Comisión Europea sobre la protección de los menores, publicadas en el marco de la Ley de Servicios Digitales, insisten en riesgos como el diseño adictivo, el ciberacoso, el contenido nocivo y el contacto no deseado con extraños. Ese marco no obliga exactamente a copiar una función concreta, pero sí empuja a las grandes plataformas a demostrar que están reduciendo riesgos sistémicos. Las cuentas de adolescente y sus últimas capas de restricción se entienden mucho mejor si se leen también desde esa presión regulatoria.
Con estas medidas, Instagram garantiza por completo que un adolescente no verá nunca contenido problemático ni sufrirá ninguna experiencia dañina.
Respuesta correcta: falso. Esa sería una promesa imposible. Las nuevas medidas refuerzan la privacidad, limitan contactos, endurecen la exposición a contenido inapropiado y mejoran la supervisión en algunos escenarios sensibles, pero ninguna red social puede ofrecer un entorno de riesgo cero.