“Garantizar un espacio digital seguro, en el que los menores puedan aprender, jugar y socializar de forma segura”. Esa es la prioridad de la Unión Europea [UE]. Por eso, la Comisión acaba de tomar medidas “para proteger a los niños y adolescentes de las acciones peligrosas en el mundo digital”. Además, quiere proteger los derechos de los menores cuando navegan por internet.
La Comisión quiere saber cómo protegen las plataformas a los menores
La primera medida ha sido el envío de “solicitudes de información a Snapchat, YouTube, Apple App Store y Google Play para comprender las medidas que estas empresas han adoptado para proteger a los menores en sus servicios”.
La UE quiere que las plataformas digitales más pequeñas cumplan la Ley de Servicios Digitales
Garantizar el cumplimiento
La Comisión ha informado de que “el grupo de trabajo del Comité Europeo de Servicios Digitales para la Protección de los Menores ha acordado tomar medidas para garantizar el cumplimiento de la Ley de Servicios Digitales por parte de las plataformas digitales más pequeñas, en coordinación con las autoridades competentes”.
Estas acciones incluyen “la identificación de las plataformas que plantean el mayor riesgo para los niños y la comprobación del cumplimiento por parte de las plataformas del elevado nivel requerido de seguridad infantil en virtud de la Ley de Servicios Digitales. El Grupo de Trabajo también desarrollará y compartirá herramientas comunes para las medidas de investigación y ejecución a fin de garantizar la coherencia en toda la UE”.
Directrices para la protección de los menores en internet
El pasado mes de julio, la Comisión publicó sus directrices sobre la protección de los menores en el marco de la Ley de Servicios Digitales “para garantizar una experiencia digital segura para los niños y los jóvenes”.
En primer lugar, la UE exige que se configuren las cuentas de menores como privadas por defecto, “para que su información personal, datos y contenido de redes sociales estén ocultos de aquellos con los que no están conectados para reducir el riesgo de contacto no solicitado por extraños”.
También exige “modificar los sistemas de recomendación de las plataformas para reducir el riesgo de que los niños se encuentren con contenidos nocivos o se queden atrapados en contenido específico”.
Formación
La Comisión aconseja a las plataformas que capaciten a los niños para que “puedan bloquear y silenciar a cualquier usuario y garantizar que no puedan agregarse a grupos sin su consentimiento explícito”, lo que “podría ayudar a prevenir el ciberacoso”.
Además, deben “deshabilitar por defecto las características que contribuyen al uso excesivo”. Entre ellas, eliminar la reproducción automática de contenido, las notificaciones o el diseño de las aplicaciones para que “enganchen” a los menores.
Las directrices también “recomiendan el uso de métodos eficaces de garantía de la edad, siempre que sean precisos, fiables, sólidos, no intrusivos y no discriminatorios”.
En especial, recomiendan métodos de verificación de la edad para restringir el acceso a contenidos para adultos, como la pornografía y los juegos de azar, o cuando las normas de cada país establezcan una edad mínima para acceder a determinados servicios.
La Comisión también establece la necesidad de incluir la seguridad en el diseño de las aplicaciones y plataformas, sin esperar a que surjan los problemas. Además, “las plataformas deben considerar cuidadosamente cómo usan sus servicios los niños y adolescentes y qué riesgos deben afrontar, como el ciberacoso, el contenido dañino y el uso excesivo”.