Un objetivo: proteger a la infancia y a la adolescencia en el entorno digital. Así de sencillo y así de difícil. Gracias a la iniciativa de la Asociación Europea de Transición Digital (EADT, en sus siglas en inglés), el 22 de junio presentamos en Madrid unas medidas que buscan mejorar la vida de los menores en su compleja relación con el ecosistema digital.

Seis entidades de la sociedad civil -la citada AETDSave The ChildrenFundación ANARiCMediaDale Una Vuelta y Unicef– con el apoyo institucional de la Agencia Española de Protección de Datos, hemos unido fuerzas para consensuar una propuesta de Pacto de Estado ante un problema cada vez más acuciante: el impacto negativo que, en determinadas circunstancias, puede tener el uso de Internet y las redes sociales en los menores de edad.

Es un punto de partida, una propuesta de mínimos, para trabajar conjuntamente por encima de las lógicas diferencias entre distintos colectivos y grupos de interés. En nuestro caso, centrado en el daño que produce la pornografía, especialmente en este público tan vulnerable a sus efectos, estamos satisfechos porque hay varias medidas (1, 5, 6, 8, 10 y 13) que velan directamente sobre el consumo de material sexual. Al mismo tiempo, somos conscientes de que requieren un reglamento y desarrollo posterior para que no se queden en buenas intenciones.

A continuación, reproducimos la propuesta en su versión íntegra. Se puede consultar y descargar el documento oficial en este enlace.


 

 

RECONOCER EL PROBLEMA: EL USO PROBLEMÁTICO DE INTERNET, REDES SOCIALES Y PORNOGRAFÍA POR PARTE DE LOS NIÑOS, NIÑAS y ADOLESCENTES

M.1.- Reconocer que el uso compulsivo de la tecnología es un problema de salud pública, y proporcionar asesoramiento, información y prevención. Ajustar las políticas públicas en consecuencia y emprender campañas que expliquen el peligro de las estrategias que fomentan el uso compulsivo.

 Uso problemático de internet y redes sociales.
 Consumo de contenidos inapropiados para su edad, en particular de pornografía.

M2.- Disponer de medidas preventivas, de atención y orientación relacionadas con el uso de la tecnología para niños, niñas, adolescentes y familias, incluidos los colectivos más vulnerables.

M.3.- Reforzar las líneas de ayuda ya existentes, establecer nuevas vías de ayuda y centros de tratamientos especializados por unidades de adicciones comportamentales.

M.4.- Inversión en investigación y transferencia del conocimiento a los ciudadanos.

M.5.- Implementar en Atención Primaria recursos para detectar, prevenir y tener en cuenta el consumo problemático de internet, las redes sociales y la pornografía.

EDUCAR EN CIUDADANÍA DIGITAL RESPONSABLE Y EN EDUCACIÓN AFECTIVO SEXUAL.

M.6.- Concienciar sobre lo que está pasando en la Red (acoso, violencia, abusos, ciberdelitos, adicciones sin sustancia, pornografía, mercantilización de los datos de los menores, falta de pensamiento crítico, etc.) y su impacto en la vida y en el desarrollo de los menores. Con especial énfasis en los niños, niñas, adolescentes, padres, madres y docentes.

M.7.- Fomento de Escuelas de Padres y Madres para formarse en una ciudadanía digital responsable y dotarles de herramientas para poder educar a sus hijos en un consumo consciente y responsable, y poder generar normas de uso consensuadas en familias.

M.8.- Dotar de competencias habilitadoras a través de formación reglada a alumnado, profesorado, trabajadores sociales, profesionales de la salud y el derecho con formación adecuada, acreditada y continuada, que incluya:

  • Protección de dispositivos: comprender los riesgos y amenazas en los entornos digitales; conocer las medidas de seguridad y protección y tener debidamente en cuenta la fiabilidad y la privacidad.
  • Protección de datos y privacidad: proteger los datos personales y la intimidad personal y de terceros en entornos digitales, comprendiendo cómo utilizar y compartir la información personal identificable, protegiéndose a sí mismo y a los demás de posibles daños.
  • Proteger la salud y el bienestar: ser capaz de evitar riesgos para la salud y amenazas para el bienestar físico y psicológico durante el uso de las tecnologías digitales, siendo capaz de protegerse a sí mismo y a los demás de posibles peligros en entornos
    digitales (conductas adictivas, conductas de riesgo para la salud fomentadas a través de internet como autolesiones, trastornos alimentarios, apuestas en juegos, falta de sueño). Establecer programas de educación en salud digital y salud afectivo-sexual
    basados en la evidencia científica, teniendo en cuenta la edad del menor.
  • Protección frente a la violencia: pautas para conocer, prevenir y denunciar distintas formas de violencia en el entorno digital (ciberacoso, sexting, grooming…).
  • Formación a profesores en educación mediática desde una perspectiva reflexiva y crítica, dotándolos de enfoques didácticos dirigidos a alumnos para fomentar el pensamiento crítico.
  • Facilitar el desarrollo de competencias y de espacios seguros en internet para promover la participación social y cívica de niños, niñas y adolescentes.

RESPONSABILIDAD DE TODOS LOS AGENTES IMPLICADOS, INCLUIDA LA INDUSTRIA.

M.9.- Trasladar en medidas concretas los principios, medidas y mecanismos necesarios en consonancia con la Convención sobre los Derechos del Niño y la Observación General No. 25 relativa a los derechos de los niños en relación con el entorno digital.

M.10.- Diseño de los productos y servicios digitales teniendo en cuenta la edad.

  • Realizar evaluaciones de impacto obligatorias y accesibles sobre el efecto en la infancia de servicios y productos digitales (existentes o por desarrollar antes de su despliegue); que aparezcan desactivadas por defecto las estrategias de persuasión y patrones oscuros en los servicios en línea, informándose de forma clara y sucinta cuando se utilicen elementos de persuasión, que se establezca un etiquetado comprensible de las consecuencias y efectos y que se adapte el diseño de su servicio y su interfaz en línea a los y las menores de edad.
  • Habilitar en los terminales y dispositivos el acceso a aplicaciones que ofrezcan el atributo de menoría de edad.
  • Advertencias mediante pop -up de los riesgos a los que están expuestos los menores.

M.11.- Recogida y difusión de la información personal que un menor de edad introduzca en línea.

  • Además de adecuar los contenidos a niños, niñas y adolescentes basándose en la capacidad cognitiva según la edad, es necesario que la industria les informe de manera clara y comprensible de la finalidad de la recogida de los datos e incluyan procedimientos gratuitos adaptados a su edad y madurez y al alcance de sus representantes, para conocer el tipo de datos que suministran, suprimirlos y/o actualizarlos.

M.12.- Prevención para un uso seguro y responsable.

  • Incluir información y advertencias sobre uso responsable y riesgos, para prevenir conductas adictivas e inapropiadas en el embalaje de los dispositivos digitales.
  • Potenciar herramientas de protección de la salud de los menores por edades que se basen en la evidencia científica.
  • Promover la regulación en las Comunidades Autónomas para impedir el uso de los móviles en los centros educativos y para adecuar el uso de los dispositivos tecnológicos en el aula por parte de los centros a las pautas por edades recomendadas por las sociedades científicas españolas vinculadas a la pediatría, psicología y psiquiatría infantil.

M.13.- Medidas para limitar el acceso a contenidos inadecuados.

  • Etiquetado inteligente por edades en contenidos y productos para facilitar la detección de contenidos potencialmente perjudiciales, mediante descriptores que identifiquen la temática de dichos contenidos. Se ha de prestar atención a los contenidos seriamente perjudiciales para los menores, que incluyan, por ejemplo, escenas de pornografía, lenguaje inapropiado, o violencia física o psíquica.
  • Reforzar la capacidad de control de la CNMC, AEPD, o de la entidad que se cree por la Digital Service Act, dotándole de recursos y competencias.
  • Establecer mecanismos de verificación de edad de la persona a través de sistemas no invasivos y respeten sus derechos, especialmente la privacidad y acceso a información fiable y de calidad. Mediante la acreditación de atributos y terceros de confianza para resolver cuestiones como el anonimato, la protección de la información e interoperabilidad. Así como la adopción de los mecanismos exigidos a las plataformas de intercambios de vídeos, prestadores intermediarios de contenidos, distribuidores de contenidos audiovisuales y redes sociales audiovisuales.
  • Establecer un marco legal de rendición de cuentas para los directivos responsables de las plataformas de intercambios de vídeos, prestadores intermediarios de contenidos, distribuidores de contenidos que incumplan con el establecimiento de la obligación de verificación de edad.

M.14.- Algoritmos.

  • Obligar a que los algoritmos y sistemas de tratamiento automático, estén auditados por terceros independientes y autoridades de control con relación a la protección de la privacidad, la inexistencia de sesgos discriminatorios, la manipulación, la adicción y que se ofrezca información clara y comprensible a padres, madres y tutores sobre el servicio como en cualquier producto de alto impacto: a quién va dirigido, quién no debe usarlo, que contraindicaciones tiene en casos especiales, cómo ha de usarse y con qué limites, cómo actuar ante problemas, quién ha verificado su correcto funcionamiento, etc”, de la misma forma que ocurre con los medicamentos.
  • Obligar a que se responsabilicen de los daños causados -a los y las menores, incluidos los de salud mental-, por los algoritmos a quien: diseñe, desarrolle, mantenga, aplique y use algoritmos, incluidos los referidos a la salud mental, que provoquen a los niños, niñas y adolescentes.

M.15.- Refuerzo a las instituciones.

  • Refuerzo de medios a las instituciones públicas actuales con competencias en la protección de los derechos de la infancia y la adolescencia en el ámbito digital (CNMC, AEPD, INCIBE, etc…).
  • Creación de un grupo de trabajo específico sobre el ámbito digital dentro del Observatorio de la Infancia que incluya a los actores y agentes con responsabilidad en el interés del menor.
  • Creación de entidades, o atribución de competencias a las instituciones ya existentes, en los reglamentos europeos que regulan el ámbito digital.

Rogamos a los representantes de los partidos políticos un compromiso en torno a las anteriores medidas de consenso, y que con el inicio de la presidencia europea de España (1 de julio) se lidere en la Unión Europa un paquete de medidas en el ámbito digital para la  protección de los menores.


 

El presente Manifiesto ha sido suscrito por las entidades ya nombradas, el 9 de junio de 2023. Al presente documento, podrán adherirse todas aquellas entidades que apoyen las anteriores medidas de consenso para la protección de los menores en el entorno digital. En apenas una semana, más de 70 organizaciones se han unido.

Por los menores, todo es poco.