El desarrollo de la Inteligencia Artificial impregna de manera creciente numerosas parcelas dela vida humana. Al igual que nos fascina descubrir todo lo que puede hacer ChatGPT, también hay una creciente preocupación sobre los nuevos daños que la IA puede causar. Un peligro que surge en nuestro mundo online son las aplicaciones y bots de “desnudificación”. Estas aplicaciones, sustentadas por la IA, son de fácil acceso, al alcance tanto de menores como de adultos.
La sociedad cambia a un ritmo vertiginoso, en especial gracias al avance tan acelerado de la tecnología, y nos presenta nuevos retos en la sociedad en la que crecen nuestros menores. Retos que debemos descubrir y analizar para saber cómo hacerles frente. El uso de deepfakes es uno de ellos, y quizá de los más preocupantes. Por este motivo, en nuestra web hemos desarrollado esta página específica, que se irá ampliando y mejorando en el futuro.
Imágenes falsas, consecuencias reales
El acceso de las aplicaciones, su uso, y la distribución de las imágenes es un proceso tan sencillo, tan accesible, que cualquier adolescente puede hacerse con él. Solo en Estados Unidos, en el último año, se han investigado un mínimo de 30 incidentes de menores que emplearon estas aplicaciones de desnudificación.
La creación de una imagen pornográfica falsa en cuestión de segundos es tan sencilla como el uso de cualquier otra aplicación o sitio web. Las imágenes de víctimas, que muchas veces se consiguen de perfiles normales en redes sociales, son subidas a una de las muchas aplicaciones de nudificación existentes, las cuales se encargan del resto del proceso. El deepfake resultante se descarga en la aplicación, listo para distribuir. Es así como acaban en chats de grupo, mensajes de texto, y todo tipo de redes sociales.
A pesar de tratarse de imágenes falsas, sus consecuencias son reales y pueden ser demoledoras. Ya hay numerosos casos de adolescentes que descubren que falsificaciones suyas se difunden por su instituto. Un ejemplo es el caso de Francesca, una niña de 14 años, en Estados Unidos. Tras ser llamada a la oficina del director para ser informada de la circulación de imágenes suyas falsificadas, Francesca asegura que las niñas que fueron víctimas de esta difusión, pagaron un precio mucho mayor que aquellos que crearon las imágenes.
Las víctimas de los deepfakes ven cómo su reputación es dañada en cada área. Al ser una difusión tan incontrolable, estas víctimas (mujeres en su mayoría) relatan niveles significativos de incertidumbre y ansiedad, al no poder asegurar quién va a visualizar esa imagen. Es el sentimiento de cosificación y pérdida de control el que fomenta que las víctimas sufran tanta ansiedad, e incluso depresión o ideas suicidas.
Algunos recursos para prevenir
Desgraciadamente, al tratarse de un fenómeno relativamente reciente en la sociedad, las leyes que podrían protegernos de este tipo de delitos van muy atrasadas. A esto se le suma el desconocimiento general de familias y colegios sobre cómo actuar en casos similares. Sin embargo, eso no significa que no haya recursos a nuestro alcance en los cuales apoyarnos.
Si conoces a alguien víctima de una aplicación de desnudificación, lo primero que debes hacer es brindar apoyo a la persona, favoreciendo un acompañamiento a lo largo del proceso. Preguntarles por lo que sienten siempre es una buena estrategia.
El siguiente paso es ponerse en contacto con las autoridades locales y con el centro educativo en caso de tratarse de un menor. Sin embargo, debido a la dificultad de rastrear las imágenes una vez han sido difundidas, hay muchos casos en los que las autoridades se han visto limitadas en su campo de actuación.
En España, por ejemplo, se puede denunciar a través del 092, teléfono del Grupo de delitos telemáticos de la Guardia Civil, o por medio de la AEPD, que dispone de un Canal prioritario para solicitar la retirada del material. En este caso, solo puede solicitarlo la persona afectada y deberá presentarse, entre otras cosas, una copia de la pantalla donde se puede apreciar el servicio. En menos de 24 horas, se intentará evitar que se siga difundiendo esa información.
También existen otros importantes recursos en inglés como Take it Down (https://takeitdown.ncmec.org/es), un servicio proporcionado por el National Center for Missing & Exploited Children (NCMEC). Se trata de un programa dedicado a eliminar imágenes de desnudos de menores en Internet. O bien advertir sobre el caso en CyberTipline (https://report.cybertip.org/es), un lugar donde informar sobre la explotación sexual infantil. A pesar de tratarse de programas estadounidenses, ambos recogen denuncias de forma internacional.
¿Cómo hablar y educar a mis hijos sobre esta cuestión?
La mejor educación es aquella que se basa en una conversación abierta, que recoja las posibles inquietudes. Por ello, puede ayudar mucho fomentar momentos en los que este tipo de conversaciones se puedan dar, especialmente en torno a los temas de la seguridad en Internet. Aunque parezca que no hay mucho que hacer en casos de deepfakes, donde la víctima poco tiene que ver con el origen del delito, puede ayudar que se sienta segura para relatarlo en caso de que le ocurra a ella o a alguien conocido, o bien reciban una imagen de este tipo.
Una conversación abierta puede comenzar preguntando sobre qué saben los hijos acerca de la IA y cómo creen que debe usarse de forma responsable. Empezar con preguntas sencillas permite medir el nivel de comprensión en estos temas y educar poco a poco sobre los riesgos que se pueden presentar.
En un mundo donde la inteligencia artificial y los deepfakes están redefiniendo lo que percibimos como real, es esencial educar nuestra mirada en torno a la sexualidad. Los avances tecnológicos han facilitado la creación de contenidos hiperrealistas que pueden distorsionar la percepción de lo que es auténtico, llevando a una visión sesgada y, en muchos casos, dañina de la sexualidad. La educación en este sentido debe ir más allá de la prevención de desinformación, e incluir la sensibilización sobre el consentimiento, la dignidad humana y la ética digital.
Al desarrollar una mirada crítica, no solo entendemos los riesgos de estos avances, sino que también aprendemos a respetar y proteger la integridad de las personas, especialmente en un entorno digital donde las fronteras de la privacidad y el respeto se vuelven cada vez más difusas.
Referencias:
Web Dale Una Vuelta. https://www.daleunavuelta.org/ia-y-pornografia/
https://www.bark.us/blog/nudify-ai-apps/
https://www.cursosintegralis.org/el-fenomeno-del-p-n-fake
Caso de Francesca: https://www.cbsnews.com/news/ai-nudify-impacts-law-change-fight-60-minutes/
Recurso Take it Down https://takeitdown.ncmec.org/es
Recurso CyberTipline https://report.cybertip.org/es
Casos adicionales: https://www.lanacion.com.ar/autos/desnudadas-con-ia-el-abuso-al-que-le-temen-las-adolescentes-y-nadie-sabe-como-sancionar-nid27112024/#/