Presenta:

Cómo actuar ante la difusión de imágenes de menores desnudos generadas por IA

La difusión de imágenes íntimas, incluso falsas creadas con IA, afecta a menores. Qué hacer, cómo denunciar y qué herramienta permite frenar su circulación.

Ante la viralización de fotos íntimas de menores, reales o generadas con IA, existen herramientas para actuar sin exponer el material. Guía práctica.

Ante la viralización de fotos íntimas de menores, reales o generadas con IA, existen herramientas para actuar sin exponer el material. Guía práctica.

Archivo MDZ

La circulación de imágenes íntimas de menores, incluso cuando son falsas y creadas con inteligencia artificial, dejó de ser un escenario hipotético para convertirse en una preocupación concreta. La facilidad con la que hoy se pueden generar fotos o videos manipulados expone a chicos y adolescentes a situaciones de daño real.

Aunque no exista una imagen original, el impacto emocional, social y psicológico puede ser igual o incluso más grave. La vergüenza, el hostigamiento y la exposición pública no distinguen si el contenido es verdadero o generado artificialmente.

Frente a este escenario, especialistas y organismos educativos insisten en la necesidad de actuar rápido y no minimizar el hecho. La reacción inicial puede marcar la diferencia entre un contenido que se viraliza y otro que logra frenarse a tiempo.

Cómo actuar ante la difusión

El primer paso es evitar compartir o reenviar el material, incluso con la intención de denunciarlo. Cada nueva circulación amplía el daño y dificulta su eliminación. También es importante guardar evidencia sin difundirla.

La DGE, a través de sus canales oficiales anunció que una herramienta concreta para estos casos es el sistema Take It Down, impulsado por el National Center for Missing and Exploited Children. Permite generar una huella digital de la imagen para que plataformas como redes sociales puedan detectarla y bloquear su difusión.

El proceso se realiza desde la web oficial, donde se puede abrir un caso sin necesidad de subir la imagen a internet. El sistema trabaja con una codificación que protege la privacidad y evita que el contenido quede expuesto.

Los pasos para iniciar el proceso:

Desnudos con Inteligencia artificial DGE (6)
Aunque sea falsa, una imagen íntima de un menor puede causar daño real. Qué hacer para eliminarla y evitar que siga circulando.

Aunque sea falsa, una imagen íntima de un menor puede causar daño real. Qué hacer para eliminarla y evitar que siga circulando.

  • Descargar en el dispositivo la imagen o el video que se quiere reportar. Ese archivo no se comparte públicamente, sino que se usa solo para generar la huella digital.
  • Luego se debe ingresar al sitio de Take It Down y abrir un caso. Allí se carga el archivo y el sistema crea un identificador único que será distribuido entre plataformas como Instagram, Facebook o TikTok.
  • A partir de esa huella, las empresas pueden detectar coincidencias y bloquear la circulación del contenido. En algunos casos, también se puede avanzar en su eliminación y recibir información sobre el resultado del proceso.

Acompañamiento y contención

Desnudos con Inteligencia artificial DGE (1)

Además de la herramienta técnica, la DGE remarcó que es fundamental que el menor no atraviese la situación en soledad. La escuela, la familia y los espacios institucionales cumplen un rol central para contener y orientar.

También se recomienda recurrir a canales oficiales y organismos especializados en ciberdelitos o protección de derechos de niños y adolescentes. No se trata solo de eliminar una imagen, sino de abordar una situación de vulnerabilidad.

El crecimiento de la inteligencia artificial plantea nuevos desafíos, pero también obliga a generar respuestas más rápidas y accesibles. Informarse, actuar y acompañar sigue siendo la forma más efectiva de enfrentar este tipo de violencia digital.