Infancia
Unicef alerta del auge de 'deepfakes' sexuales con menores y pide medidas urgentes frente al abuso generado por IA
El texto se ha copiado correctamente en el portapapeles
Unicef manifestó este miércoles su creciente preocupación por el rápido aumento del volumen de imágenes sexualizadas y 'deepfakes' generadas por inteligencia artificial que están circulando por internet, incluidos casos en los que se han manipulado y sexualizado fotografías de niños y niñas, y reclamó medidas inmediatas para frenar esta amenaza.
Desde la organización señalaron que estos 'deepfakes' —imágenes, vídeos o audios generados o manipulados con inteligencia artificial para que parezcan reales— se utilizan cada vez más “para producir contenidos sexualizados en los que aparecen niños y niñas, incluso mediante la ‘nudificación’, que consiste en utilizar herramientas de inteligencia artificial para quitar o alterar la ropa de las fotos y crear imágenes falsas de desnudos o sexualizadas”.
“Nuevas pruebas confirman la magnitud de esta amenaza en rápido crecimiento: en un estudio realizado en 11 países por Unicef, Ecpat e Interpol, al menos 1,2 millones de niños y niñas revelaron que sus imágenes habían sido manipuladas para crear deepfakes sexualmente explícitos en el último año. En algunos países, esto representa 1 de cada 25 niños, lo que equivale a uno de cada aula escolar estándar”.
“Los propios niños y niñas son muy conscientes de este riesgo”, continuaron. En algunos de los países del estudio, hasta dos tercios afirmaron que les preocupa que la inteligencia artificial pueda utilizarse para crear imágenes o vídeos sexuales falsos. Los niveles de preocupación varían mucho entre los distintos países, lo que subraya la urgente necesidad de reforzar las medidas de sensibilización, prevención y protección.
“Debemos ser claros: las imágenes sexualizadas de personas menores de edad creadas o manipuladas por herramientas de inteligencia artificial constituyen imágenes de abusos sexuales de niños y niñas. Los abusos cometidos mediante 'deepfake' siguen siendo abusos y, aunque las imágenes sean falsas, el daño que causan es absolutamente real”, alertaron desde Unicef.
“Utilizar la imagen o la identidad de un niño o una niña lo convierte directamente en víctima. Pero incluso si no existe una víctima identificable, un material generado por IA que muestre abusos sexuales de niños y niñas normaliza la explotación sexual infantil, impulsa la demanda de contenidos abusivos y plantea importantes obstáculos a las fuerzas del orden a la hora de identificar y proteger a los niños y niñas que necesitan ayuda”.
Unicef valoró “positivamente” los esfuerzos de los desarrolladores de inteligencia artificial que están aplicando enfoques de seguridad desde el diseño y sólidas medidas de protección para evitar el uso indebido de sus sistemas. “Sin embargo, el panorama sigue siendo desigual y son demasiados los modelos de inteligencia artificial que no se desarrollan con las salvaguardias adecuadas. Los riesgos pueden agravarse cuando las herramientas de inteligencia artificial generativa se integran directamente en las plataformas de redes sociales, donde las imágenes manipuladas se difunden rápidamente”.
Por ello, Unicef instó “urgentemente” a que se adopten las siguientes medidas para hacer frente a la creciente amenaza que supone el material de abuso sexual infantil generado por la IA: que todos los gobiernos amplíen las definiciones de material de abuso sexual infantil para incluir el contenido generado por inteligencia artificial y penalicen su creación, adquisición, posesión y distribución; que los desarrolladores de IA implementen enfoques de seguridad desde el diseño y medidas de protección sólidas para evitar el uso indebido de los modelos; y que las empresas digitales eviten la circulación de este material en lugar de limitarse a eliminarlo después, además de reforzar la moderación de contenidos invirtiendo en tecnologías de detección para que pueda retirarse de inmediato.
“El daño causado por el abuso de los 'deepfakes' es real y urgente. Los niños y niñas no pueden esperar a que la legislación se actualice”, concluyeron.
(SERVIMEDIA)
04 Feb 2026
JNV/clc


