Inteligencia Artificial

Sexualización, humillación o descrédito, los riesgos de la generación de imágenes con IA

MADRID
SERVIMEDIA

La Agencia Española de Protección de Datos (AEPD) publicó este martes una nota informativa en la que analiza las implicaciones del uso de imágenes de terceros en sistemas de Inteligencia Artificial (IA) y alerta de los riesgos que esta práctica comporta, tales como la introducción de elementos de sexualización, humillación o descrédito.

Esta publicación de la AEPD llega pocos días después de que la red social X decidiera deshabilitar su herramienta de generación de imágenes con IA, Grok, tras las denuncias por la creación de material gráfico sexualizado de mujeres y niños.

El documento de la Agencia Española destaca que aunque "es cierto que muchas plataformas de IA generativa incorporan mecanismos técnicos para limitar la generación de contenidos claramente lesivos", estas medidas no hacen que "desaparezcan todos los riesgos". En particular, señala, "los problemas pueden surgir cuando el resultado parece real, cuando se comparte más allá del ámbito inicial o cuando se utiliza con un sentido distinto del previsto, situaciones en las que el impacto para la persona afectada puede seguir siendo significativo".

De este modo, la AEPD alerta sobre uno de los impactos visibles del uso de imágenes de terceros en sistemas de IA: la sexualización. "Se trata de una señal de riesgo muy alto: desnudez añadida, erotización, insinuación sexual o escenas íntimas generadas a partir de una imagen neutra. Aunque muchas plataformas limitan activamente este tipo de generación, estos riesgos pueden persistir en escenarios residuales o a través de usos indirectos, con una gravedad práctica elevada por el daño potencial y por la facilidad de chantaje, acoso o difusión no controlada", incide el organismo.

Además, en el apartado de riesgos menos visibles, aquellos que se producen por el mero hecho de subir una imagen o un vídeo a un sistema de IA, aunque el resultado no se publique, la Agencia destaca "la pérdida efectiva de control sobre la imagen al intervenir un tercero tecnológico, la retención y la existencia de copias no visibles, la intervención de múltiples actores, la generación de metadatos o el riesgo de identificación persistente en sistemas capaces de reutilizar rasgos de una persona en múltiples contenidos".

El documento de la AEPD también expone los supuestos en los que el uso de imágenes o vídeos de terceros mediante sistemas de inteligencia artificial incrementa de forma significativa los riesgos para la persona afectada. "Esto ocurre, en particular, cuando se produce una pérdida efectiva de control sobre la propia imagen, se generan contenidos verosímiles que pueden atribuir a la persona hechos o conductas que no han ocurrido, se ven implicados menores de edad o personas especialmente vulnerables, se introducen elementos de sexualización, humillación o descrédito, o se difunden los contenidos en entornos en los que el impacto personal, social o profesional puede ser especialmente intenso".

La Agencia también añade que pueden verse afectados otros derechos fundamentales, como el honor, la intimidad o la propia imagen. Ante estas situaciones, la AEPD recordó que más allá de las actuaciones de la propia Agencia, resultan aplicables otras normas del ordenamiento jurídico, incluido el Código Penal. En caso de indicios claros de delito, la actuación correspondería a las autoridades policiales, la Fiscalía y, en su caso, los órganos judiciales, que son los competentes para la investigación y persecución penal de estos hechos, explicaron.

(SERVIMEDIA)
13 Ene 2026
MAG/gja