Las denuncias por el uso indebido de estas tecnologías han aumentado en el país norteamericano y, según un estudio, al menos un 55,3 % de los adolescentes menores de 17 años generaron desnudos fotográficos con ellas. Los expertos advierten que las víctimas de estos fenómenos suelen sufrir consecuencias similares a otras formas de explotación sexual infantil, como una sensación de deshumanización.
La mitad de los jóvenes de Estados Unidos afirma haber empleado la IA generativa (GenAI) para desnudar artificialmente la imagen de una persona, según un estudio publicado hoy en PLOS One.
Investigaciones previas sugirieron que la creación y distribución de estas fotografías –con o sin el uso de GenAI– se había normalizado entre los adolescentes de este país. Ahora, este trabajo demuestra que la IA se emplea con fines de explotación sexual entre los jóvenes y que se generan imágenes modificadas sin consentimiento.
Según cuenta a SINC el primer autor e investigador de la Universidad de George Maison (EE UU), Chad Steel, las víctimas de este intercambio de imágenes entran en un estado de hipervigilancia y pueden sufrir síntomas de la ansiedad o depresión.

Este tipo de contenido es permanente una vez que se han difundido y puede producir una revictimización cuando los agresores modifican esas imágenes

“Este tipo de contenido es permanente una vez que se han difundido y puede producir una revictimización cuando los agresores modifican esas imágenes”, argumenta el experto.
El trabajo expone que han aumentado las denuncias por el uso indebido de la GenAI en Estados Unidos y añade que las víctimas suelen sufrir consecuencias similares a otras formas de explotación sexual infantil, como una sensación de deshumanización y trastornos de carácter permanente.
El equipo investigador analizó los resultados de una encuesta realizada a 557 residentes de habla inglesa en EE UU de entre 13 y 17 años. El estudio fue anónimo y se realizó con el previo consentimiento de los padres.
Los investigadores preguntaron a los participantes sobre su experiencia en la creación e intercambio de imágenes sexualizadas gracias a la IA: un 55,3 % afirmó haber utilizado esta herramienta para desnudar al menos una imagen de sí mismo o de otras personas, y un 54,4 % señaló que recibió alguna fotografía de este tipo.
Además, un 36,3 % declaró que al menos una fotografía de sí mismo había sido generada por otra persona sin su consentimiento, y un 33,2 % dijo que al menos otra había sido distribuida sin su beneplácito.
Tal y como señala Steel, los jóvenes han crecido con la IA, por lo que la tienen en sus móviles y la usan para muchas de sus tareas. “Tenemos que empezar a hablar con ellos antes de los 13 años y educar sobre los riesgos de este comportamiento en línea de una forma adecuada a su edad”.
En su opinión, parte de este tipo de acciones forma parte de la exploración sexual de los jóvenes, pero las actividades no consentidas son un fenómeno muy preocupante. “Enseñarlos a compartir los problemas con sus compañeros –el efecto espectador– podría ayudarles a largo plazo”, destaca.
Los resultados revelaron similitudes en todos los grupos demográficos, aunque los participantes masculinos obtuvieron tasas ligeramente más altas de creación y distribución de imágenes sexualizadas.
“Lo más sorprendente fue que las estadísticas en varones no fueran aún más altas”, asume Steel. “En la mayoría de los estudios sobre comportamiento sexual adolescente suelen presentar estadísticas más elevadas”, informa.
Estos hallazgos podrían servir de base para las políticas legales y las iniciativas educativas destinadas a promover el uso seguro de las herramientas de IA generativa. “Exigir responsabilidad civil a los proveedores y a las plataformas sería un buen comienzo”, concluye el experto.
Referencia:
Steel. C. Prevalence of generative artificial intelligence sexualized image usage by adolescents in the United States. Plos One. 2026.