
El uso de inteligencia artificial generativa para crear imágenes sexualizadas se ha convertido en una práctica común entre los adolescentes de Estados Unidos. Esto es lo que señala investigación publicada este miércoles en la revista MÁS uno. El estudio, basado en una encuesta nacional anónima entre jóvenes de 13 a 17 años, muestra que más de la mitad de los participantes han utilizado una herramienta o un sitio web para retocar una foto de una persona real al menos una vez. Este proceso se llama profundo. Mientras tanto, una de cada dos personas afirmó haber recibido algo.
Los resultados muestran que el 55,3% de los participantes dijo haber creado este contenido, y otro 54,4% recibió al menos un contenido de una muestra de 557 personas.
La investigación, dirigida por Chad Steele, experto en comportamiento digital de la Universidad George Mason en EE.UU., también se centró en las víctimas. El 36,3% de los participantes afirmó que su imagen fue creada sin consentimiento. Otro 33,2% indicó que al menos una de estas imágenes fue compartida por otras personas. Aunque este fenómeno afecta a todos los grupos demográficos, los resultados muestran que los hombres jóvenes participan más activamente en la creación y el intercambio de este tipo de contenidos que sus pares.
El estudio advierte que estas cifras pueden ser sólo una estimación mínima y que muchos adolescentes no se dan cuenta del verdadero alcance de estas imágenes. Para Steel, se trata de un fenómeno global y difícil de combatir. «Los adolescentes son más propensos a adoptar una variedad de comportamientos problemáticos y, aunque hay señales, no sabemos con seguridad cuántos de ellos pueden estar incurriendo en ellos», advierte.
Tecnología que aprende de una sociedad desigual
Lledo Muceros, experto en el estudio del sesgo de género en los métodos de inteligencia artificial, recuerda que ya hay evidencia de que estos sistemas tienden a presentar a las mujeres de una forma más sexualizada. “El cuerpo femenino se presenta como un objeto visual y se prioriza para el atractivo masculino”, explica. Un fenómeno que responde a lo que se conoce como mirada masculina o la mirada masculina. «La IA genera mejor cuerpos estereotipados desnudos, como mujeres blancas con cuerpos hermosos. Sólo reproduce la lógica cultural dominante», señala.
Los sistemas de inteligencia artificial Requieren enormes cantidades de información para funcionar, y el ingeniero sostiene que esa enorme cantidad de información no es inmune a los sesgos que existen en nuestra sociedad. Y esta sociedad, advierte, está “sesgada por la naturaleza”. “Si quieres a alguien que sea ingeniero profesional, probablemente predecirá que es hombre”, explica Museros. «No es que la IA sea desigual o mala, sino que refuerza nuestra desigualdad», afirma.
El impacto sobre las víctimas es profundo
El estudio muestra que, al igual que ocurrió con sextear Durante la última década, la creación y el intercambio de imágenes sexualizadas generadas por IA se han integrado en los estudios sociales y sexuales de adolescentes. La psicóloga Natalia Bueso-Izquierdo apunta a factores culturales: las redes sociales ya no son sólo un canal de comunicación. «Es un espacio de identidad y confirmación», dice.
Señala que el impacto emocional en las víctimas es comparable al de otras formas de violencia de género. “Aunque las imágenes sean falsas o manipuladas, el impacto en la víctima es real y profundo”, subraya. Según este experto, ser víctima puede provocar una reacción en cadena: evitación de las redes sociales, aislamiento e incluso alejamiento de los contactos sociales. Aparte de ansiedad, estrés o sentimientos de vergüenza y culpa. Todo esto se debe tanto al miedo a la difusión de información como a la posible condena pública.
En los últimos años, ha proliferado en línea una proliferación de sitios y aplicaciones que permiten a las personas crear imágenes ofensivas de mujeres y niñas sin consentimiento, incluido material de abuso sexual infantil. Se crearon tres millones de imágenes sexualmente explícitas. solo para grokinteligencia artificial generativa propiedad de Elon Musk, del 29 de diciembre al 8 de enero. Investigación del Centro para Contrarrestar el Odio Digital (CCCDH, su sigla en inglés) indica que al menos 23.000 personas eran menores de edad.
El uso se populariza, la violencia se normaliza y sus creadores obtienen millones de dólares en ganancias. Análisis de 85 sitios sobre nudismo de IndicadorLa publicación, que investiga el engaño digital, encontró que la mayoría de estas plataformas dependen de grandes potencias tecnológicas para permanecer en línea, como Google, Amazon y Cloudflare. Los investigadores estiman que estos sitios generarían colectivamente hasta 36 millones de dólares con 18,5 millones de visitantes en cada uno de los primeros seis meses de 2025.
Gobiernos de la Unión Europea Acordaron la semana pasada Exigir la prohibición de los sistemas de inteligencia artificial capaces de producir pornografía. La iniciativa, impulsada por España, se integra en el proceso de revisión regulatoria encaminado a fortalecer el marco regulatorio europeo. La aprobación ahora estará sujeta a negociaciones con el Parlamento y se producirá como parte de la reforma de la Ley de Inteligencia Artificial, cuyas discusiones comenzarán a principios de abril.
Para Lledo Muceros la respuesta también está en la educación. “Tiene que ser un tema”, advierte. Propone actuar en dos frentes. Por un lado, enseñar el uso ético de la tecnología. Por otro lado, más educación sexual. “Niños de ocho o nueve años ya reciben mensajes sexuales violentos”, advierte.
Solucionar el problema no es fácil. Pese a ello, advierte de las consecuencias de la inacción: “Si no las solucionamos, la IA no sólo reflejará la violencia y la desigualdad, sino que hará que la lucha contra ellas sea más rápida, más fácil y más difícil”.
0 Comments