Andalucía

Las niñas, víctimas de la inteligencia artificial

  • El Consejo Audiovisual de Andalucía alerta de la proliferación de aplicaciones de fácil acceso que impostan la desnudez de las jóvenes

  • Los adolescentes pueden acceder a páginas declarando que son mayores de edad

Recreación de un delincuente de Internet.

Recreación de un delincuente de Internet. / M. G.

Ocurrió aquí al lado, aquí mismo. Fue en Almendralejo, en Badajoz, el pasado mes de septiembre. Más de veinte niñas de entre 11 y 17 años denunciaron que sus cuerpos habían aparecido desnudos de un día para otro en los teléfonos móviles de sus compañeros de clase. El medio fue el mensaje. Una aplicación que usaba la inteligencia artificial creó cuerpos desnudos a partir de las fotos de las niñas vestidas bajo la orden de unos chavales que jugaban con las imágenes, que jugueteaban con las armas que les da la modernidad. Las redes sociales fueron el destinatario final antes del resto de la humanidad. Las imágenes se propagaron hasta el infinito por WhatsApp y Telegram. La alarma social también se propagó de un día para otro. Y seguirá propagándose.

El Consejo Audiovisual de Andalucía (CAA) ha publicado un informe que estudia las consecuencias de las aplicaciones digitales que emplean la inteligencia artificial para crear imágenes desnudas de personas vestidas, vulnerando los derechos de los menores en este caso y que justifican, considera la CAA, la actuación de los poderes públicos para bloquear el acceso a estas páginas y para exigir responsabilidades a los usuarios y a las empresas que lo difunden. Estas aplicaciones, como es sabido, posibilitan que las fotos de las personas comunes, principalmente las de mujeres, se conviertan en modelos eróticos o pornográficos de incierta difusión en el espacio y el tiempo, disponibles para todo el planeta y, si se da el caso, para las próximas generaciones.

Objetivo, los menores  

El CAA ha analizado los riesgos del uso de la inteligencia artificial, teniendo en cuenta los datos sobre el incremento del consumo de contenido sexual por parte de los menores y la existencia de las aplicaciones que crean material pornográfico falso e hiperrealista que circula por las redes y a los que los menores de edad tienen acceso de un modo fácil.El estudio del CAA concluye que ninguna de las páginas analizadas dispone de un sistema fiable que verifique la mayoría de edad de los usuarios. Más concretamente, 13 de las 18 páginas de Internet analizadas no tenía ni siquiera una advertencia sobre la edad de los usuarios. Las cinco restantes muestran una advertencia y el usuario, mediante una sencilla pulsación del ratón, puede declarar que es mayor de edad.

Ninguna de las webs analizadas en el estudio está alojada o registrada en España. Toronto y Reikiavik son las ciudades que más se repiten pero también hay otras como Kuala Lumpur, Nassau, Arizona o Walnut. Un dato a tener en cuenta, explica el CAA, es que todas las aplicaciones están escritas en inglés, aunque la mitad de ellas, al detectar la localización del usuario, son traducidas al español.El presidente de la CAA, Domi del Postigo, llama la atención sobre las consecuencias. En primer lugar están los menores. “El Código Penal ya lo tipifica. A veces nace de un juego entre los chavales que desconocen que sus actos puede ser un delito. Es un delito que no conocen los padres, que son responsables si los infractores son menores de 14 años. Para los mayores de 14 años, la responsabilidad es del infractor, que puede acabar en un centro de menores”. La solución que propone el CAA es “seguir presionando para que la legislación no se quede atrás en comparación a la velocidad a la que van estas aplicaciones”.

Objetivo, las mujeres 

No es una tontería. Hay aplicaciones que pueden ser utilizadas gratuitamente. Otras veces, explica el CAA, es necesario inscribirse o darse de alta ofreciendo la dirección de un correo electrónico. En ambos casos, el número de imágenes que pueden generarse está limitado e incluso no genera desnudos gratuitos a veces sino que genera imágenes con lencería o bikini o con cuerpos desenfocados. En algún caso se crean imágenes pornográficas desde cero. Principalmente son cuerpos de mujeres.

“Es un asunto de género. La práctica mayoría de las aplicaciones sirven para desnudar a mujeres, convirtiéndose en una herramienta más para cosificar el cuerpo femenino”, explica Del Postigo. “Y todo esto sucede en una sociedad que tiene entre sus prioridades las políticas de igualdad. Las administraciones que tienen competencia en la materia deberían legislar y observar sobre la cuestión”.

El presidente de la institución audiovisual andaluza cree necesario que “las administraciones concernidas deberían tener más rapidez en concretar lo que están calificando estos delitos, que ya incluye el Código Penal. Antes, este tipo de delitos se cometían de un modo más rudimentario pero ahora se hace mediante herramientas de Inteligencia Artificial, que son mayormente gratis y que contienen un realismo que no había. Hay una novedad en el delito y debería haber novedades en la concreción de la tipificación de estos delitos”.

La responsabilidad de las empresas creadoras

El estudio del Consejo Audiovisual de Andalucía ha llevado a cabo el estudio entre el 12 y el 26 de febrero de 2024, en el que se ha realizado una búsqueda activa, mediante el motor de Google, de aplicaciones web, específicamente de las que crean imágenes virtuales de cuerpos desnudos a partir de una imagen de una persona vestida –en esta investigación siempre figuran mujeres–, conservándose el rostro que aparece en la foto aportada por el usuario. Algunas de estas aplicaciones también permiten la realización de la mezcla virtual de dos imágenes aportadas con el usuario, normalmente un rostro y un cuerpo distinto al que se quiere añadir el rostro.

El presidente del CAA, Domi del Postigo, considera que es “un problema grave” y no sólo de los usuarios sino de las empresas que lo difunden. Hay familias que han llevado al Congreso a empresas como Meta o Tik Tok. “Eso no ocurre porque sí”, destaca Del Postigo. “Pone en evidencia que las empresas no están haciendo nada para hacer efectiva la verificación de los datos. ¿Cómo es posible? Es una prueba de que la industria no está dedicando el esfuerzo para evitar o limitar este tipo de prácticas pese a la capacidad que tienen para hacerlo, siendo como son empresas punteras en innovación y en otros muchos aspectos”, explica Del Postigo.

Comentar

0 Comentarios

    Más comentarios