Investigan en España fotos de adolescentes desnudas hechas con inteligencia artificial

Esta ilustración muestra iconos de la aplicación de IA (Inteligencia Artificial) de Google, BardAI (o ChatBot) (C-L), la aplicación de OpenAI ChatGPT (C-R) y otras aplicaciones de IA en la pantalla de un teléfono inteligente en Oslo, el 12 de julio de 2023. (Foto de OLIVIER MORIN /AFP)

Once muchachas adolescentes denunciaron en España la circulación de fotos suyas desnudas elaboradas con una aplicación de inteligencia artificial, un caso que ha desatado un acalorado debate en el país.

«Tenemos ahora declaraciones de víctimas» menores de edad en la localidad de Almendralejo (Extremadura, sudoeste), explicó a AFP un portavoz de la policía.

Los presuntos autores de estas imágenes, que en algunos casos fueron identificados, «han manipulado fotos de niñas, menores de edad», superponiendo sus caras a cuerpos desnudos «de otras personas», añadió.

Según otra fuente policial, las imágenes falsas se generaron utilizando una aplicación de inteligencia artificial (IA) capaz de producir fotomontajes de gran realismo.

La investigación se abrió por un presunto delito de invasión de la intimidada. La fiscalía indicó a AFP que también podría considerar el delito de pornografía infantil, dada la edad de las víctimas.

Según los medios de comunicación españoles, una veintena de niñas podrían haber sido víctimas de estas fotos manipuladas.

Miriam Al Adib, madre de una de las chicas, denunció en Instagram esta «barbaridad».

«Cuando llegué a casa, una de mis hijas, con un asco tremendo, me ha dicho: ‘mira que han hecho’ (…) Han cogido una foto suya y la han puesto como si estuviera desnuda», explicó.

Al Adib contó que la policía le avisó de que las fotos pueden haber acabado en sitios pornográficos.

Otra madre declaró a la televisión pública TVE que intentaron chantajear a su hija reclamándole dinero para no difundir las imágenes.

La inteligencia artificial está provocando una creciente preocupación en todo el mundo por sus posibles usos malintencionados, como en el caso de los «deepfakes» pornográficos.

Según un estudio de 2019 de la empresa holandesa de inteligencia artificial Sensity, el 96% de los vídeos falsos online son pornografía no consentida y en la mayoría de ellos aparecen mujeres.

tpe/mg/sr/al/mb

© Agencia France-Presse