La cantidad de archivos de pornografía creados por inteligencia artificial aumentó en un 464% entre 2022 y 2023. Una problemática que estuvo en la diana durante semanas por el caso de los menores de Almendralejo. Los expertos dudan de su encaje en el marco legal actual mientras alertan de las consecuencias que sufren las víctimas por una práctica que tarda en realizarse apenas media hora.
Estos datos se desprenden del informe State of deepfakes 2023 de Home Security Heroes. Los problemas que está generando la inteligencia artificial llegan a todos los confines del planeta. Unas imágenes que no son reales, pero que provocan un gran impacto en las víctimas y su entorno. Ni los famosos están a salvo de estas estafas.
Para hacer un vídeo porno deepfake de 60 segundos, hacen falta menos de 25 minutos y cuesta 0 euros si la web es gratuita. "La creación de imágenes sexuales creadas por inteligencia artificial, o deepfakes sexuales, no se contempla, aún, como un delito específico en el Código Penal. Ahora bien, atendiendo a la idea de la violencia de género como toda aquella violencia que en su extensión se ejerce contra las mujeres, la creación de este tipo de imágenes no deja de ser una herramienta y una forma de violencia más contra estas", explica Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la Universitat Oberta de Catalunya (UOC).
El uso de la inteligencia artificial
Las cifras de aumento de esta práctica han sido espectaculares. En 2022 había 3.725 vídeos falsos pornográficos, pero la cifra ha aumentado hasta los 21.019 en lo que llevamos de año. Según los expertos universitarios, este problema vulnera el derecho a la protección de los datos y a la intimidad, honor y la propia imagen.
"La vulneración de la normativa también se ocasiona en el momento de compartir o difundir estas creaciones con IA a terceras personas, y a veces incluso a través de redes sociales en abierto, sin el consentimiento del afectado. Por tanto, la norma obliga a recabar el permiso del interesado no sólo para la creación de estas imágenes, sino también para su posterior difusión a un alto número de personas o en redes sociales”, analiza Eduard Blasi, profesor experto en derecho a la privacidad.
Una vez que se comete el delito, la pregunta que ronda la cabeza de las víctimas es: ¿Cómo tengo que actuar? La forma más directa de denunciar la situación es la Agencia Española de Protección de Datos. Un organismo que puede 'parar de raíz' en 24 horas la difusión del contenido.
El caso de las menores de Almendralejo
En el caso de que se haya cometido un delito del Código Penal, lo más aconsejable es acudir a la Policía Nacional o la Guardia Civil para interponer una demanda. Los agentes de Ciberdelincuencia tienen abiertas varias investigaciones por estos casos.
Las Fuerzas y Cuerpos de Seguridad consideran que el caso de Almendralejo supuso un antes y un después en estos delitos. Una investigación en la que menores eran los presuntos agresores y también menores eran las víctimas de los actos. Prosiguen las diligencias en el marco del tema que está judicializado.
Lo que antes podría considerarse una 'broma de mal gusto' pasó a ser denunciado en muchos puntos de España. Fue un toque de atención justo en el inicio del curso escolar. Si algunos adolescentes tuvieron esta idea en su cabeza, la presión mediática terminó por completo con sus intenciones.
Las imágenes de desnudos realizados por inteligencia artificial estuvieron en el foco de durante varias semanas. El tema quedó aletargado, pero el mensaje fue claro: no se pueden permitir estas actitudes ni dentro ni fuera de las aulas.
Sin_Perdon
Una pregunta. Si los videos son falsos, y por tanto no hay protagonistas reales ¿Puede alguien denunciar por algo en lo que verdaderamente no aparece?. Dicho de otro modo, ¿Acaso se puede denunciar por una foto "retocada" mucho menos por un video inventado donde en realidad no aparece?.