La Inteligencia Artificial (IA) ha abierto un amplio abanico de nuevas oportunidades, dando un paso más en la modernización de la sociedad. Como todo, la IA tiene su lado bueno -como su incorporación en el sistema de electrodomésticos y coches, ayudando en las labores diarias- y su lado malo -como el deep fake-.
Alterar imágenes y sonidos, creando una ilusión irreal, es una de las herramientas disponibles gracias a la IA y que, en muchas situaciones, suele resultar en un mal uso. Más de un famoso ha sido víctima de este tipo de estafas, en donde se realizan imágenes y vídeos hiperrealistas, sin ser realmente ellos, llegando incluso a imitar su voz. Esto es lo que se conoce como el deep fake.
En España están teniendo lugar varias ciberestafas en las que un personaje célebre de la cultura española patrocina o promociona un producto, pero esta persona nunca ha grabado ningún anuncio. El programa de Antena 3, 'El Hormiguero', ha sido víctima en más de una ocasión. Una falsa entrevista al cirujano Pedro Cavadas estuvo circulando por internet promocionando un producto milagroso para dolores de espalda y articulaciones, el cual ha ido cambiando de nombre. Además, por Facebook estuvo moviéndose un vídeo del cirujano y Mónica Carrillo haciendo promoción.
Muchos de estos ciberdelicuentes no simplemente recrean visualmente las páginas de los medios de comunicación o empresas, además suelen utilizar dominios parecidos. Siguiendo este estilo, en una ciberestafa imitan la página de El País y atribuían al actor Jaime Lorente una promoción de la supuesta plataforma de inversión 'Repsol G&O'. La familia real y el expresidente de la RFEF, Luis Rubiales, también han sido víctimas de estos ciberataques protagonizando inversiones a petróleo.
Actores españoles como Martiño Rivas, Antonio Resines o Belén Rueda han sido protagonistas de falsas promociones de inversión en criptomonedas. Además de estos actores, la imagen del presentador Pablo Motos también ha sido utilizada para promocionar las criptomonedas, al igual que Susana Griso y Chicote con la falsa inversión en bitcoin.
Una de las últimas identidades suplantadas en el panorama español ha sido la periodista Sandra Golpe. En este ciberataque recreaban el plató de 'Antena 3 Noticias' y simulaban la promoción de cremas milagrosas. El canal ha aclarecido en un artículo publicado en su portal que "ese vídeo jamás se ha producido en el plató de Antena 3 Noticias, ni ella ni todos los médicos que a continuación recomiendan la crema han dicho esas palabras".
Las ciberestafas a famosos no son solo en un sentido publicitario, también íntimo. Este tipo de engaños ha vuelto a ser noticia recientemente debido a la publicación de fotos pornográficas de la cantante estadounidense Taylor Swift en la red social X. La artista norteamericana no ha sido la primera víctima de este tipo de estafas: Rosalía, Ana de Armas, Scarlett Johansson o la 'influencer' Laura Escanes también han visto imágenes de desnudos creados a través de IA con su cara.
Además, muchas de estas fotografías falsas son utilizadas para promocionar sitios de pornografía en redes sociales. Y no es una práctica que sufran exclusivamente celebridades. En colegios y distintas empresas más de una persona, mayormente mujeres, han sido víctimas del deep fake.
Por primera vez, esta plataforma ha actuado ante este tipo de acciones y ha borrado las imágenes, además de bloquear las búsquedas con el nombre de la cantante. A través del perfil de @Safety han mostrado su rechazo ante la situación. "La publicación de imágenes de desnudos no consensuales (NCN) está estrictamente prohibida en X y tenemos una política de tolerancia cero", ha manifestado la plataforma. Han asegurado que sus equipos "están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas".
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
La Ley de Inteligencia Artificial de la UE y las penalizaciones por el deep fake
La IA en España está regulada por la Ley de Inteligencia Artificial de la Unión Europea (UE), la primera ley en esta materia en el mundo. Entra dentro de la estrategia digital de la UE y busca "garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora", afirman desde el Parlamento Europeo. La propuesta pide que los sistemas de IA que puedan ser utilizados en distintas aplicaciones sean analizados y clasificados según el nivel riesgo que supongan para los usuarios. Dependiendo del nivel, la regulación será mayor o menor.
Esta Ley aún se está desarrollando y terminando de definirse. En cuanto al problema con el deep fake, España ha querido dar un pasito más y el 13 de octubre de 2023 Sumar presentaba en el Congreso la Proposición de Ley Orgánica para regular las simulaciones de imágenes y voces generadas por Inteligencia Artificial. Esta propuesta busca modificar el Código Penal y que sea juzgada de injuria la distribución de contenidos deep fake sin autorización generados con IA.
Si la iniciativa de Sumar consigue la luz verde supondría una infracción grave para aquellos medios de comunicación que difundan imágenes, vídeos o audios generados con inteligencia artificial sin consentimiento previo de la persona afectada. En el caso de compartirlo debe especificarse que se trata de un contenido hiperreal alterado con Inteligencia Artificial.
Según indica la Ley General de Comunicación Audiovisual, estas infracciones son sancionadas con multas de entre los 60.000 y los 600.000 euros y prescriben a los tres años. Además de la sanción económica, los medios de comunicación penalizados podrían ver revocada su licencia para prestar servicio, el cese de las emisiones o el precintado provisional de los equipos para realizar la emisión.
La propuesta también castiga el mal uso de la IA y la simulación de imágenes y voces de personas en la publicidad. Asimismo, también refiere a la penalización por alterar el contenido de un candidato electoral a través de la IA durante campaña.
En Estados Unidos ambos partidos se han unido para proponer una nueva legislación que termine con los deep fakes generados con IA. Esta iniciativa recogerá la definición legal de imagen y derechos de voz, así como la prohibición del uso de estos vídeos hiperrealistas en donde el protagonista no ha dado su consentimiento.
Apoya TU periodismo independiente y crítico
Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación