Tecnología

Los riesgos de desarrollar una IA con contenido personal de los usuarios: "Es una vigilancia masiva"

La actualización de Meta, que se implementará el 26 de junio, podría violar las medidas del Reglamento General de Protección de Datos de la Unión Europea, así como las de la futura Ley de Inteligencia Artificial

inteligencia artificial
ep

El conglomerado Meta -Facebook, Instagram, Messenger y Whatsapp- anunció que a partir del 26 de junio de 2026 comenzaría a utilizar el contenido de sus usuarios para poder desarrollar su modelo de Inteligencia Artificial (IA). Una decisión que ha causado crispación entre los consumidores de sus aplicaciones y de la que se han enterado a través de publicaciones en las diversas redes sociales. No obstante, al menos en Europa, le han parado los pies.

La compañía de Mark Zuckerberg ha anunciado este viernes 14 de junio que la autoridad de protección de datos irlandesa (DPC) ha frenado sus planes a solo 12 días de comenzar. La insistencia de Irlanda, añadido a las múltiples denuncias de más de una decena de países de la Unión Europea, organizaciones y abogados de privacidad de todo el continente. Aunque la iniciativa, finalmente, no se vaya a llevar a cabo en Europa, en Estados Unidos sí sigue vigente que Meta desarrolle su IA con el contenido de sus usuarios.

Esta actualización ha creado controversia respecto a la privacidad y la protección de datos de los usuarios. Meta tenía que cumplir con el Reglamento General de Protección de Datos (RGPD) de la UE y, para ello, debía tener una base jurídica válida. En su caso, el grande tecnológico se justificó mediante "intereses legítimos"; pero, este no podía ser superior a los derechos y libertades fundamentales del interesado.

Debido a la legislación europea, "Meta, tanto en Facebook como en Instagram, se ha visto obligado a incluir un botón que para ser excluido de que mis datos sean utilizados para entrenar a la IA", comenta Francisco José García-Ull, experto en ciberseguridad y privacidad con quien ha hablado Vozpópuli. Pero, permitir que los usuarios puedan oponerse al tratamiento de su contenido, "para nada es suficiente", expresa. Y así ha quedado demostrado tras la insistencia de la DPC.

Para verificar que la empresa detrás de Facebook no intercediera en el derecho a la privacidad de sus usuarios con su "interés legítimo", debía pasar una evaluación de impacto relativa a la protección de datos (DPIA). Más allá de esta prueba, hay varios aspectos a tener en cuenta para que esta última actualización no violase los derechos y libertades de quienes usan las aplicaciones de Meta.

"Aquí se hace un consentimiento implícito, por lo que si tú no haces nada, tus datos van a ser utilizados para entrenar a la IA", explica García-Ull. "Se tiene que mejorar y se tiene que regular en aras de una mayor transparencia", defiende, "lo necesario es que tú leas muy bien para qué van a ser utilizados tus datos, o sea, te informes y una vez te informes des tu consentimiento o no".

Los perfiles de Instagram o Messenger deben ser notificados con total transparencia acerca de cómo van a ser utilizados sus datos, así como tener la posibilidad de oponerse a dicho tratamiento. Este consentimiento explícito podría haber ayudado a crear una base jurídica más sólida y respetuosa. "Meta tiene que ofrecer estos canales de información transparente sobre el fin para el que tus datos van a ser utilizados claramente", dice el experto, que también es profesor en la Universidad Europea.

Sin embargo, la implementación automática de esta actualización sin ese consentimiento explícito previo a los usuarios podría suponer una violación del principio de consentimiento informado. A esto se le suma una falta de transparencia en la comunicación de los cambios y el complejo proceso para oponerse al uso del contenido personal.

De hecho, según Francisco José García-Ull, al no informar de una manera "muy clara" que los datos de sus usuarios van a ser utilizados y preguntar por su conformidad explícita con esta acción, Meta "está incumpliendo con la normativa". Además, tampoco pasaría los parámetros que se recogen en la ley de Inteligencia Artificial de la UE, aunque como esta no entra en vigor hasta 2026, todavía no puede aplicarse.

La futura legislación europea sobre la IA rige la prohibición de esta tecnología en base a niveles de peligrosidad. García-Ull apunta a que esta actualización de Meta "es vigilancia masiva" y, por lo tanto, supone el máximo nivel de peligro establecido por esta ley.

"Esto del metaverso y uso de avatares está todo por regular", comenta el profesor de la Universidad Europea, "no tenemos todavía nada que nos proteja, que proteja nuestros datos", añade. Y, aunque sí haya legislación respecto al reconocimiento facial, no recoge nada sobre estas nuevas alternativas. "Los avatares están vinculados a nuestras expresiones faciales, si recogen las expresiones de los avatares será igual que si recogen las nuestras", dice. "Todo es un vacío, sí que lo tienen en cuenta pero todavía no se está ejecutando", señala García-Ull.

Aunque no con información personal, el experto en ciberseguridad explica a Vozpópuli que "llevamos años entrenando la inteligencia artificial sin saberlo". Como ejemplo pone Alphabet, una de las empresas más antigua de Google y responsable de los reCAPTCHA -cuando piden que "seleccionemos lo que son semáforos para decir que no somos un robot"-. Francisco José García-Ull explica que este mecanismo surgió durante las primeras fases y con estos puzzles ayudamos a la IA a diferenciar un objeto de otro.

Los riegos de desarrollar una Inteligencia Artificial con datos personales

El principal problema que identifica el experto de desarrollar una IA con nuestro contenido personal, como la de Meta, es que "no sabemos el fin con el que van a ser utilizados nuestros datos". "Los riesgos para nosotros estarían relacionados con que esa información se utilice para tomar decisiones que nos puedan influir en nuestra vida", continúa.

Podría servir "para establecer sesgos en la población y a la hora de buscar un trabajo, que se tengan en cuenta tus hábitos o tu nivel sociodemográfico, y esta información se comparta con terceros", ejemplifica. "Hay muchos riesgos aquí", apunta.

La IA de Meta puede afectar en varios aspectos a la privacidad de los perfiles, aunque, ahora, no en los de Europa. Por un lado, la recopilación de datos de todos los consumidores puede producir un perfilado exhaustivo de los usuarios, enturbiando su privacidad y autonomía. Asimismo, habría un uso no autorizado del contenido. Por otro lado, también aumentaría el riesgo de filtraciones de información sensible.

Otro punto que entra en cuestión es la propiedad intelectual detrás de aquellos perfiles profesionales y artísticos que comparten sus trabajos y obras de arte. En este sentido, cuando un usuario sube una fotografía a estas redes sociales, "cede los derechos a Instagram y a Facebook", explica el experto. Por esta razón, muchos artistas están optando por los NFT, para verificar la autenticidad de su obra.

Todos estos detalles están recogidos en la política de privacidad y uso de datos de Meta, pero "no se puede culpar a los usuarios, nadie lee estos textos", comenta García-Ull. Defiende que "es inviable este sistema de consentimiento informativo, también habría que buscar otra forma".

Respecto a esta actualización, la Agencia Española de Protección de Datos (AEPD) "no puede valorar hechos susceptibles de tener que analizar en el marco de un posible procedimiento", según han comentado a Vozpópuli. No obstante, la AEPD confirma haber recibido varias reclamaciones a consecuencia de que Meta quiera usar el contenido de sus usuarios para desarrollar su propia IA.

"El otro día me salió una frase que me muevo bastante: no deberíamos tener miedo de un mundo dominado por máquinas que piensan, sino de un mundo dominado por gente que piensa como máquinas", recuerda García-Ull. "El riesgo a veces no es tanto la inteligencia artificial, sino las decisiones que se tomen", sentencia.

Ya no se pueden votar ni publicar comentarios en este artículo.