Economía

¿Por qué les cuesta a las tecnológicas venderse en la UE?: Las normas de datos e IA lo complican todo

Los 27 tienen regulaciones para todo que afectan a proveedores, distribuidores e importadores que ya están acostumbrados a asumir los "costes extra" comunitarios

La Asamblea General de la ONU adopta su primera resolución respecto a la inteligencia artificial
Representación de un chip como inteligencia artificial Unsplash

Las complicaciones de las empresas tecnológicas comienzan nada más cruzar las fronteras de la UE. Los 27 tienen regulaciones para todo y se encuentran a la vanguardia de la protección de los derechos de sus ciudadanos, más aún en cuanto a las nuevas tecnologías se refiere. "La normativa de inteligencia artificial impone obligaciones a proveedores, distribuidores e importadores", apunta la profesora del Máster en Blockchain e inversión en Activos Digitales del IEB, Marina Fontcuberta.

Los motivos detrás de esas fuertes restricciones que no se plantean en otros mercados son los riesgos que tienen para la seguridad del ciudadano y, por tanto, para la de los Estados, ya que de algún modo se considera que pueden "espiar" a los usuarios. Productos que abarcan desde ciertas aplicaciones para móviles, pasando por otras herramientas como lavadoras y acabando con los propios automóviles. "El riesgo está ahí, claro. Otra cosa es que lo hagan, pero técnicamente es posible", asegura Andrés Ortiz, catedrático de Comunicaciones de la Universidad de Málaga.

"La información puede usarse con muchos fines perversos", añade Javier Valls Prieto, de la Universidad de Granada. "Se puede saber si una persona es consumidora de drogas sólo por las páginas webs que visita o si tiene un cáncer que lleva en secreto. Es, sin duda, una información muy personal que no siempre se quiere hacer pública, pero cuando estás en las grandes bases de datos de las que participan las empresas tecnológicas, tu información se puede comprar en un mercado que ya existe y, además, se puede, por tanto, robar".

En esta línea, los expertos aseguran a Vozpópuli que los Estados recopilan información y que esta puede llegar a servir para controlar a sus ciudadanos. En este contexto, "los países no aliados van a utilizar todos estos datos como una amenaza contra la población", advierte Valls Prieto. "Se trata de un peligro muy alto porque se puede desestabilizar un país y ya hay ejemplos muy conocidos, como el de la primera victoria de Trump en Estados Unidos o el referéndum del Brexit" donde es conocido que Rusia consiguió condicionar las opiniones del electorado.

Trabas burocráticas y de fabricación

Sin duda, la existencia de estas trabajas afecta a la producción dentro de la Unión, pero también a que las grandes tecnológicas quieran asentarse dentro de estas fronteras. No obstante, la profesora del Instituto de Estudios Bursátiles (IEB) asegura a Vozpópuli que no ocurre en la medida que cabría esperar, ya que estamos "tan acostumbrados" a estas normativas que las empresas ya cuentan a priori con ese tremendo gasto legal "que suponen".

Por ejemplo, "cualquier aplicación tiene que cumplir con el Reglamento General de Protección" y ese es un coste sobre el cual la empresa "ya ha hecho cálculos en el momento del lanzamiento", subraya la profesora. "Se trata de una normativa más que encarece desarrollar y traer productos al mercado de la UE, pero no mucho".

Así las cosas, los proveedores "que desarrollan el sistema de inteligencia artificial y lo introducen en el mercado", el distribuidor "que hace el despliegue" y el importador "que tiene que garantizar que el producto cumple con la normativa" acaban afectados por la regulación, como reconoce Fontcuberta, pero "están acostumbrados" y asumen ese sobrecoste.

En cuanto a la normativa de inteligencia artificial, que es una de las que más preocupa a las grandes tecnológicas para el medio y largo plazo, la UE establece diferentes obligaciones en virtud del riesgo, desde el "riesgo inaceptable", que se da cuandosupone un riesgo para la salud, para la seguridad o para los derechos fundamentales, hasta un "riesgo mínimo".

No hay que alarmarse con la IA ni los datos

Pese a que los tres expertos consultados saben de los peligros, coinciden en que no debe "alarmarse" a la población con los riesgos de la IA. Andrés Ortiz, catedrático de Comunicaciones de la UMA, asegura que "hay mucho alarmismo con ciertas cosas, pero hay una parte que no tiene sentido".

A lo que el profesor universitario se refiere es a que las grandes empresas, "al final, utilizan estas tecnologías para vendernos cosas" y no para un uso perjudicial para el individuo. Es lo que ha pasado con Tiktok, "que si un país tiene una aplicación de este tipo eso se puede utilizar para ver el perfil de todos los usuarios de la plataforma".

"El límite de lo que pueden hacer con estas técnicas se los ponemos los propios usuarios con los permisos que les damos", puntualiza. "En el momento que tú subes algo a Internet ya deja de ser tuyo porque lo has compartido con una empresa", una acción que las tecnologías que llevamos en la muñeca o en el bolsillo llevan a cabo sin que nos demos cuenta: "No hace falta ni apretar un botón, con solo llevarlo encima ya estamos generando datos: dónde estamos, a qué velocidad nos movemos, y los estamos enviando con el permiso que les hemos dado a estas grandes tecnológicas, pero sin ser conscientes de ello", advierte.

"Cuando compramos el móvil tenemos mucha prisa por usarlo y empezamos a darle a siguiente, siguiente, siguiente y aceptamos un montón de cosas que no leemos", explica Andrés Ortiz. Cualquier cosa que tenga una conexión a internet, como los relojes, las lavadoras, los altavoces inteligentes y hasta el coche está enviando datos. Se trata precisamente de los productos de estas grandes compañías internacionales tecnológicas de las que protege la normativa de la UE.

La UE protege los datos de los usuarios

Como indicaba la profesora del Máster en Blockchain e inversión en Activos Digitales Marina Fontcuberta, los costes legales que implica el Reglamento General de Protección de Datos (RGPD) son altos, aunque las empresas los asumen con normalidad: "Se trata de una buena herramienta para proteger nuestros derechos de las personas, pero hay mucho desconocimiento al respecto", explica Javier Valls, profesor del grado de criminología en la UGR.

"La regulación de la inteligencia artificial es todo lo contrario, solo hay restricciones para la administración pública y son muy pocas, aunque como primer paso no me parece mal. Ya se han marcado algunos estándares de comunicación y de transparencia", puntualiza el profesor de .

Exit mobile version