La Unión Europea (UE) prepara la primera ley integral para regular la inteligencia artificial (IA); las diferentes normativas de protección de datos personales ya prevén el uso masivo de información y cómo se debe reglamentar; y los códigos penales fijan lo que está fuera de la ley y cómo se persigue. Pero, más allá del ámbito político y judicial, ¿pueden (y deben) las empresas autorregularse e imponerse líneas rojas?
Los expertos consultados por EFE mantienen que la inteligencia artificial es ya una tecnología tan imprescindible como imparable, y que muchos de los retos del futuro -una mejor sanidad, con tratamientos más personalizados y eficaces; una energía más barata y limpia; o un transporte y una movilidad más sostenible- dependen ya en gran parte de ella.
Porque es capaz de mejorar la navegación, la geolocalización o de crear un "gemelo digital" que replica a un paciente para simular el mejor tratamiento; pero también de imitar en cualquier idioma la voz de un actor; de "robarle" su voz; o de alterar y falsear imágenes hasta convertir en misión imposible distinguir una real de otra "fabricada".
Y en ese contexto, algunas empresas han comenzado a publicar sus propias guías y a trazar las líneas rojas para que los empleados conozcan el desarrollo de la inteligencia artificial, su implementación, las posibilidades y límites de uso, y se suceden algunos sustantivos -como ética, autorregulación o responsabilidad- adosados a esta tecnología.
Un ejemplo; la multinacional alemana SAP -especializada en el diseño de productos informáticos para la gestión empresarial- ha creado un "manual" dirigido a todos sus trabajadores para asegurar el uso ético de la inteligencia artificial, consciente de que esta tecnología puede abrir posibilidades "ilimitadas" a empresas o gobiernos, pero también desafíos económicos, políticos o sociales dependiendo de cómo se implemente.
La misma pregunta (¿Pueden (y deben) imponerse las empresas líneas rojas en el uso de la IA?) se la hemos formulado uno de los sistemas de IA generativa -el ChatGPT de la empresa OpenAI-; su respuesta: "Muchas empresas reconocen la importancia de establecer límites éticos en el uso de la IA. Esto incluye evitar aplicaciones que puedan causar daño a las personas, discriminación injusta, invasión de la privacidad o cualquier otra consecuencia negativa. Las empresas deben asumir la responsabilidad de cómo se utiliza su tecnología de IA".
La "democratización" de la IA
"Para que la gente confíe en las soluciones de IA, el desarrollo, el uso y la venta de esos sistemas debe regirse por normas morales claras", ha manifestado a EFE Jesús Martínez, director de Soluciones e Innovación de la empresa SAP en España, y ha apuntado que el rápido auge de la IA "generativa" ha elevado aun más los niveles de ética que se deben exigir.
Esta empresa tecnológica, integrada en el grupo de expertos de alto nivel de la Comisión Europea sobre IA, ha publicado sus "principios rectores de ética" en este ámbito, y su responsable ha insistido en que es ya una tecnología de la que no se puede prescindir pero también en la importancia de su desarrollo se sustente sobre normas basadas en valores comunes.
La clave está en controlar todo el proceso de desarrollo y hacer que la supervisión humana forme parte de todo el proceso.
Jesús Martínez compara el impacto de la Inteligencia artificial "generativa" con el que pudo tener la imprenta, hasta cuya invención la lectura estaba reservada a unos pocos privilegiados, y ha asegurado que hasta ahora la nueva tecnologías estaba en manos de ingenieros con una alta cualificación y ahora esa brecha tecnológica se ha reducido y el acceso a la IA se ha "democratizado".
A su juicio, la clave está en controlar todo el proceso de desarrollo y hacer que la supervisión humana forme parte de todo el proceso. "Ante la duda de que un desarrollo de IA pueda tener algún efecto negativo para el ser humano es necesario introducir los cambios para evitarlo, y cuando no sea posible, abandonar su desarrollo".
Una tecnología imparable
Desde hace más de diez años se celebra en España el congreso RootedCON, un evento especializado en ciberseguridad que reúne a miles de personas -entre ellas responsables de seguridad informática de empresas, instituciones públicas y cuerpos de seguridad del Estado- y que en las últimas ediciones ha puesto el foco en la inteligencia artificial.
Román Ramírez, cofundador del congreso, ha asegurado que es "cuestión de tiempo" que los contenidos "sintéticos" generados por la IA no se puedan diferenciar de los reales, y ante la posibilidad de que sean las empresas las que "tracen" las líneas rojas, ha observado que "el problema de fondo es encontrar cuáles son los criterios para esa autorregulación".
"Si mi robot de IA puede operar en bolsa en todos los mercados a la vez, en tiempo real, a corto y ganando márgenes del 6.000 por ciento, ¿debo limitarlo para no alterar el mercado de valores? ¿por qué debería hacerlo si he visto una oportunidad y he sido más hábil que otros? ¿lo van a hacer las agencias de inteligencia? ¿países que puedan querer aplicar sus criterios hegemónicos?", se ha preguntado, y ha concluido que "realmente esto es imparable".
Supervisión humana de la inteligencia artificial
En declaraciones a EFE, Román Ramírez ha asegurado que el problema principal no es lo que se percibe oficialmente, sino que está en los proyectos de "código abierto" (open source) y que a su juicio son "totalmente incontrolables", que no están bajo el paraguas o el dominio de los gigantes tecnológicos u otras organizaciones, y ha citado como ejemplo "Hugging Face", una empresa de tecnología estadounidense especializada en el desarrollo de herramientas para el procesamiento del lenguaje natural basadas en la IA.
Hay que ser muy claros y directos con dónde se usa y para qué, con la posibilidad de que los clientes puedan auditar las decisiones tomadas por los algoritmos.
La supervisión humana, o la existencia de filtros más fiables y rigurosos, solo puede funcionaren los procesos de fabricación "controlables" o en las grandes empresas, mantiene el responsable de RootedCON, y ha observado los distintos marcos reguladores y las diferentes restricciones "éticas y morales" que existen en el mundo.
¿Cómo asegurar entonces que las empresas hagan un uso correcto de la IA? "Hay que ser muy claros y directos con dónde se usa y para qué, con la posibilidad de que los clientes puedan auditar las decisiones tomadas por los algoritmos, e incluso con la capacidad de oponerse a ellas y desactivar esas mejoras si no las quieren", ha respondido.
Raúl Casado (EFE).