Tecnología

La IA sufrirá alucinaciones: los riesgos del monopolio que busca Elon Musk

El mundo camina a un nuevo escenario tecnológico con posibilidades inéditas de influir en la opinión pública. Es la Manipulación 2.0

  • Elon Musk

Elon Musk lanzaba una oferta esta semana por OpenAI por valor de 97.400 millones de dólares. Como ya explicamos en este diario, fue más una manera de desprestigiar y contraer el valor de la creadora de ChatGPT que la voluntad real de adquirirla. OpenAI fue fundada por el propio Musk junto a Sam Altman hace una década. Sin embargo, las diferencias en la gestión hicieron que se rompiera el matrimonio. Como pasa muchas veces, después del amor aparece el odio. Altman busca en la actualidad 300.000 millones de dólares para OpenAI; así que el mensaje que manda Musk con su oferta es que la compañía no vale lo que pide su rival.

Al margen de que la operación, rechazada por el propio Altman en Twitter -que además irónicamente dijo que estaría dispuesto a comprar la red social por menos de 10.000 millones-, sea un 'troleo', la realidad es que ambos oligarcas tecnológicos ansían el control total de la Inteligencia Artificial (IA).

El monopolio de esta tecnología es un problema para la humanidad. Se abrirían las puertas del infierno de la manipulación en masa como nunca antes se ha visto. La influencia que actualmente ejercen los Google, Youtube, Twitter, Instagram o Facebook sería el ruido de una bocanada de aire en un huracán.

Al mismo tiempo, este nuevo universo de manipulación es muy sutil en su forma, porque todo se reduce a los sesgos cognitivos, a la interpretaciones de los sistemas de Inteligencia Artificial.

Hasta ahora, Google ha funcionado principalmente -aunque con matices- como un repositorio de información. El usuario ha tomado decisiones en torno a la credibilidad que le ha dado al contenido y ha aceptado las consecuencias.

La Inteligencia Artificial es algo más. Se establece una relación si se quiere más "íntima" o menos fría que con Google -muy recomendable ver la película 'Heart' para comprenderlo-. Es decir, se añade el condimento sentimental. La IA es capaz de generar sensaciones, estados de ánimo. Esto afianza la credibilidad en la misma y nos convierte en más manipulables.

Los sistemas de IA son alimentados con millones de datos que pueden administrarse en cantidades y ser de un tipo concreto, para que la receta, para que los resultados de las interacciones, sirvan a los intereses de los dueños de la Inteligencia Artificial. Se puede hablar en este caso de una Manipulación 2.0.

El problema: las IA tienen alucinaciones

Google tiene su propia definición sobre lo que son las alucinaciones en los sistemas de Inteligencia Artificial: "Son resultados incorrectos o engañosos que generan los modelos de IA. Estos errores pueden deberse a diversos factores, como datos de entrenamiento insuficientes, suposiciones incorrectas realizadas por el modelo o sesgos en los datos usados para entrenarlo". Otras definiciones recalcan que en este tipo de casos las respuestas no dependen en absoluto de los datos facilitados para su entrenamiento, de ahí que se use la palabra alucinación.

Las respuestas delirantes son uno de los grandes problemas de la IA. Imaginemos que una empresa concentra el mercado de la Inteligencia Artificial y da una respuesta con sesgo a una pregunta sensible de manera provocada. Imaginemos que el usuario lo descubre. El proveedor de IA siempre podrá echarle la culpa a las alucinaciones y no desvelar que buscaba esa respuesta para impulsar sus intereses. Al ser un problema de toda la industria, tendrá una coartada creíble.

"Es bien sabido que las IAs alucinan. Tienen errores por diseño. Así que si el dueño de la IA la usa para camuflar manipulación vía sesgos cognitivos o amplificando determinados mensajes, aquellos que más le benefician -pensemos en la antesala de unas elecciones o en un “ataque financiero”-, la plataforma tendrá la capacidad de influir en sus usuarios de forma uniforme y global. Y si se descubre el sesgo en sus mensajes siempre podrán camuflarlo achacándolo a las alucinaciones. Y aquí no ha pasado nada", explica Sergio Álvarez-Teleña, doctor en Inteligencia Artificial y fundador de SciTheWorld. Este asturiano es una de las voces más acreditadas a nivel internacional en el sector de la Inteligencia Artificial.

La solución: correctores independientes

Teleña apunta como solución la generación de correctores independientes que indicarían cuándo una respuesta tiene un sesgo concreto y no es "justa" en el análisis.

El problema es que el cascabel a ese gato tendrían que ponérselo precisamente, al menos en un primer momento, quienes más y mejor manejan esa tecnología, y en la actualidad son apenas tres compañías.
"Lo ideal sería construir correctores independientes. Una aplicación donde se metieran las respuestas de uno o varios sistemas de IA y se contrasten. No es difícil, lo importante es que cuaje entre los usuarios", concluye.

Sería el equivalente, por poner un ejemplo, a los correctores ortográficos o a la figura de los verificadores de información. El problema en este último caso es que muchas veces son empresas que también tienen intereses, y obran de parte. Por no hablar de que casi con toda seguridad los dueños de las grandes plataformas de IA lanzarán sus propias herramientas de verificación con nombres que nada tendrán que ver con el de sus plataformas para desligarse de las mismas. Un escenario del que no estamos tan lejos viendo el ritmo al que evoluciona la tecnología.

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación Vozpópuli
Elon Musk anticipa la llegada de Grok 3 "en una o dos semanas"
Problema con las nuevas funciones de IA de Alexa: esto es lo que ha pasado