En 1955, Isaac Asimov publicó su relato Sufragio universal. En él describe cómo la primera democracia electrónica utiliza el computador más avanzado del mundo (Multivac) para decidir el voto de toda una nación, con la intervención de un único votante humano.
Si bien no hemos llegado a ese inquietante futuro, el papel de la inteligencia artificial y de la ciencia de datos es cada vez más importante en el curso de las elecciones democráticas. Las campañas electorales de Barack Obama y Donald Trump, el Partido Sintético de Dinamarca y el robo masivo de información en la campaña de Macron son buenos ejemplos.
Monitorización de la opinión, el “análisis de sentimiento”
Uno de los primeros casos de éxito en el uso de técnicas de big data y análisis de redes sociales para ajustar una campaña electoral fue el de Barack Obama para las presidenciales de Estados Unidos en 2012. En su campaña (y en muchas otras después), las encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o entrevistas personales, se complementaron con el análisis de redes sociales.
Estos análisis ofrecen un método barato y casi en tiempo real de medir la opinión de los votantes. Para ello se aplican técnicas de Procesamiento del Lenguaje Natural (PLN), en particular las dedicadas al análisis de sentimiento. Dichas técnicas analizan los mensajes contenidos en tuits, blogs, etc. y tratan de medir si las opiniones vertidas en ellos son positivas o negativas con respecto a un cierto político o a un cierto mensaje electoral.
El principal problema que tienen es el sesgo muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen limitaciones a la hora de predecir resultados electorales, aunque resultan muy útiles para estudiar las tendencias de voto y el estado de opinión de la gente.
Intervención en campañas electorales: el caso Donald Trump
Más inquietante que el estudio de las emociones en redes sociales resulta su uso para influenciar estados de opinión y modular el voto. Un caso bien conocido es el de la campaña de Donald Trump en las presidenciales de EEUU de 2016. El big data y los perfiles psicográficos tuvieron mucho que ver con una victoria que no habían logrado predecir las encuestas.
No se trató de una manipulación en masa, sino que diferentes votantes recibieron diferentes mensajes basados en predicciones sobre su susceptibilidad a diferentes argumentos, recibiendo información sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato. La tarea fue encomendada a la empresa Cambride Analytica, que se vio implicada en una polémica por la recopilación no autorizada de información sobre millones de usuarios de Facebook.
El método de Cambride Analytica se basó en los estudios de psicometría de Kosinski, que comprobó como con un número limitado de likes se puede obtener un perfil del usuario tan acertado como si lo hicieran sus familiares o amigos.
El problema con este enfoque no está en el uso de la tecnología sino en la naturaleza “encubierta” de la campaña, la manipulación psicológica a votantes susceptibles a través de apelaciones directas a sus emociones o la difusión deliberada de noticias falsas a través de bots. Fue el caso de Emmanuel Macron en las presidenciales francesas de 2017. Su campaña sufrió un robo masivo de correos electrónicos a sólo dos días de las elecciones. Multitud de bots se encargaron de difundir evidencias de comisión de delitos supuestamente contenidos en la información, que luego resultaron falsas.
Acción política y gobierno: el Partido Sintético
No menos inquietante que el punto anterior es la posibilidad de que una inteligencia artificial (IA) nos gobierne. Dinamarca abrió el debate en sus últimas elecciones legislativas, a las que concurrió el Partido Sintético liderado por una IA, un chatbot llamado Leader Lars, con la aspiración de entrar en el parlamento. Detrás del chatbot hay humanos, naturalmente, en particular la fundación MindFuture de arte y tecnología.
Leader Lars fue entrenado con los programas electorales de partidos daneses marginales desde 1970 para configurar una propuesta que representara al 20% de la población danesa que no acude a las urnas.
Si bien el Partido Sintético parece una extravagancia (con propuestas tan atrevidas como una renta básica universal superior a 13 400 € al mes, el doble del salario medio en Dinamarca), ha servido para estimular el debate sobre la capacidad de una IA para gobernarnos. ¿Puede realmente una IA contemporánea, bien entrenada y con suficientes recursos, gobernarnos?
Si analizamos el pasado reciente de la inteligencia artificial, vemos que los avances se suceden uno tras otro a velocidad de vértigo, particularmente en el campo del procesamiento del lenguaje natural tras la aparición de las arquitecturas basadas en transformers. Los transformers son enormes redes neuronales artificiales entrenadas para aprender a generar textos, pero fácilmente adaptables a muchas otras tareas. De alguna manera, estas redes aprenden la estructura general del lenguaje humano y acaban teniendo un conocimiento del mundo a través de lo que han “leído”.
Uno de los ejemplos más avanzados y espectaculares lo ha desarrollado OpenAI y se llama ChatGPT. Se trata de un chatbot capaz de responder de manera coherente a casi cualquier pregunta formulada en lenguaje natural, de generar texto o de efectuar tareas tan complicadas como escribir programas informáticos a partir de unas pocas indicaciones.
Libres de corrupción, pero sin transparencia
Las ventajas de usar una IA para la acción de gobierno serían varias. Por una parte, su capacidad de procesar datos y conocimiento para la toma de decisiones es muy superior a la de cualquier humano. También estaría libre (en principio) del fenómeno de la corrupción y no le influirían los intereses personales.
Pero, a día de hoy, los chatbots sólo reaccionan, se alimentan de la información que alguien les proporciona y dan respuestas. No son realmente libres de pensar “espontáneamente”, de tomar la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de responder a preguntas del tipo “qué crees que pasaría si…”, “que propondrías en caso de…”, más que como agentes activos o controladores.
Los posibles problemas y peligros de este tipo de inteligencias, basadas en grandes redes neuronales han sido analizados en numerosos estudios científicos. Un problema fundamental es el de la falta de transparencia (“explicabilidad”) de las decisiones que toman. En general actúan como “cajas negras” sin que podamos saber qué razonamiento han llevado a cabo para llegar a una conclusión.
Y no olvidemos que detrás de la máquina están los humanos, que han podido introducir ciertos sesgos (consciente o inconscientemente) en la IA a través de los textos que han usado para entrenarla. Por otro lado, la IA no está libre de dar datos o consejos erróneos, como muchos usuarios de ChatGPT han podido experimentar.
Los avances tecnológicos permiten vislumbrar una futura IA capaz de “gobernarnos”, por el momento no sin el imprescindible control humano. El debate debería moverse pronto del plano técnico al plano ético y social.
Jorge Gracia del Río, Investigador "Ramón y Cajal" en Lenguajes y Sistemas Informáticos, Universidad de Zaragoza.
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Apoya TU periodismo independiente y crítico
Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación