Tecnología

Inteligencia Artificial: ¿Hay motivos para temerla o hay que regularla primero?

Como todo, nada es tan terrible ni tan maravilloso. Como aseguran expertos a Vozpópuli, no hay que ser ni excesivamente optimistas ni demasiado negativos: hay que tener una actitud de "esperanza" y de "prudencia"

Después del Shakirazo con Bizarrap y la polémica por la vuelta de Tamara e Íñigo, uno de los temas que más ha dado de qué hablar en las últimas semanas ha sido el nuevo ChatGPT. Muchos le han sometido a un test para decubrir si ese aparato, de apellido 'artificial', puede llevar el nombre de 'Inteligencia'. Y como siempre ocurre cuando llega algo nuevo, muchos se han preguntado hasta qué punto nos podemos fiar de la Inteligencia Artificial, si de verdad no estamos vendidos y controlados o incluso (los más exagerados) si debemos temer una sustitución de la raza humana por una serie de robots inteligentes.

Y como todo, nada es tan terrible ni tan maravilloso. Como aseguran expertos a Vozpópuli, no hay que ser ni excesivamente optimistas ni demasiado negativos: hay que tener una actitud de "esperanza" y de "prudencia".

Así lo confirman tanto Sara Lumbreras, codirectora de la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas, como Íñigo Navarro, codirector del Observatorio LegalTech & NewLaw de Comillas ICADE. "La introducción de la Inteligencia Artificial a la sociedad no es una catástrofe. Esta tecnología tiene un potencial innegable de mejorar nuestra vida. Aunque también es cierto que tiene un gran potencial de hacer daño. Hay que encontrar el equilibrio", explica a este periódico la experta en Tecnología.

Por su parte, Íñigo Navarro, más especializado en la legalidad de la IA, explica que "hay que estar tranquilos porque tiene más límites que contenido". "Por supuesto que hay casos concretos en los que la IA puede chocar con la legalidad o con la privacidad, pero son muchos más los casos en los que se puede usar para facilitarnos la vida, sin necesidad de violar lo legal. Por ello, es fundamental que haya una buena regulación a nivel internacional que evite esa posibilidad real de que se utilice como herramienta para hacer el mal", señala el experto.

Bajo su punto de vista, hay dos asuntos que hay que tener en cuenta para tener la tranquilidad de que, bien utilizada y regulada, la IA no es un problema: no hay realmente una gran inteligencia artificial y no hay personificación de los robots. Una idea que comparte su compañera de manera similar. Para ella, "hay que ser consciente de que la máquina no es consciente", aunque por las grandes bases de datos a las que accede para entrenarse pueda parecerlo. Además, señala que aunque lo llamemos Inteligencia, realmente no lo es, "porque la inteligencia es propia de los seres vivos e implica una experiencia personal que una máquina, al menos las construidas según la tecnología actual, nunca va a tener".

Sobre si en algún momento llegaremos a una situación como la de la película infantil Wall-E, (en la que la tierra está abandonada y solo habitada por un robot, Wall-E, mientras todos los humanos se han trasladado a unas naves espaciales donde están totalmente controlados por Inteligencias Artificiales), Sara Lumbreras tiene casi claro que eso no ocurrirá: "Los seres humanos tenemos una capacidad increíble de aprender. Y aprenderemos también a evitar futuros distopicos".

¿Qué peligros puede haber?

Pese ello, los expertos son conscientes de que la Inteligencia Artificial, todavía en debate sobre si es un avance positivo o negativo, puede suponer, sin una debida regulación y educación, algunos problemas.

A nivel social, nos enfrentamos a choques con la legalidad. Principalmente, por la dificultad de asegurar la protección de datos y la intimidad. También encontramos problemas con la posible excesiva humanización de los robots o la utilización de estos robots con fines malos (bélicos, chatanjistas...) Por otro lado, en un limbo entre los problemas sociales y personales, se encuentra la transparencia y el sesgo algorítmico. Las IA nos pueden dar una respuesta, pero no explican con base en qué dan esa respuesta. Este tipo de máquinas responden basándose en unos datos que pueden estar incompletos, manipulados, anticuados, ideologizados o simplemente mal recogidos, como explica la codirectora de la Cátedra Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas.

Sin embargo, para la experta los peligros más importantes son los que afectan en el plano individual. "A mí me preocupa mucho la pérdida de autonomía (en el sentido de que las IA limitan nuestra capacidad de decisión y, a la larga, nuestra capacidad de atención), y la problemática que ya veo en muchos casos en los que resulta muy fácil confundir cuando interactuamos con un robot o con una persona. Inconscientemente, adaptamos a nuestra forma de relacionarnos con la máquina actitudes que tendríamos que tener solo con humanos. O viceversa. Por ejemplo, en Asia se están poniendo muy de moda las 'novias robots' que te tratan como si fuesen tu pareja. Y son solo máquinas", destaca.

Mientras que los problemas a nivel social se solucionan con una buena regulación a nivel internacional, los problemas a nivel personal se tienen que solucionar con una buena educación tecnológica. "Para no temerlas y aprovechar toda esa parte positiva que nos proporciona la Inteligencia Artificial, es fundamental alcanzar un equilibrio entre conocimiento y ley", explica Navarro.

La regulación de la Inteligencia Artificial

Como ejemplo de que, en principio, no hay nada que temer, el experto en LegalTech & NewLaw explica que la nueva ley de Inteligencia Artificial que prepara la Unión Europea da motivos más que suficientes para saber que con una buena regulación se limitarán esos posibles peligros (como la violación de la intimidad o el excesivo control que las máquinas pueden ejercer sobre los humanos) y se potenciará su capacidad de resolver problemas que antes no podíamos resolver.

Dentro de las tres leyes sobre tecnología que están programadas para los próximos meses, la ley de IA es fundamental, "que promete una buena regulación desde el punto de vista legal". La ley divide las actividades de las máquinas en cuatro bloques. Las prohibidas; las de alto riesgo (por ejemplo, los coches autónomos), las de riesgo medio/bajo (como un chatbot. En este caso, se exigirá transparencia por parte de los fabricantes y el compromiso de dejar claro en palabra y en forma de que estamos interactuando con una máquina), y las que no suponen ningún peligro (como la inteligencia de las cámaras que detectan si estás haciendo un retrato y adapta la fotografía a ello).

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación
Salir de ver en versión AMP