Ciencia

Musk vs Zuckerberg: ¿quién teme al robot feroz?

La polémica de Elon Musk y Mark Zuckerberg relanza el debate sobre la Inteligencia Artificial. ¿Tenemos motivos para estar asustados?

En los últimos días dos grandes gurús de las nuevas tecnologías han intercambiado algunos zarpazos a propósito de sus diferentes visiones sobre la Inteligencia Artificial (IA). Elon Musk, creador de PayPal o Tesla Motors, se ha manifestado partidario de regular la IA y está convencido de que puede ser la mayor amenaza para la humanidad, mientras que el creador de Facebook, Mark Zuckerberg, cree que se trata de una actitud irresponsable y que las predicciones apocalípticas de Musk lo único que consiguen es frenar el desarrollo y la profundización en esta disciplina. Como respuesta, Musk aseguró en Twitter que la comprensión de Zuckerberg de la IA es “limitada”.

"A día de hoy, la IA está muy lejos de esos términos de volverse en contra de sus creadores"

No es la primera vez que Elon Musk declara públicamente su preocupación por la IA. Ya en 2015 más de 1000 investigadores prestigiosos firmaron una carta abierta pidiendo a la ONU que prohibiese las armas militares basadas en IA.Y en cierto modo sí, es verdad, la IA está clasificada como uno de los riesgos a los que se enfrenta la población mundial. Concretamente, por las instituciones Global Challenges Foundation y World Economic Forum, y se equipara a esta tecnología a la llegada de asteroides o a la amenaza nuclear.

Sin embargo, como apunta el experto en robótica Rodney Brooks, es posible que sea el propio Musk el que tenga una visión limitada y distorsionada de la Inteligencia Artificial y el que está confundiendo los hechos. Veamos por qué.

En primer lugar, conviene aclarar el miedo de los investigadores que firmaron la famosa carta no se refiere a que una hipotética carrera militar culmine con la creación de una especie de Terminator que se vuelva en contra de la raza humana. A día de hoy, la IA está muy lejos de esos términos de volverse en contra de sus creadores y hay amenazas más apremiantes para el planeta como la guerra nuclear o el cambio climático. ¿Entonces a qué tienen miedo los firmantes de la declaración? Lo que estrictamente solicitaban en la carta abierta era que se asegure que los sistemas (robots o software) dotados con inteligencia, hagan lo que está estrictamente programado para hacer y no otra cosa inesperada. Para solucionar esto, se podría imponer que los aparatos dotados con IA tengan un código abierto, o que sean revisados por una entidad independiente u otras posibilidades. Esto no es tan fácil ni siquiera hoy en día, y si no, invito a los lectores a recordar el famoso Dieselgate de Volkswagen.

Para entenderlo, pensemos en algo más realista que en el manido Terminator: pongamos que popularizamos exoesqueletos con inteligencia artificial para ayudar a las personas mayores en sus tareas físicas diarias. Si la persona está bajando por las escaleras, y por alguna razón, requiere a los motores del exoesqueleto que desarrollen un par de fuerza que los podría quemar, ¿no nos tendríamos que asegurar que ese aparato decida siempre ejercer esa potencia y priorizar a la persona? Decirlo es fácil, pero implementarlo y certificarlo no lo es tanto.

“Los que trabajamos en IA sabemos lo difícil que es conseguir que algo realmente funcione"

Es decir, antes que imaginarnos historias de ciencia ficción, hay que atender a detalles más concretos y realistas. Además, como señala Brooks, las personas que tienen esta visión amenazadora de la IA suelen ser gente que no trabaja en IA, y se refiere explícitamente a las advertencias hechas por Stephen Hawking o Martin Rees. “Los que trabajamos en Inteligencia Artificial sabemos lo difícil que es conseguir que algo realmente funcione a nivel de producto”. Y aquí es donde llama la atención que Elon Musk tire piedras sobre su propio tejado, ya que él mismo está implantando Inteligencia Artificial en sus vehículos, y hace declaraciones como los que no confían en sus coches autónomos “están matando a gente” o asegura que estos modelos son dos veces más seguros. También su empresa Paypal se vale de inteligencia artificial para detectar el fraude, de modo que sembrar la duda sobre las posibilidades de esta tecnología es terreno pantanoso para él mismo.

Pero no todo van a ser palos para él. El fundador de Facebook también se equivocó en enero de 2016 afirmando que no hace falta temer a la IA. Y ese extremo tampoco es cierto. Una persona que sabe muy bien de qué va la cosa es Demis Hassabis, cofundador de DeepMind: a día de hoy, una de las empresas que más está avanzando en la IA. De hecho, sus declaraciones pueden responder tanto a Zuckerberg como Musk, ya que afirma que “estamos aún a décadas o siglos de conseguir una inteligencia artificial parecida a la humana”, “ahora mismo estamos practicando con pequeños juegos”, “pero eso no significa que no haya razones para no ser cautos”. Además, es muy optimista frente al futuro de esta tecnología, ya que está ayudando a optimizar procesos de empresas, a incrementar beneficios, a hacer mejores diagnósticos médicos, detectar fraudes y reducir los accidentes de tráfico.

“Estamos aún a décadas o siglos de conseguir una inteligencia artificial parecida a la humana”

Uno de los errores que puede estar cometiendo Musk y los apocalípticos es creer que tenemos un control mayor de la IA del que realmente tenemos. En este sentido Brooks recuerda que los creadores del admirado AlphaGo, el potente Google DeepMind que venció al campeón de Go, admitieron recientemente que todo podría haber salido espantosamente mal en su desafío. Y tampoco debemos perder de vista que la IA no es un ente autónomo que ha cobrado conciencia como Skynet, sino una combinación de tecnologías que los humanos están probando y que dependen fundamentalmente de nosotros

Por el momento, algunos de los robots más avanzados siguen siendo copias bastante precarias de los autómatas que hemos visto en las películas de ciencia ficción y están a años luz de los replicantes. Observando la dificultad que aun existe para definir tareas tan sencillas como correr o parar un penalti no parece que máquinas estén muy preparadas aún para conquistar el mundo con sus movimientos.

https://youtube.com/watch?v=Y5gpoZzwcKY%3Fshowinfo%3D0

El mejor resumen del estado de la s cosas se recoge en la primera frase del Informe de los 100 años de la IA elaborado por prestigiosos investigadores en este ámbito:

El retrato terrorífico y futurist de la Inteligencia Artificial que domina las películas y las novelas, y moldea la imaginación popular, es ficticio. En realidad la IA está cambiando ya nuestras vidas diarias, casi siempre de maneras en que mejoran la salud humana, nuestra salud y la productividad.

En este informe se realizan recomendaciones sobre la regulación de esta disciplina de cara a 2030. Y esto tiene que quedar claro: conviene estudiar ahora las medidas a adoptar, antes de que los sistemas inteligentes se hayan masificado y su buen funcionamiento, uso de datos, estandarización, etc., estén descontrolados. Por descontado que algo que se puede volver tan habitual en nuestras vidas, hay que regularlo, y ya hay iniciativas, como la que inició la Casa Blanca en 2016 o la Unión Europea. Por lo tanto, y en resumen, es conveniente quedarse con las siguientes ideas:

1) La Inteligencia Artificial está aún muy lejos de los niveles de Hollywood

2) Hay que ser cautos de cara a su desarrollo y regular los sistemas inteligente

3) Ya hay muchos dispositivos con IA en nuestras vidas y están ayudando a resolver problemas.

Así que tranquilo, Elon Musk: no eres el único que tiene interés en regular la IA. Y, por supuesto, recuerda que los robots no son el nuevo lobo feroz.

* Julián Estévez investiga sobre drones y robótica en el grupo de I+D de Inteligencia Computacional de la UPV-EHU y es profesor en la Escuela de Ingeniería.

Apoya TU periodismo independiente y crítico

Ayúdanos a contribuir a la Defensa del Estado de Derecho Haz tu aportación
Salir de ver en versión AMP