Esta semana, el 'padrino de la Inteligencia Artificial', Geoffrey Hinton, abandonó Google, donde durante años había promovido esta tecnología, alertando de los peligros que veía en ella. Una noticia sorprendente si se ve de manera aislada, pero poco extraña si se compara con otros cientos de científicos, ingenieros e informáticos que trabajaron e impulsaron la IA y finalmente dejaron el sector alarmando de los peligros que supone su avance.
En el año de la pandemia salió un documental que revolucionó la sociedad, enganchada y adicta a las redes sociales, a los teléfonos y las pantallas. Se llamaba "El dilema de las redes sociales" y en él, antiguos trabajadores de Facebook, desencatados y "espantados" por lo que su sueño era realmente, contaban los secretos de los dueños de las redes sociales para enganchar y manipular la sociedad.
Una de las frases que más reflejan lo que para muchos supone el avance de las inteligencias artificiales la dijo uno de sus protagonistas en este documental: "Hay dos industrias que llaman a sus clientes usuarios: la de las drogas ilegales y la del software". Y lo dijo precisamente un hombre que durante años formó parte de esa industria, convencido de sus maravillas.
Los peligros que señalan los expertos arrepentidos de su pasado (principalmente, trabajadores de Facebook, Twitter y Google) en pro de la tecnología son principalmente seis.
Que el objetivo es robar el tiempo de las personas, "una moneda valiosa para empresas, políticos, organizaciones o países que quieran vender productos o ideas a audiencias vulnerables e hipersegmentadas"; que "si no pagas el producto, es que tú eres el producto"; que las herramientas están diseñadas para enganchar y manipular, como ocurre con la droga; que nos engañan con falsas recompensas, creando métodos de navegación capaces de estimular la circulación de la dopamina a niveles sin precedentes; que nos venden seguridad por inseguridad (sobre todo por los peligros psicológicos) y que las noticias falsas se propagan seis veces más rápido que las verdaderas.
Años atrás, Stephen Hawking, uno de los grandes científicos de la historia, también mostró su rechazo a lo que ya entonces veía como el imparable avance de la IA. Entonces dijo que los esfuerzos por crear máquinas inteligentes representan una amenaza para la humanidad. Concretamente, el científico, que precisamente utilizaba una IA para comunicarse debido a la enfermedad que padecía, aseguró que "el desarrollo de una completa inteligencia artificial (IA) podría traducirse en el fin de la raza humana".
Para Hawking la inteligencia artificial desarrollada hasta ese momento había demostrado ser muy útil, pero temía que una versión más desarrollada pudiera "decidir rediseñarse por cuenta propia e incluso llegar a un nivel superior". "Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas, y serán superados", aseguró el científico.
Este mismo año, en marzo, el propio Elon Musk, magnate de la tecnología y de la ciencia, pidió a través de una carta junto con otro grupo de científicos, que se suspendan durante seis meses los experimentos con inteligencia artificial muy potente porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".
"La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados", dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.
No son los únicos preocupados. En febrero, Sam Altman, consejero delegado de OpenAI, empresa desarrolladora de ChatGPT, afirmó que el mundo podría no estar "tan lejos de herramientas de IA potencialmente aterradoras" y que la regulación sería fundamental, pero que llevaría tiempo resolverla.
Los peligros de la IA que destaca Hinton
El último científico que desde dentro del sector tecnológico pide el fin del avance de los robots y de las inteligencias ha sido precisamente el 'padrino en Google de las IA's'. El experto ha contado en una entrevista que de repente "ha cambiado de opinión sobre si estas cosas van a ser más inteligentes que nosotros". "Creo que ahora están muy cerca de ello y que en el futuro serán mucho más inteligentes que nosotros... ¿Cómo sobreviviremos a eso?", ha expresado.
Para él, los problemas que plantea esta tecnología son principalmente cuatro, muy similares a los que dicen los extrabajadores de Facebook. Que es posible que la IA sea más inteligente que nosotros los humanos, que puede sobre alimentar la difusión de información falsa, que provocará la destrucción de miles de empleos (como contamos en este periódico, la Inteligencia Artificial destruirá uno de cada cuatro empleos actuales en España) y que ni los más expertos saben cómo detenerlo.
Yomismo
El peligro está en que aún siendo inteligencia artificial es mucho más inteligente que muchos humanos. Nada más hay que mirar a algunos españoles para afirmar lo dicho.
Grossman
Quiero aclarar por enésima vez que la tecnología no quita trabajo, lo que hace es cambiar el tipo de trabajo y aumentar la productividad, es decir, aumentar nuestra calidad de vida. Quizás la sociedad del futuro tendrá nuevos trabajos que ni conocemos, como abrillantador de robot, depilador de perros, inseminador de humanos, intoxicador de noticias, habrá más Jogejavie hablando sobre los demás, investigador de vida extraterrestre, predicador de nuevas religiones, desbarrigador de panzas, la estética en general tendrá futuro, alargamiento de vida, etc.
Clearco
El problema es la poca inteligencia de natural que tenemos los humanos. Y si encima las elites extractivas que mueven el cotarro, fomentan un movimiento internacional mayoritario en pos de la estupidez como forma de igualdad.... pues eso los peligros de la IA. Y la semana que viene hablaremos de esas elites wokes. Y estas si van a poner fin al mundo tal y como lo conocemos. Fijo. Por cierto poner puertas al campo, no funciona.
Perhaps
En cuanto a la supuesta inteligencia creciente de la IA, vamos a situarnos. La IA se monta sobre la información existente, en un proceso de busca-elige-selecciona-copia-pega-comunica. Dado este proceso está claro que la IA acabará retroalimentándose al producir más datos (que no información nueva) que los seres humanos (que son los únicos que producen información nueva), con lo que si no tenemos cuidado la IA acabará siendo pura basura al limitarse a su propia producción de datos.
Perhaps
Que se sepa, una de las leyes del conocimiento es que nada puede crear ni comprender algo superior a sí mismo. La IA será un problema porque su desarrollo es rapidísimo y la mayoría de las personas no saben adaptarse a ella, tardaremos en adaptarnos pero nunca acabará con la humanidad. Ninguna herramienta humana puede ser superior al propio ser humano.
Talleyrand
No nos extinguiremos. Eso es falso. Lo que debemor ir pensando es como se reparte la riqueza del mundo (el viejo problema) ya que el trabajo tal como lo conocemos se va a reducir notablemente.
Alexander
Que no, que no existe una "raza humana" sino una "especie humana".
Leonidas
Terminator llegará y por ecologistas y feministas podrán brindar antes de extinguirse. Al fin nos libraremos de esta escoria. Algo bueno tenía que tener la inteligencia creada por la estupidez