Los operadores de telecomunicaciones españoles quieren curarse en salud en lo que al uso de ChatGPT se refiere. La aplicación, desarrollada por OpenAI y sobre la que se han sembrado muchas dudas en torno a su seguridad y fiabilidad en las respuestas, se ha restringido en Telefónica, Vodafone y MásMóvil.
Desde Vodafone reconocen a Vozpópuli que "de forma general, las herramientas de IA generativa no están permitidas por los riesgos en privacidad y seguridad que entrañan".
Es un caso similar al de Telefónica. "De conformidad con la Normativa Global de Seguridad, no se permite el uso de servicios de Internet, como es el caso de ChatGPT, para tratar o almacenar información de la empresa, a menos que las cuentas de usuarios y los servicios estén contratados y/o controlados directa o indirectamente por Telefónica".
La corporación dirigida por José María Álvarez-Pallete manifiesta sin embargo estar valorando "el uso de herramientas de IA generativa en entornos corporativos controlados por Telefónica que ofrezcan las garantías adecuadas de privacidad y seguridad de la información y eviten el acceso no autorizado de terceros".
En el caso de MásMóvil, llueve sobre mojado. De nuevo, más restricciones. Su uso se permite pero solo si se siguen "una serie de consejos y advertencias". Desde la empresa no dan detalle alguno. Orange es el único que, de momento, no parece tener clara la política de uso con el chatbot. Han declinado hacer declaraciones a este diario.
Otras fuentes consultadas explican que una de las restricciones básicas en torno al uso del chatbot es, casi como norma general, no introducir nunca en ChatGPT datos de los clientes con los que se trabaja. Esto se debe a que la aplicación creada por Sam Altman almacena una cantidad ingente de información, mucha de ella de tipo personal.
La información que almacena ChatGPT
"Si se comunica con nosotros, podemos recopilar su nombre, información de contacto y el contenido de cualquier mensaje que envíe", detalla la Política de Privacidad de OpenAI.
También recoge información personal procedente de páginas de redes sociales. "Tenemos páginas en sitios de redes sociales como Instagram, Facebook, Medium, Twitter, YouTube y LinkedIn. Cuando interactúa con nuestras páginas de redes sociales, recopilamos la información personal que elija proporcionarnos".
ChatGPT también guarda información más específica, como "datos de registro: Información que su navegador envía automáticamente cada vez que visita el Sitio. Los datos de registro incluyen su dirección de Protocolo de Internet, el tipo y la configuración del navegador, la fecha y hora de su solicitud y cómo interactuó con el sitio".
Altman quiere una regulación, ¿a medida?
Hace unos días el fundador de ChatGPT manifestaba abiertamente que su intención era que se estableciese, cuanto antes, una regulación para los sistemas de Inteligencia Artificial como ChatGPT, cuyo potencial destructivo comparó con el de las armas de destrucción masiva. Sin embargo, solo unos días después aseguró que dependiendo de cómo fuese esa regulación abandonaría o no la Unión Europea. Lanzaba un dardo a Bruselas, donde se está concinando la ley que regulará la Inteligencia Artificial en el viejo continente.
Una regulación garantista con el usuario, como acostumbra a hacer Europa, garantizará la seguridad del usuario pero pondrá trabas a las startups, empresas que pueden competir en muchas ocasiones de tú a tú con las grandes corporaciones. Esto se debe a que son empresas con estructuras muy reducidas -en muchas ocasiones son profesores y alumnos de universidad-, sin acceso a fondos que inviertan o capacidad financiera. Integrar los cumplimientos legales en los productos y servicios es costoso, algo que no supone un problema para corporaciones con músculo financiero detrás. Es decir, en un escenario como este, saldrían ganando las empresas con financiación, como es el caso de ChatGPT.