La Agencia Española de Protección de Datos (AEPD) mira hacia otro lado tras el bloqueo de la aplicación de moda si hablamos de Inteligencia Artificial, ChatGPT, en Italia. El organismo público tiene potestad para hacer lo mismo que ha hecho su homólogo italiano, pero desde la AEPD no son concretos en torno a qué decisión se podría tomar.
"Por el momento la Agencia no ha recibido ninguna reclamación sobre ChatGPT. No obstante, seguimos de cerca estos desarrollos tecnológicos, que pueden tener una importante afectación para los derechos de las personas, por lo que no puede descartarse una futura investigación a este respecto", explican a Vozpópuli desde la AEPD.
El cierre en Italia se debe a la vulneración del Reglamento General de Protección de Datos (RGPD), la regulación que manda en el viejo continente en torno a la protección de la información personal y los datos de los ciudadanos europeos.
El hecho de que sea una norma europea permite a la AEPD seguir los pasos del regulador italiano, que alude en este caso concretamente a la recogida ilegal de datos personales y la ausencia de sistemas para verificar que los usuarios son mayores de 18 años para el bloqueo del bot.
Nosotros y nuestros proveedores de servicios externos podemos usar cookies u otras tecnologías de seguimiento para recopilar información sobre sus actividades de navegación a lo largo del tiempo y en diferentes sitios web después de su uso, apunta la Política de Privacidad de ChatGPT, que deja claro también que puede enviar los datos recolectados a terceros "sin previo aviso"
"Es un escándalo"
La noticia se produce con el nombramiento de nuevo presidente de Protección de Datos aún pendiente. El organismo está dirigido en la actualidad por Mar España, quien tuvo que ser sustituida en julio de 2019 y no puede dimitir hasta que no haya sucesor. Camino de los tres años de sillón desierto, la 'amenaza' de ChatGPT pilla al organismo, que en España vela porque se traten correctamente los datos de los españoles, en una situación de las más extrañas que se recuerdan.
Es cierto que Mar España puede decidir sobre el bloqueo de la aplicación, pero Samuel Parra, abogado especializado en Privacidad, explica a este diario que "sería muy raro que se tomara una decisión en este sentido, no tanto porque Mar España no tenga potestad para ello, sino porque en la historia de la agencia no recuerdo ningún bloqueo de servicios internacionales en el pasado. Además, de hacerlo, debería ser una decisión tomada de forma conjunta por las diferentes autoridades de control europeas".
Otras fuentes consultadas por este diario explican que el hecho de que no se haya nombrado un nuevo presidente es "escandaloso" y que les resultaría normal que Mar España no quisiese meter en "berenjenales" bloqueando ChatGPT a, supuestamente, poco tiempo de que se nombre un sucesor.
Los peligros de ChatGPT
ChatGPT está considerado como uno de los robots conversacionales basados en Inteligencia Artificial más avanzados -si no el más avanzado- que existe. De hecho, su uso se ha prohibido en algunas universidades de Estados Unidos porque los profesores no eran capaces de diferenciar un trabajo realizado por este sistema de Inteligencia Artificial de uno elaborado por un humano.
Por otra parte, ChatGPT puede recopilar cualquier mensaje que enviemos, algo que hay que tener en cuenta. El uso de este bot implica riesgos. "Si se comunica con nosotros, podemos recopilar su nombre, información de contacto y el contenido de cualquier mensaje que envíe ", detalla la Política de Privacidad de Open AI, compañía de investigación de Inteligencia Artificial sin ánimo de lucro cuyo objetivo es desarrollar y promover esta tecnología, y creadora de ChatGPT.
"Nosotros y nuestros proveedores de servicios externos podemos usar cookies u otras tecnologías de seguimiento para recopilar información sobre sus actividades de navegación a lo largo del tiempo y en diferentes sitios web después de su uso del Sitio. Nuestro sitio actualmente no responde a las señales de 'No rastrear'", apunta el texto, que deja claro que puede enviar los datos recolectados a terceros "sin previo aviso".
lersserp
El único problema que yo le veo es que "casi" no es distinguible un trabajo hecho por GPT de uno hecho por un humano. Esto se resuelve facilmente si los exámenes son presenciales y sin esta herramienta y si en paralelo se ponen pruebas basadas en la inteligencia en lugar de la memoria. Yo le he puesto algunos problemas relativamente simples de Física y Matemáticas que no pudo resolver o lo hizo muy precariamente.
PijoListo
####https://www.malwarebytes.com/blog/news/2023/03/chatgpt-happy-to-write-ransomware-just-really-bad-at-it###
PijoListo
Bien manipulado y engañándolo,ChatGPT puede producir código malicioso de consecuencias terribles para laSegutidad Nacional. Puede que España, aunque aquí hay mucho torpe ególatra,siga los pasos de Italia. Debería .