Recientemente, varios clientes nos han trasladado en distintas reuniones por otros asuntos su preocupación sobre el impacto que herramientas de IA como ChatGPT pueden tener en sus organizaciones, y más concretamente, qué consideraciones deben trasladar a compañeros y clientes en relación con la protección y la privacidad de datos personales al hacer uso de dichas herramientas; máxime cuando la propia AEPD[1] ha decidido iniciar, de oficio, actuaciones de investigación a OpenAI, empresa propietaria de ChatGPT.
Y qué mejor para plantear esta cuestión que pedir ayuda a dichas herramientas. A la pregunta:
El equipo de comunicación del despacho de abogados para el que trabajamos nos ha pedido que hablemos, en la newsletter semanal interna con información sobre actividades del despacho, sobre algún aspecto que hayamos visto recientemente vinculado con la práctica profesional de la abogacía en el ámbito de la protección y la privacidad de datos. ¿Podrías introducirnos en 300 palabras o menos este tema?
ChatGPT responde textualmente:
Uno de los temas actuales en la protección de datos es el impacto de las tecnologías de inteligencia artificial como ChatGPT en la privacidad de los datos. ChatGPT es un modelo de lenguaje basado en la IA que procesa grandes cantidades de datos para generar respuestas a preguntas y llevar a cabo conversaciones.
Sin embargo, el uso de ChatGPT implica la recopilación y procesamiento de datos personales, ya que las conversaciones pueden contener información sensible de los usuarios. Por tanto, es importante que las empresas que utilizan ChatGPT aseguren que cumplen con todas las normativas de protección de datos aplicables.
En este sentido, es necesario que las empresas informen a los usuarios sobre el uso de ChatGPT y obtengan su consentimiento para recopilar y procesar sus datos personales. Además, deben asegurarse de que los datos se procesen de manera segura y responsable y de que se respeten los derechos de privacidad de los usuarios.
Por otro lado, los abogados también tienen un papel importante en la protección de datos en relación con el uso de ChatGPT. Deben asesorar a sus clientes sobre cómo cumplir con las normativas de protección de datos aplicables y garantizar la privacidad de los datos en el contexto del uso de tecnologías de inteligencia artificial como ChatGPT.
En definitiva, el impacto de ChatGPT desde una perspectiva de protección de datos es un tema importante que requiere la atención tanto de las empresas que lo utilizan como de los abogados que asesoran en este ámbito.
Si bien la respuesta de ChatGPT, tangencialmente similar a la de otras herramientas similares como BingAI o Perplexity AI, puede parecer asombrosa, lo primero que procede aclarar ante cualquier consulta es que ni ChatGPT ni cualquiera de sus competidores son máquinas que nos dicen lo que piensa, sino herramientas que saben cómo usar palabras (dicho de otro modo, no sabe el “significado” de una palabra, pero sabe cómo se utiliza). Sin embargo, o justamente por esta misma limitación, la inteligencia artificial en la fase actual es extremadamente efectiva para responder preguntas, redactar artículos o resumir conjuntos de información compleja o desordenada. Es, por tanto, mucho más efectiva desde el punto de vista del usuario que tener que estar utilizando el buscador para, entre toda la información obtenida, proceder a elaborar el documento final.
Son justamente estas habilidades las que hacen estas herramientas tan atractivas para las organizaciones y sus empleados, optimizando los procesos de creación de contenido, elaboración de materiales informativos, etc. pero a la vez muy arriesgadas por el riesgo que suponen para la protección de la información de toda índole (confidencial, personal o reservada). De hecho, las principales herramientas de IA disponibles para el público son entornos cerrados en los que la misma herramienta se alimenta de la información que los distintos usuarios le aportan. Lo que es lo mismo: si al plantearle una pregunta a la herramienta le aportamos información confidencial de nuestra organización o datos personales que tengamos por cualquier motivo, esta información o datos quedan almacenados en la herramienta y esta podrá usarlos en sus respuestas a las preguntas de otros usuarios.
Esto significa que, en un entorno de inteligencia artificial, nada es privado, y todo lo que compartamos con la herramienta podrá ser utilizado, con nosotros o con terceros, en el futuro. Ese es su principal riesgo.
Por ello, es de fundamental importancia (y así lo hemos trasladado a nuestros clientes cuando nos lo han consultado) que:
- Informemos a empleados, usuarios, etc. sobre las normativas de protección de datos española y europea, y cómo se relacionan con el uso de la IA.
- Evaluemos los riesgos de privacidad y seguridad asociados con el uso de IA para cada caso en concreto, y ayudar a los clientes a implementar medidas para mitigar estos riesgos. Es conveniente realizar una Evaluación de Impacto de Privacidad que mida el “impacto” que puede tener el uso de un medio tan potente (como ya hacemos al utilizar, por ejemplo, el Big Data).
- Si se usa IA para recopilar y procesar datos personales, asegurarse que se haya obtenido el consentimiento de los usuarios y se cumpla con las disposiciones aplicables de la normativa (en relación con los derechos de acceso, rectificación, oposición al tratamiento, etc.).
- Evaluar la política de privacidad de los clientes y ayudar a ajustarla en caso de ser necesario para incluir detalles sobre el uso de IA y cómo se protegen los datos de los usuarios.
- Si queremos que su ayuda sea lo más efectiva posible, hemos de asegurarnos que se emplean datos disociados o, mejor aún, anonimizados, que impidan una identificación del cliente o los titulares de los datos.
- La privacidad desde el diseño o por defecto en el caso de la IA es un elemento importantísimo para demostrar la responsabilidad proactiva en la que tanto se insiste en el RGPLD.
No creemos que haya que tener miedo al uso de estas herramientas. Bien utilizadas y con las debidas garantías pueden ayudarnos a todos a mejorar en nuestro trabajo.
[1]La AEPD inicia de oficio actuaciones de investigación a OpenAI, propietaria de ChatGPT
Artículo publicado en Legal Today por Guillem València y José Antonio Torrado, Asociados de Santiago Mediano Abogados.
Recent comments