Los chatbots con inteligencia artificial están por todas partes: atención al cliente, recursos humanos, soporte técnico, incluso clínicas veterinarias… Automatizan tareas, responden al instante y mejoran la experiencia de usuario.
Pero, como pasa con toda tecnología que trata datos personales, no vale con que funcione bien: también debe cumplir la ley. De lo contrario, podrías incurrir en sanciones como ya ha ocurrido con algunas empresas europeas.
A continuación, te explicamos, de forma clara y directa, qué debe incluir tu chatbot para cumplir con la ley y evitar sustos innecesarios.
1. Identificación clara del responsable
El usuario debe saber quién está detrás del sistema. Para ello, el chatbot debe incluir una política de privacidad y un aviso legal fácilmente accesibles que informen sobre:
- Quién es el responsable del tratamiento: nombre, CIF/NIF, dirección y datos de contacto.
- Finalidad del tratamiento: por qué se recogen los datos y qué se hace con ellos.
- Base legal que permite ese uso (consentimiento, ejecución de contrato, interés legítimo…).
Empezar sin esto es como construir una casa sin cimientos: mal asunto.
2. Información clara sobre los datos personales
El chatbot debe explicar, en lenguaje claro y accesible:
- Qué datos recoge.
- Para qué se usan.
- Si se comparten con terceros.
- Cuánto tiempo se conservarán.
No es suficiente con incluir un texto legal denso. La información debe presentarse de forma comprensible y, siempre que sea posible, antes o durante la recogida de datos.
3. ¿Y si alguien quiere ejercer sus derechos?
Tiene todo el derecho. Por eso, el sistema debe contar con un canal sencillo y accesible que permita a las personas ejercer sus derechos de protección de datos. En concreto:
- Acceder a sus datos personales.
- Rectificar la información si es incorrecta o está desactualizada.
- Suprimir los datos cuando ya no sean necesarios (lo que se conoce como el derecho al olvido).
- Limitar el tratamiento en determinadas circunstancias (por ejemplo, mientras se resuelve una reclamación).
- Oponerse al uso de sus datos si no está de acuerdo con el tratamiento.
- Solicitar la portabilidad de sus datos a otro proveedor o responsable, si aplica.
Además, el sistema debe informar claramente sobre cómo ejercer estos derechos y a través de qué medio (formulario, correo electrónico, espacio dentro del propio chatbot, etc.).
¿Un ejemplo? Incluir un botón o mensaje como:
👉 “¿Quieres ejercer tus derechos? Escríbenos a privacidad@tuempresa.com”
4. ¿Aprende de lo que hablamos?
Muchos sistemas con IA utilizan el contenido de las interacciones para mejorar su rendimiento. Esto debe explicarse expresamente al usuario, indicando:
- Si se guardan las conversaciones.
- Si se usan para entrenar el modelo.
- Qué se hace con esos datos tras el aprendizaje.
5. No pedir más datos de la cuenta
No todo vale. Un chatbot no debería pedir el DNI si solo estás preguntando por el horario de una tienda. El principio de minimización exige que sólo se recojan los datos necesarios para cumplir la finalidad prevista.
Si el chatbot pide información sensible, asegúrate de tener una base legal adecuada (como el consentimiento explícito) y de ofrecer garantías adicionales.
6. Supervisa y documenta
Por mucho que automatices, la responsabilidad sigue siendo tuya. La empresa debe:
- Supervisar el funcionamiento del chatbot.
- Detectar y corregir posibles errores o sesgos.
- Conservar trazabilidad de las decisiones automatizadas o del uso de datos personales.
Esto es especialmente importante si el sistema toma decisiones con impacto jurídico o significativo sobre las personas.
Puedes consultar las recomendaciones para los usuarios que pone a disposición la AEPD en el siguiente enlace.
En resumen
Tener un chatbot que responde rápido está muy bien. Tener uno que cumple la ley, protege los datos y respeta a las personas… es mucho mejor.
Si estás usando un sistema de este tipo o tienes previsto implantarlo, revísalo bien. Y si no sabes por dónde empezar, ya sabes: siempre puedes consultarnos cualquier duda.