Uno de los proyectos Crazy Ideas que hicimos internamente en Telefónica Innovación Digital tiene que ver con la idea de controlar, cuando ChatGPT Se hizo muy popular entre todos los empleados de la empresa, los datos que las personas enviaban al servicio, para que no se filtraran datos privados de la empresa, o de personas que pudieran suponer un riesgo para la privacidad en el futuro.
Figura 1: Nombre en clave: “Leak GuardIAn” para evitar filtraciones a ChatGPT
Para ello, utilizando la misma idea de tener un Plugin para el navegador que intercepta solicitudes de dominio ChatGPTCreamos un servicio que analizaba el contenido del texto que se iba a enviar al LLM para ver si había algún dato que quisiera monitorear, bloquear o eliminar.
Figura 2: Estructura de la operación LeakGuadIAN
La idea era muy sencilla y se puede aplicar a cualquier ámbito. La solicitud es capturada, enviada a un backend controlado, se le pasan las reglas, que incluso pueden ser reglas hechas con SLM/LLM en backend o en Interfaz -, y se toma una acción.
Figura 3: Análisis de texto de LeakGuardIAn para localizar nombres
Así, en los tres ejemplos que tienes aquí puedes ver cómo se analiza el texto de las entradas para poder decidir si hay un posible texto sensible, que es el que has marcado en la imagen anterior como Nombresen este caso de Ubicaciones (púrpura), Personas (rosa) y Organizaciones (verde).
Figura 4: Enmascaramiento de nombres
En la imagen anterior FugaGuardIAn ha aplicado la eliminación de Nombres de todo el texto para dejarlo completamente anonimizado, que es la política que se ha aplicado a FugaGuardIAn en ese ejemplo específico.
Figura 5: Reescribir texto sin nombres
En la imagen superior podéis ver como se ha reescrito el texto sin poner ningún nombre propio en el contenido que se va a enviar ChatGPTQué él ha hecho FugaGuardIAn. Simplemente revise lo que se envía. Todo esto se define en una política que se configura en una consola de administración donde se configuran todas las reglas de detección y sus políticas de gestión de información.
Figura 6: Creación de políticas para LeakGuardIAn
Se puede marcar para enmascarar (con asteriscos), eliminar o bloquear directamente la solicitud a ChatGPT si es algo que no desea que se envíe. Todos indicaciones que se analizan y activan una regla se recopilan en la consola para que puedan ser analizados.
Figura 7: Reglas en el [K]Suela LeakGuardIAn
En el siguiente vídeo puedes ver cómo crear una regla para el dominio de ChatGPTse realiza una solicitud que se ve afectada por la misma, y FugaGuardIAn elimina sus datos personales.
Figura 8: LeakGuardIAn eliminando datos confidenciales
En este otro, lo mismo, pero con un bloqueo de la solicitud, para que no se puedan enviar datos a ChatGPTporque la política de gestión de la información lo prohíbe.
Figura 8: LeakGuardIAn bloquea el envío de datos confidenciales
Este proyecto fue sólo un prueba de concepto evaluar qué herramientas o política de gestión de la información podríamos utilizar ante la posible amenaza de fuga de información mediante el envío de datos a ChatGPTalgo que puede suceder en cualquier otro ámbito, en WhatsApp, Google o quién sabe en qué lugar, pero por supuesto si son equipos corporativos puede ser una buena fuente para monitorear el comportamiento de los empleados sigan o no las políticas corporativas.
¡Saludos malvados!