“Leak GuardIAn” para evitar filtraciones a ChatGPT – .

Uno de los proyectos Crazy Ideas que hicimos internamente en Telefónica Innovación Digital tiene que ver con la idea de controlar, cuando ChatGPT Se hizo muy popular entre todos los empleados de la empresa, los datos que las personas enviaban al servicio, para que no se filtraran datos privados de la empresa, o de personas que pudieran suponer un riesgo para la privacidad en el futuro.

Figura 1: Nombre en clave: “Leak GuardIAn” para evitar filtraciones a ChatGPT

Para ello, utilizando la misma idea de tener un Plugin para el navegador que intercepta solicitudes de dominio ChatGPTCreamos un servicio que analizaba el contenido del texto que se iba a enviar al LLM para ver si había algún dato que quisiera monitorear, bloquear o eliminar.

Figura 2: Estructura de la operación LeakGuadIAN

La idea era muy sencilla y se puede aplicar a cualquier ámbito. La solicitud es capturada, enviada a un backend controlado, se le pasan las reglas, que incluso pueden ser reglas hechas con SLM/LLM en backend o en Interfaz -, y se toma una acción.

Figura 3: Análisis de texto de LeakGuardIAn para localizar nombres

Así, en los tres ejemplos que tienes aquí puedes ver cómo se analiza el texto de las entradas para poder decidir si hay un posible texto sensible, que es el que has marcado en la imagen anterior como Nombresen este caso de Ubicaciones (púrpura), Personas (rosa) y Organizaciones (verde).

a8eb3abef4.jpg

Figura 4: Enmascaramiento de nombres

En la imagen anterior FugaGuardIAn ha aplicado la eliminación de Nombres de todo el texto para dejarlo completamente anonimizado, que es la política que se ha aplicado a FugaGuardIAn en ese ejemplo específico.

3b7b4ec046.jpg

Figura 5: Reescribir texto sin nombres

En la imagen superior podéis ver como se ha reescrito el texto sin poner ningún nombre propio en el contenido que se va a enviar ChatGPTQué él ha hecho FugaGuardIAn. Simplemente revise lo que se envía. Todo esto se define en una política que se configura en una consola de administración donde se configuran todas las reglas de detección y sus políticas de gestión de información.

9891faa239.jpg

Figura 6: Creación de políticas para LeakGuardIAn

Se puede marcar para enmascarar (con asteriscos), eliminar o bloquear directamente la solicitud a ChatGPT si es algo que no desea que se envíe. Todos indicaciones que se analizan y activan una regla se recopilan en la consola para que puedan ser analizados.

3417779e63.jpg

Figura 7: Reglas en el [K]Suela LeakGuardIAn

En el siguiente vídeo puedes ver cómo crear una regla para el dominio de ChatGPTse realiza una solicitud que se ve afectada por la misma, y FugaGuardIAn elimina sus datos personales.

Figura 8: LeakGuardIAn eliminando datos confidenciales

En este otro, lo mismo, pero con un bloqueo de la solicitud, para que no se puedan enviar datos a ChatGPTporque la política de gestión de la información lo prohíbe.

Figura 8: LeakGuardIAn bloquea el envío de datos confidenciales

Este proyecto fue sólo un prueba de concepto evaluar qué herramientas o política de gestión de la información podríamos utilizar ante la posible amenaza de fuga de información mediante el envío de datos a ChatGPTalgo que puede suceder en cualquier otro ámbito, en WhatsApp, Google o quién sabe en qué lugar, pero por supuesto si son equipos corporativos puede ser una buena fuente para monitorear el comportamiento de los empleados sigan o no las políticas corporativas.

¡Saludos malvados!

ff77b4abcf.jpg
 
For Latest Updates Follow us on Google News
 

PREV ¿Qué esperar de la Keynote de Apple del 7 de mayo de 2024? Nuevo iPad Pro OLED, Magic Keyboard y Pencil 3 – .
NEXT Nvidia agrega nuevas capacidades de visión, habla y lenguaje a ChatRTX, un chatbot local gratuito para PC con tarjetas gráficas Nvidia RTX.