• Home /

  • Qué es PrivateGPT, el ChatGPT que no necesita conectarse a Internet

Qué es PrivateGPT, el ChatGPT que no necesita conectarse a Internet

PrivateGPT es un modelo de código abierto que permite a los usuarios hacer preguntas basadas en sus propios documentos, sin conexión a Internet.

Gonzalo Díaz Bonet.

Especialista en Tecnología y Sostenibilidad.

Guardar

La irrupción de ChatGPT está vertiendo ríos de tinta. O, por adecuarnos mejor a los tiempos, millones de bits en las redes sociales y publicaciones online. Hay quién está a favor, hay quién está en contra y quién se declara agnóstico al respecto. Empresas como Samsung, JPMorgan, Apple y Amazon han prohibido a sus empleados el uso de ChatGPT por miedo a que se filtre su información confidencial, y países como Italia bloqueó por un tiempo este sistema de inteligencia artificial por no respetar la normativa en materia de protección de datos. 

Pese a sus múltiples virtudes, el servicio desarrollado por OpenAI genera recelos. En especial entre las personas y las compañías más preocupadas por la privacidad de tus datos. Pero ahora existe una alternativa para quienes se asustan ante la idea de compartir información personal con un chatbot en línea. PrivateGPT es un modelo de código abierto que permite a los usuarios hacer preguntas basadas en sus propios documentos, sin conexión a Internet. 

Esta herramienta, creada por el desarrollador Iván Martínez Toro, es un sistema de respuesta a preguntas que opera de manera completamente privada, sin necesidad de Internet. No requiere de conexión a la red ni envía datos a través de ella, lo que previene de posibles “leaks” o filtraciones indeseadas. Nuestra conversación, nuestros datos o nuestras respuestas no son compartidas con nadie 

Según se explica en Wwwhatsnew, esto se logra mediante el uso de LLMs, específicamente el modelo GPT4All-J, y una base de datos local de vectores de texto. El funcionamiento de PrivateGPT se divide en dos componentes principales: la ingestión de documentos y la formulación de preguntas.  

La ingestión se realiza a través de un proceso local en el cual se parsean los documentos y se generan los embeddings correspondientes, que se almacenan en una base de datos de vectores. Por otro lado, la formulación de preguntas se realiza utilizando el modelo LLM, que procesa las consultas y brinda respuestas basadas en el contexto extraído de la base de datos local. 

Modelo de prueba 

De momento, PrivateGPT es solo un modelo de prueba, pero sus creadores no descartan un mayor desarrollo dadas las necesidades que este nuevo modelo de chat puede llegar a cubrir, “"Es fácil imaginar el potencial de convertir esta prueba en un producto real que haga posible que las empresas obtengan el impulso de productividad que supone tener acceso a su propio ChatGPT personalizado, seguro y privado", dice Martínez Toro.

Toro asegura que creó esta aplicación después de ver lo valioso que es ChatGPT en el lugar de trabajo. "Los departamentos de Personal y Jurídico de mi empresa actual habían tenido acceso a ChatGPT durante un par de semanas y al final nos quedamos sin créditos; ambos se pusieron en contacto conmigo para pedirme que les devolviera el acceso porque no querían volver a hacer el trabajo sin él", dijo el diseñador. Toro también añadió que las experiencias de sus colegas se hicieron aún más difíciles cuando el departamento jurídico quiso resumir un documento legal privado utilizando ChatGPT, pero no pudo debido a los riesgos de privacidad.  

La privacidad se ha convertido en una de las principales preocupaciones de los modelos de inteligencia artificial generativa. Un ejemplo de ello es la importante filtración de datos a través de chats LLM que se produjo el pasado mes de abril, cuando tres empleados de Samsung en Corea filtraron accidentalmente información sensible a ChatGPT.  

Un empleado compartió código fuente confidencial para comprobar si había errores, otro pidió a ChatGPT que optimizara su código y un tercero compartió una grabación de una reunión y pidió al chatbot que la convirtiera en notas. La política de datos de OpenAI dice que utiliza datos de consumidores ajenos a la API para mejorar sus modelos, sin embargo, esto se puede desactivar en la configuración de ChatGPT. Bloomberg informó de que, tras este incidente, la publicación prohibió el uso de IA generativa y está intentando crear su propio modelo para evitar que esto vuelva a ocurrir.  

Y es que los daños de un ataque informático no son un tema menor. España fue el tercer país a nivel mundial en materia de ciberataques en 2022, según un estudio de Deloitte. Solo Turquía y Japón le superan en peligrosidad. Además, el 94% de las empresas españolas ha sufrido al menos un incidente grave en materia de ciberseguridad en el último año.   

Para minimizar estos daños, existen plataformas como Armatum capaces de calcular el riesgo que supone un ciberataque y traducirlo a lenguaje financiero. Esto permite al Responsable de Seguridad entablar conversaciones significativas con la dirección ejecutiva y otros departamentos sobre el impacto comercial de los incidentes y de las medidas de seguridad que los previenen. Utilizar lo mejor de la tecnología, pero sin caer en riesgos innecesarios.