PrivateGPT es un modelo de código abierto que permite a los usuarios hacer preguntas basadas en sus propios documentos, sin conexión a Internet.
Esta herramienta, creada por el desarrollador Iván Martínez Toro, es un sistema de respuesta a preguntas que opera de manera completamente privada, sin necesidad de Internet. No requiere de conexión a la red ni envía datos a través de ella, lo que previene de posibles “leaks” o filtraciones indeseadas. Nuestra conversación, nuestros datos o nuestras respuestas no son compartidas con nadie
Según se explica en Wwwhatsnew, esto se logra mediante el uso de LLMs, específicamente el modelo GPT4All-J, y una base de datos local de vectores de texto. El funcionamiento de PrivateGPT se divide en dos componentes principales: la ingestión de documentos y la formulación de pregunta
La ingestión se realiza a través de un proceso local en el cual se parsean los documentos y se generan los embeddings correspondientes, que se almacenan en una base de datos de vectores. Por otro lado, la formulación de preguntas se realiza utilizando el modelo LLM, que procesa las consultas y brinda respuestas basadas en el contexto extraído de la base de datos local.
Modelo de prueba
De momento, PrivateGPT es solo un modelo de prueba, pero sus creadores no descartan un mayor desarrollo dadas las necesidades que este nuevo modelo de chat puede llegar a cubrir, “»Es fácil imaginar el potencial de convertir esta prueba en un producto real que haga posible que las empresas obtengan el impulso de productividad que supone tener acceso a su propio ChatGPT personalizado, seguro y privado», dice Martínez Toro.
Toro asegura que creó esta aplicación después de ver lo valioso que es ChatGPT en el lugar de trabajo. «Los departamentos de Personal y Jurídico de mi empresa actual habían tenido acceso a ChatGPT durante un par de semanas y al final nos quedamos sin créditos; ambos se pusieron en contacto conmigo para pedirme que les devolviera el acceso porque no querían volver a hacer el trabajo sin él», dijo el diseñador. Toro también añadió que las experiencias de sus colegas se hicieron aún más difíciles cuando el departamento jurídico quiso resumir un documento legal privado utilizando ChatGPT, pero no pudo debido a los riesgos de privacidad.
La privacidad se ha convertido en una de las principales preocupaciones de los modelos de inteligencia artificial generativa. Un ejemplo de ello es la importante filtración de datos a través de chats LLM que se produjo el pasado mes de abril, cuando tres empleados de Samsung en Corea filtraron accidentalmente información sensible a ChatGPT.
Un empleado compartió código fuente confidencial para comprobar si había errores, otro pidió a ChatGPT que optimizara su código y un tercero compartió una grabación de una reunión y pidió al chatbot que la convirtiera en notas. La política de datos de OpenAI dice que utiliza datos de consumidores ajenos a la API para mejorar sus modelos, sin embargo, esto se puede desactivar en la configuración de ChatGPT. Bloomberg informó de que, tras este incidente, la publicación prohibió el uso de IA generativa y está intentando crear su propio modelo para evitar que esto vuelva a ocurrir.
Y es que los daños de un ataque informático no son un tema menor. España fue el tercer país a nivel mundial en materia de ciberataques en 2022, según un estudio de Deloitte. Solo Turquía y Japón le superan en peligrosidad. Además, el 94% de las empresas españolas ha sufrido al menos un incidente grave en materia de ciberseguridad en el último año.
Fuentes:
https://www.escudodigital.com/es-privategpt-chatgpt-no-necesita-conectarse-internet_55615_102.html