Los complementos de terceros de ChatGPT podrían provocar la usurpación de cuentas News Bender Daily

Tabla de contenido

Investigadores de seguridad han descubierto que los complementos de terceros de OpenAI ChatGPT pueden actuar como una nueva superficie de ataque para los actores de amenazas. Según Salt Labs, se encontraron vulnerabilidades en ChatGPT y en el ecosistema que podrían permitir que los atacantes instalaran complementos maliciosos sin el consentimiento de los usuarios y tomar el control de cuentas en sitios web de terceros como GitHub.

Los complementos de ChatGPT son herramientas diseñadas para trabajar en el modelo de lenguaje grande (LLM), con el objetivo de acceder a información actualizada, realizar cálculos o acceder a servicios de terceros. OpenAI ha introducido GPT, versiones personalizadas de ChatGPT adaptadas a casos de uso específicos, al tiempo que reduce las dependencias del servicio de terceros. Los usuarios de ChatGPT ya no podrán instalar nuevos complementos ni crear nuevas conversaciones con complementos existentes a partir del 19 de marzo de 2024.

Una vulnerabilidad descubierta implica explotar el flujo de trabajo OAuth para engañar al usuario y que instalen un complemento arbitrario. ChatGPT no valida que el usuario haya iniciado la instalación del complemento, lo que podría permitir que los actores de amenazas intercepten y extraigan todos los datos compartidos por la víctima, que podrían contener información propietaria.

Salt Labs también descubrió problemas en PluginLab que podrían permitir a los actores de amenazas realizar ataques de apropiación de cuenta de clic cero y acceder a los repositorios de código fuente de una organización en sitios web de terceros como GitHub. En particular, se encontró un problema en «‘auth.pluginlab[.]ai/oauth/autorizado’ no autentica la solicitud, lo que significa que el atacante puede insertar otro memberId (aka la víctima) y obtener un código que representa a la víctima».

Para contrarrestar la efectividad del ataque de canal lateral, se recomienda que las empresas que desarrollan asistentes de AI apliquen un relleno aleatorio para ocultar la longitud real de los tokens, transmitan tokens en grupos más grandes en lugar de individualmente y envíen respuestas completas a la vez, en lugar de token por token. Los investigadores concluyeron que enfrentar la seguridad con la usabilidad y el rendimiento presenta un desafío complejo que requiere una consideración cuidadosa.

Vía The Hacker News

La entrada Los complementos de terceros de ChatGPT podrían provocar la usurpación de cuentas se publicó primero en News Bender Daily.

INFORMACION DEL PUBLICADOR
Kamal Majaiti
Kamal Majaiti
Administrador de sistemas e informático por vocación.
COMPARTELO EN REDES
Publica un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.