Se ha descubierto que los modelos de lenguaje generativos utilizados en inteligencia artificial pueden ser explotados para desarrollar malware que evite las reglas YARA. Según un informe compartido por Recorded Future, esto podría permitir a los atacantes modificar el código fuente de un malware conocido sin alterar su funcionalidad original con el fin de eludir la detección basada en cadenas de texto. Aunque estos modelos tienen limitaciones en la cantidad de información que pueden procesar, los actores malintencionados ya están experimentando con estas herramientas para crear phishing, ataques de reconocimiento y fragmentos de malware.
El uso de inteligencia artificial generativa también se ha demostrado que puede crear deepfakes, suplantar la identidad de ejecutivos y emular sitios web de gran escala. Además, estas herramientas pueden acelerar la capacidad de los atacantes para realizar reconocimientos de infraestructuras críticas y extraer información de interés estratégico para futuros ataques. La compañía de ciberseguridad menciona que las organizaciones deben revisar las imágenes y los videos públicos que muestren equipos sensibles y borrarlos si es necesario para reducir los riesgos que plantean estas amenazas.
Finalmente, se ha demostrado que es posible «jailbreakear» las herramientas de inteligencia generativa y crear contenido peligroso utilizando arte ASCII como entrada. Este ataque, conocido como ArtPrompt, utiliza el bajo rendimiento de estos modelos para reconocer el arte ASCII y burlar las medidas de seguridad para obtener comportamientos no deseados de los modelos generativos. Se considera necesaria una mayor conciencia sobre los riesgos y una solución a este problema para garantizar la ciberseguridad adecuada.
Vía The Hacker News
La entrada Desde Deepfakes hasta Malware: El papel en expansión de la IA en los ciberataques se publicó primero en News Bender Daily.