A finales de 2022, ChatGPT sorprendía a todos y todavía lo continúa haciendo. Esta Inteligencia Artificial (IA) ha marcado un antes y un después, ya que es capaz de mantener una conversación similar a la de un humano y redactar textos bien escritos. Aunque es cierto que siempre conviene verificar la información y de que las repeticiones son, en ocasiones, excesivas, lo cierto es que ha supuesto un gran avance.
Por eso, la semana pasada la compañía OpenAI anunciaba que lanzaba una nueva versión: ChatGPT-4. Con ella pretende que esta IA sea aún más humana y precisa en los datos que brinda. Pero, ha empezado a preocupar el uso que se le pueden dar los hackers. Por ejemplo, para escribir correos electrónicos de phishing o crear malware cifrado que pueda suponer una amenaza para las organizaciones.
MS Recomienda
ChatGPT y los ataques de phishing ¿una garantía del éxito?
Las empresas son vulnerables al phishing y los atacantes pueden aprovecharse de ChatGPT puede escribir emails para emplearlos con fines poco éticos: solicitar información bancaria, suplantar identidad, robar datos, etc. Sin embargo, Ryan Kalember, vicepresidente ejecutivo de ciberseguridad de Proofpoint ha explicado que “ahora mismo, con sus capacidades actuales, esta preocupación es una exageración”.
Y es que, en realidad, no hay ninguna diferencia entre un mensaje de phishing enviado por correo electrónico por una persona real o generado por esta inteligencia artificial. Elegir a ChatGPT no significaría tener un mayor éxito, ya que entran otras variables en juego como que la víctima proporcione la información que se le solicita o que acceda al enlace que suele haber en este tipo de correos electrónicos malintencionados.
Además, Ryan Kalember aclara que “muchos correos electrónicos de ingeniería social no están diseñados para ser perfectos, sino que están deliberadamente mal escritos para que sea más probable que la gente los abra”. En el caso de ChatGPT, esto no sucede. Si bien puede haber una falta del uso de sinónimos que conviertan al texto en repetitivo, a veces, estos no carecen de rigor y corrección lingüística.
El malware escrito por una inteligencia artificial
Además del phishing, otra de las grandes preocupaciones en materia de ciberseguridad es la posibilidad de que ChatGPT pueda escribir malware cifrado. Esto le ahorraría tiempo a los ciberdelincuentes y, además, podría hacer que sus ataques fuesen más eficaces. Al menos, esto es lo que se piensa, ya que esta IA tiene algunas limitaciones.
Por ejemplo, Ryan Kalember comparte que “un hacker necesita algo que funcione una y otra vez; y esta tecnología no puede rotar constantemente su infraestructura, dominios y elementos para ser captada por expertos en ciberseguridad”. Por lo tanto, no resultaría útil para el fin para el que se quiere emplear.
Asimismo, el vicepresidente ejecutivo tranquiliza informando de que “el malware escrito por ChatGPT no evade sistemas EDR (Endpoint Detection Response) de protección de equipos o infraestructuras, ni infecta una máquina de forma más eficaz que otras herramientas ya existentes”. Por ello, no habría que temer el uso de esta tecnología, ya que su éxito no será mayor por utilizarla.
ChatGPT no mejora los ataques actuales
A pesar de que ChatGPT ha sorprendido al mundo, parece que no hay que preocuparse porque pueda hacer que los ataques de phishing o la escritura del malware tengan un mayor éxito. Y es que, como concluye Ryan Kalember, “los atacantes podrían utilizar este sistema de chat para mejorar la gramática o llevar a cabo ataques de ingeniería social en los que haya una conversación prolongada con la víctima, pero esto no les daría ninguna ventaja frente a los sistemas de detección de ciberataques”.
Habrá que esperar para comprobar si esto realmente se cumple, aunque por el momento no parece que haya nada que temer. Sin embargo, puede que en el futuro, y con las actualizaciones de mejora de esta inteligencia artificial, las circunstancias terminen cambiando y la ciberseguridad y ChatGPT no puedan ser compatibles.