Conecta con nosotros

Noticias

ChatGPT, la herramienta preferida por los hackers para escribir malware

Publicado el

ChatGPT, la herramienta preferida por los hackers para escribir malware 1

Aunque en sus orígenes fue ideada para desarrollar artículos, tesis y ensayos científicos, los script kiddies han visto en la herramienta de IA de OpenAI una vía accesible para producir malware funcional y verterlo en diferentes foros de la Dark Web. Estas conclusiones han sido extraídas por el último estudio realizado por los investigadores de ciberseguridad de Check Point Research (CPR).

De este modo, ChatGPT facilitaría el acceso al ciberdelito y cualquier usuario, siguiendo unas indicaciones básicas, podría crear malware y ransomware. De hecho, uno de los usuarios de este tipo de foros explicó que usó la herramienta de IA para crear un mercado de compra-venta de bienes ilegales y robados, así como para compartir datos de pago, software malicioso, drogas y armas. Resulta curioso, pero ChatGPT le ayudó incluso a modificar los precios actuales de las criptomonedas de cara a las nuevas transacciones.

MS Recomienda

Estudio sobre ciberseguridad en la empresa española ¡Participa en nuestra encuesta y gana!
Estudio "La virtualización en las empresas españolas" ¡Descárgate el informe!
Gestiona los dispositivos de tu empresa de forma inteligente Leer

El problema reside en que los hackers comiencen a incorporarle mejoras a la estructura de OpenAI y a desarrollar cada vez códigos maliciosos más nocivos e indetectables a través de mensajes de spam, correos electrónicos o mediante la técnica del phishing.

Los expertos tenían constancia de que la Universidad de Nueva York había prohibido su uso al ser empleado por los estudiantes para realizar trabajos en cuestión de minutos. El problema es que ChatGPT roza la legalidad, ya que no se considera plagio y ofrece una respuesta diferente a cada usuario. Por todo ello, la institución prohibió el acceso a la IA desde su red de Internet.

El primer código malicioso

Pero una cosa es la picaresca y otra el efecto malicioso que se está pretendiendo con ChatGPT por parte de hackers expertos y novatos. Los analistas de CPR detectaron que el primer código malicioso que escribió un usuario era complejo. Con IA pueden obtenerse códigos benignos, pero bastará con modificar los problemas de script y sintaxis para obtener dichos resultados.

Consistía en un código de Python que combinaba varias funciones criptográficas, incluida la firma de código, el cifrado y el descifrado. Con una parte del script se generaba una clave usando criptografía de curva elíptica y la curva ed25519 para firmar archivos. Otra parte se sirvió de una contraseña codificada para cifrar los archivos del sistema empleando algoritmos de Blowfish y Twofish, mientras que un tercero usó claves RSA y firmas digitales, firma de mensajes y la función hash blake2 para comparar diferentes archivos.

Como resultado, ChatGPT generó un script que se podía utilizar para:

  • Descifrar un único archivo y agregarle un código de autenticación de mensajes (MAC).
  • Cifrar una ruta codificada.
  • Descifrar una lista de archivos que recibe como un argumento.

A este primitivo le siguieron otros escritos con ChatGPT. El primero era un script de Python para el robo de información posterior a la explotación, buscando para ello archivos específicos como PDF que copiará, comprimiría y enviaría posteriormente a un servidor controlado por un atacante.

El segundo código generado fue una pieza escrita en Java. A partir de la descarga de SSH y PuTTY se ejecutó usando Powershell, es decir, empleó ChatGP con técnicas maliciosas y se dedicó a formar al resto de usuarios en ello.

En el informe de Check Point se ha llegado incluso a reconocer que la compañía utilizó ChatGPT hace dos meses para producir por IA un malware que fuese inserto en un archivo de Excel adjunto a un correo electrónico de phishing, el cual iría perfeccionándose conforme el código era iterado. Incluso puede ser utilizada la herramienta para consultar a VirusTotal la cantidad de detecciones de un hash criptográfico específico.

Posteriormente, los investigadores de Check Point utilizaron otro servicio de IA (Codex) para desarrollar otros malware como shell inverso y scripts para escanear puertos, detectar sandbox y compilar su código Python en un ejecutable de Windows.

Así pues, y aunque existen limitaciones legales para el uso delictivo de la IA, la piratería informática ha visto en ChatGPT y en este tipo de recursos una vía para impulsar sus acciones delictivas.

Lo más leído