Conecta con nosotros

Noticias

Crece la venta de cuentas Premium robadas de ChatGPT en la Dark Web

Publicado el

Crece la venta de cuentas Premium robadas de ChatGPT en la Dark Web 1

Check Point Research ha alertado en su último estudio sobre el aumento de las prácticas delictivas relacionadas con ChatGPT. Los ciberdelincuentes estarían robando las contraseñas de las cuentas Premium de los usuarios para librarse de las restricciones de geofencing (limitación de uso en base a la ubicación geográfica) impuestas por OpenAI.

En base a esto se estaría creando un mercado ilegal en la Dark Web en el que los ciberdelincuentes expondrían sus éxitos de manera gratuita, para ganar nuevos clientes, o bien cobrando por ofrecer acceso ilimitado a las funciones más eficientes de esta herramienta de inteligencia artificial. Además, pueden valerse de la opción Premium de ChatGPT para producir contenido falso, aumentar la desinformación e implantar nuevos ataques cibernéticos.

MS Recomienda

Estudio sobre ciberseguridad en la empresa española ¡Participa en nuestra encuesta y gana!
Estudio "La virtualización en las empresas españolas" ¡Descárgate el informe!
Gestiona los dispositivos de tu empresa de forma inteligente Leer

Los problemas de privacidad y de seguridad en línea de ChatGPT vienen afectando a OpenAI desde meses atrás, algo que le ha llevado incluso a su prohibición en Italia y a una amenaza de bloqueo en Alemania y en otros países miembros de la Unión Europea. Esta situación genera un grave riesgo tanto para empresas como particulares, derivando en cuantiosas pérdidas económicas para la compañía.

La Agencia Española de Protección de Datos (AEPD) ha iniciado recientemente una investigación para detectar posibles incidencias en la privacidad de los datos de los usuarios relacionados con el robo de cuentas de ChatGPT. Una situación que demuestra la preocupación incipiente por la falta de transparencia y de control de esta herramienta.

La clave del problema

Para los investigadores de Check Point Research, la raíz del problema se encuentra en que muchos usuarios reutilizan las mismas contraseñas para diferentes plataformas. Entonces los hackers se valen de sus extensas bases de datos de correos electrónicos y contraseñas distribuidos por la Dark Web hasta que logran acceder a las cuentas Premium de ChatGPT al haber coincidencias.

Desde Check Point Research se ha puesto en funcionamiento el uso de un verificador de cuentas denominado SilverBullet, un software capaz de detectar irregularidades mediante la realización de pruebas web como la extracción, análisis de datos, pruebas de pentesting automatizadas o pruebas unitarias con Selenium. El problema es cuando los ciberdelincuentas se valen de esta eficaz herramienta para acometer ataques de verificación de credenciales y robar cuentas.

Sergey Shukevich, Threat Intelligence Group Manager de Check Point Research, asegura que la IA es una herramienta poderosa que, de un modo ético y legal, puede ayudar a detectar y bloquear ciberataques en tiempo real.

Los problemas que presenta ChatGPT

Además de su herramienta de escritura, la de creación de imagen mediante inteligencia artificial, DALL-E, también supone un grave riesgo para la seguridad de usuarios y empresas. OpenAI es consciente de este problema, pues la deep web está siendo utilizada para difundir información sobre cómo crear herramientas para cometer delitos digitales.

Borja Sánchez, Cibersecurity & Business Resilence Senior Manager en Marsh España, ha señalado en su última investigación que el phishing, el robo de identidad y de información personal/financiera, la creación de información falsa o los discursos de odio son solo algunas de las actividades ilegales que se pueden ejecutar con estas herramientas de IA en las manos inadecuadas.

Sin ir más lejos, ChatGPT puede ayudar a crear una herramienta fraudulenta de forma sencilla, entrando en el sistema de una empresa o particular vulnerable, buscar información y crear una copia de esos archivos para enviarlos mediante FTP.

El propio Elon Musk ha calificado como muy peligroso el chatbot de OpenAI y se ha sumado al manifiesto firmado por más de un millar de expertos que señalan los riesgos de seguridad que supone el desarrollo de la inteligencia artificial sin límites, entre ellos el nuevo GPT-4.

Otro de los riesgos que presenta ChatGPT es su enorme capacidad para generar textos de forma natural, sean reales o inventados, y en muchas ocasiones con contenidos ofensivos o vulnerando derechos de autor y la propiedad intelectual. De igual modo, puede colaborar con los ciberdelincuentes en la ejecución de un código malicioso de forma remota, redactando líneas de código en varios lenguajes de programación como Python o Java.

El futuro pasa por utilizar estas herramientas innovadoras y prácticas para el día a día de una forma ética y responsable, algo que también va vinculado al refuerzo de los sistemas de seguridad para evitar el acceso a las cuentas y la propagación de un mercado clandestino en la Dark Web.

Lo más leído