ChatGPT ha logrado crear cosas divertidas e hilarantes en las manos adecuadas, como esta Boca grande Billy Bass proyecto. Sin embargo, hay un lado mucho más oscuro de la IA que podría usarse para crear algunos problemas muy complicados para el futuro de la TI. Algunos expertos en TI han descrito recientemente el potencial peligroso de ChatGPT y su capacidad para crear malware polimórfico que es casi imposible de detectar mediante la detección y respuesta de punto final (EDR).
EDR es un tipo de técnica de ciberseguridad que se puede implementar para capturar software malicioso. Sin embargo, los expertos sugieren que este protocolo tradicional no es rival para el daño potencial que puede crear ChatGPT. El código que puede mutar (aquí es donde entra el término polimórfico) puede ser mucho más difícil de detectar.
La mayoría de los modelos de aprendizaje de idiomas (LLM), como ChatGPT, están diseñados con filtros para evitar la generación de contenido inapropiado según lo consideren sus creadores. Esto puede variar desde temas específicos hasta, en este caso, código malicioso. Sin embargo, los usuarios no tardaron mucho en encontrar formas de eludir estos filtros. Es esta táctica la que hace que ChatGPT sea particularmente vulnerable para las personas que buscan crear scripts maliciosos.
Jeff Sims es ingeniero de seguridad en HYAS InfoSec, una empresa enfocada en la seguridad de TI. En marzo, Sims publicó un libro blanco que detalla un proyecto de prueba de concepto que llama Mamba negro. Esta aplicación es una especie de keylogger polimórfico que envía solicitudes a ChatGPT utilizando una API cada vez que se ejecuta.
«Usando estas nuevas técnicas, un actor de amenazas puede combinar una serie de comportamientos típicamente altamente detectables en una combinación inusual y evadir la detección al explotar la incapacidad del modelo para reconocerlo como un patrón malicioso», explica Sims.
Otra empresa de ciberseguridad, CyberArkNombre, demostró recientemente la capacidad de ChatGPT para crear este tipo de malware polimórfico en una publicación de blog de Eran Shimony y Omer Tsarfati. En la publicación, explican cómo inyectar código de las solicitudes de ChatGPT permite modificar los scripts una vez activados, evitando las técnicas más modernas utilizadas para detectar comportamientos maliciosos.
Por el momento, solo tenemos estos ejemplos como prueba de concepto, pero esperamos que esta conciencia conduzca a más desarrollos para evitar el daño que este tipo de código mutante puede causar en un escenario del mundo real.