Buscar

ChatGPT: ¿Una herramienta para ciber operaciones ofensivas? ¡No tan rápido!

Por: John Borrero Rodriguez*

¿Utilizar el ChatGPT o no utilizar el ChatGPT? Esa es la cuestión predominante en el panorama  cibernético estos días. No es sorpresa que los bots de Inteligencia Artificial (IA) hayan tomado a  la sociedad por asalto. Por el contrario, FAIR de Meta, LaMDA de Google, Watson de IBM y  Cortana de Microsoft, son ejemplos de diferentes grados variables de bots de inteligencia  artificial. Watson debutó incluso en el popular programa “Jeopardy” en febrero de 2011. La  Inteligencia Artificial no es un concepto nuevo; lo que es nuevo es que el ChatGPT es fácilmente  accesible para millones de personas alrededor del mundo y no requiere de pagar una alta tarifa  para usarlo. Aún así, ha sido aclamado como algo novedoso que podría ser una amenaza  inmediata, ya que puede ser utilizado por actores de ciber amenazas para facilitar los ataques. 

¿Un elegante escritor de malware o tan solo un código pobremente conceptualizado? 

La habilidad del ChatGPT para escribir malware es limitada, durante su presentación el internet  estaba plagado con ejemplos de “malware” escrito por la plataforma. Al momento de escribir este  artículo, está severamente limitado si no completamente bloqueado. Dadas las recientes  actualizaciones a su modelo y la política de uso, se puede limitar su habilidad para hacer mucho  de algo con excepción de su propósito designado. 

En un intento por forzar al modelo a escribir una plantilla que pudiera ser usada para malware,  resultó en una arquitectura básica servidor-cliente. El código del servidor puede verse en la  Figura 2. ¿Es realmente útil para crear una implementación de comandos y control? No, hay  otras avenidas para encontrar marcos y repositorios en internet que están fuera del alcance de  este artículo.  

De acuerdo con el Investigador Principal Senior, Richard Johnson, una oportunidad potencial es  darle al ChatGPT detalles de una campaña de inteligencia de open-source en un objetivo  específico, y dejarlo crear plantillas de ingeniería social. Este es un mejor uso de las actuales  capacidades y una que potencialmente ya se está aplicado en el mundo. 

Los escritores y los que defienden del malware están constantemente en el juego de “el gato y  el ratón”. Nuevas técnicas se implementan a un ritmo rápido por actores avanzados de amenazas  y los defensores se apresuran a entenderlas. Esto requiere profunda comprensión e investigación  de aplicaciones y sistemas operativos internos.

El copilot GitHub de Microsoft facilita la escritura del código usando OpenAI Codex e ingiriendo  todos los repositorios de códigos públicos GitHub. Luego va a través de un modelo de predicción  y sugiere un código para el escritor. El escritor puede solo agregar comentarios al código y el  copilot sugerirá un código funcional. Una distinción importante es que el copilot de Microsoft

utiliza el OpenAI Codex. Este modo está diseñado específicamente para generar códigos. El  ChatGPT está diseñado para texto conversacional. En una comparación, copilot eclipsa al  ChatGPT en capacidad de herramientas ofensivas. Tan solo al darle la intención del código  deseado, copilot puede sugerir un código funcional. Dado que se alimenta directamente al  entorno de desarrollo, el código puede compilarse en un ejecutable. La extensión de copilot está  disponible para una multitud de lenguajes de programación, haciéndolo versátil para la  generación de malware dirigido, aunque un autor hábil necesita asegurar una funcionalidad  adecuada. Un ejemplo básico del uso de copilot puede observarse abajo en la Figura 3. 

Conclusión 

Los actores de amenazas avanzados han demostrado constantemente un nivel de experiencia y  delicadeza necesarios para lograr sus objetivos. El ChatGPT ofrece un método mediocre no  intencional para que actores de amenazas compongan un malware mal escrito. Tome un  adversario en constante evolución como Turla, cuyas capacidades se han movido de usar el  arcaico PowerShell a ejecutar su nuevo malware Kazuar and .NET obfuscator. Un adversario  bien definido entiende las huellas y capacidades de sus objetivos, que es un defecto del  ChatGPT. En varias pruebas, el malware creado por el ChatGPT no era funcional o  inmediatamente detectado por las soluciones de seguridad de Trellix, demostrando su falta de  originalidad y creatividad requeridas en el cambiante panorama de amenazas actual. El modelo  ofreció un excelente plano para ayudar a entender diferentes métodos de implementar soluciones  de software, pero está muy lejos de ser un producto viable para operaciones ofensivas. 

Descargo de responsabilidad 

Este documento y la información contenida en él, describe la investigación de seguridad de  computadores con propósitos educativos solamente y para la conveniencia de los clientes de  Trellix. Cualquier intento por recrear parte o todas las actividades descritas, es bajo el riesgo del  usuario y ni Trellix ni sus afiliados tendrán ninguna responsabilidad o compromiso.

*John Borrero Rodriguez es Investigador Senior de seguridad ofensiva en el Centro de Investigación  Avanzada de Trellix. Trellix es la empresa resultado de la fusión entre McAfee Enterprise y FireEye,  creando así una de las empresas de ciberseguridad más grandes del mundo.