Vivimos en una nueva era de ciberseguridad con amenazas que tienen consecuencias en el mundo real.
Aunque la IA (Inteligencia Artificial) no es una nueva tecnología, con la IAG (Inteligencia Artificial Generativa) cruzamos un nuevo umbral que los ciberdelincuentes también aprovechan. La IAG no cambiará el cibercrimen de forma inminente, pero lo escalará.
La IAG le permitirá a los cibercriminales ejecutar más ataques en menos tiempo, optimizar sus operaciones y a medida que sus capacidades de IA maduren, podrán ser más precisos en sus ataques. Algunos ejemplos de cómo los capitalizarán la IA: phishing diseñado por IA, LLMs maliciosos, envenenamiento de la IA y Deep Fakes
Ante los riesgos relacionados con la IA, la visión de la seguridad hace la diferencia.
Los cibercriminales están usando la IA para atacar a las organizaciones o están atacando directamente a la IA de las organizaciones. Por eso, desde IBM se propone una visión en doble vía: seguridad para IA e IA para seguridad.
Seguridad para la IA
IBM presentó su framework para proteger la IA generativa. Puede ayudar a clientes, aliados y organizaciones de todo el mundo a comprender mejor los ataques más probables a la IA y priorizar los enfoques defensivos (que son más importantes), para proteger rápidamente sus iniciativas de IA Generativa. Consta de 5 etapas relevantes:
· Proteger los datos: A medida que las empresas centralizan y recopilan cantidades masivas de datos para obtener el máximo valor de la IAG, esa centralización también introduce nuevos riesgos.
· Proteger el modelo y su entrenamiento: Las empresas deben evaluar y gestionar los riesgos de seguridad que se presentan durante el desarrollo y entrenamiento de los modelos de IA.
· Proteger el uso: Las fases de inferencia y uso de los modelos de IA, están maduras para los ataques de inyección de prompts (robo de modelos y ataques de negación de servicios de los modelos).
· Proteger la infraestructura: No debemos olvidar el papel de la infraestructura tecnológica como la primera línea de defensa y como vector de amenaza en sí mismo.
· Establecer gobernanza: A medida que las organizaciones llevan sus procesos de negocio a la IA, deben garantizar que la IA actúe como se espera. No solo deben preocuparse por cibercriminales, sino también por si el modelo se está desviando operativamente de aquello para lo que fue diseñado. Por lo tanto, IBM no solo proporciona seguridad para la IA, también gobernanza para la IA para garantizar que las iniciativas de IA sean seguras y confiables (watsonx.governance).
IA para la seguridad
Las capacidades de software o servicios impulsadas por la IA aceleran los resultados de seguridad y combinadas con automatización, generan un impacto aún mayor. De hecho, las organizaciones en Latinoamérica que usaron extensivamente seguridad impulsada por IA y automatización vieron ciclos de vida 94 días más cortos en las filtraciones de datos y ahorraron US $1,04 millones en costos en comparación con quienes no las desplegaron.
El impacto inmediato que tiene IAG en las defensas de ciberseguridad es una mejora sustancial de productividad, tanto a nivel humano como programático y tecnológico. Esto es particularmente importante, considerando que la brecha de profesionales en seguridad aumentó en el mundo, pasando de 3,4 millones a 4 millones en 2023 (ISC2).
A medida que la adopción de la IAG crezca y las innovaciones evolucionen, también va a madurar la orientación de seguridad, pero es clave reconocer que ya contamos con importantes herramientas, protocolos y estrategias para el despliegue seguro de la IA y para aprovechar la IA en seguridad.
Tendencias de seguridad para 2024
2024 será el año del engaño
Este será un año movido, con tensiones geopolíticas, comicios importantes y los Juegos Olímpicos de París en tan sólo unos meses. Es la tormenta perfecta para campañas de desinformación a un nivel totalmente nuevo. Los ciberdelincuentes tienen lo que necesitan para engañar a los usuarios desprevenidos, consumidores e incluso a funcionarios públicos, a través de tácticas de engaño diseñadas por IA. Estamos a punto de ver deepfakes, audio fakes y phishing muy convincente para engañar, para que los ciberdelincuentes avancen en sus objetivos.
La IA Generativa podría facilitar la «adquisición de clientes» para los ciberdelincuentes
Hasta ahora, los ciberdelincuentes han estado muy limitados en cómo pueden monetizar sus «botines de datos», pero todo eso está a punto de cambiar gracias a la IAG. Esta ayudará a filtrar, correlacionar y categorizar esos enormes conjuntos de datos y organizarlos de forma programática para que los ciberdelincuentes creen perfiles de objetivos potenciales. La capacidad de la IAG para optimizar la selección de objetivos no es diferente a la manera en la que mejora la adquisición de clientes en marketing, es solo una perspectiva diferente de legalidad.
Hay que prepararse para la versión de IA del Gusano Morris
Se cree ampliamente que el Gusano Morris fue el primer ciberataque comunicado en la historia, en 1988. Fue el primer malware autorreplicable que afectó Internet. En un plazo relativamente corto se podrá ver un incidente como el «Gusano Morris» en el que se confirme el uso de la IA para escalar una campaña malintencionada. Con la generalización de las plataformas de IA en las empresas, los adversarios empezarán a probar las nacientes superficies de ataque de la IA y aumentará a medida que la adopción de la IA empieza a escalarse.
La priorización de los datos críticos será la acción principal para los líderes de seguridad en 2024
Las empresas comienzan a incorporar la IAG en su infraestructura, por lo que están lidiando con un nuevo riesgo al centralizar diferentes tipos de datos en los modelos de IA, el acceso de diferentes personas a esos modelos y los datos que están ingiriendo, así como la inferencia real y el uso activo del modelo. Este riesgo impulsará a los CISO a redefinir qué datos pueden introducir una amenaza existencial a la organización si están comprometidos (por ejemplo, propiedad intelectual fundamental) y reevaluar los controles de seguridad y acceso que los rodean.
De la prevención a la predicción de amenazas, la ciberseguridad se acerca a un hito histórico
A medida que la IA cruza un nuevo umbral, las predicciones de seguridad a escala son cada vez más tangibles. Aunque los primeros casos de uso de seguridad de la IA generativa se centran en el front end, mejorando la productividad de los analistas de seguridad, cada vez es más probable ver cómo la IAG tiene un impacto transformador en el back end para re imaginar la detección y respuesta. La tecnología está ahí y las innovaciones han madurado. La industria de la ciberseguridad pronto alcanzará un hito histórico, logrando predicción a escala