Cómo aprovechar la IA en defensa

Cómo aprovechar la IA en defensa
Cómo aprovechar la IA en defensa

La IA generativa (GenAI) se ha convertido en una de las tendencias tecnológicas más candentes del último año y ha atraído mucha atención. El rápido desarrollo de grandes modelos de lenguaje (LLM) y herramientas como ChatGPT ha impulsado a las organizaciones a explorar los beneficios potenciales de GenAI. Aunque es posible que estemos alcanzando la cima de expectativas algo infladas en torno a esta tecnología, es crucial que los administradores de seguridad sepan cómo ver su gama más amplia de aplicaciones.

Muchos proveedores de seguridad han estado incorporando inteligencia artificial (IA), en particular aprendizaje automático (ML), durante años para mejorar la efectividad de las soluciones y mejorar sus capacidades. La IA tiene un inmenso potencial para fortalecer la seguridad de las organizaciones y permitir a los defensores adelantarse a las amenazas. Sin embargo, es necesario reconocer que la IA tiene varios casos de uso. Por ejemplo, las funciones basadas en IA/ML son tan buenas como los datos y procesos utilizados para entrenar los modelos, incluido el tamaño y la calidad de los conjuntos de datos, el seguimiento de los cambios en la distribución de los datos, etc. La complejidad de la tecnología crea obstáculos y limitaciones adicionales; Y a pesar de la capacidad de la IA para superar a los humanos en algunas tareas complejas, no siempre es el enfoque más eficaz.

En esencia, la IA no es una solución única para los problemas de seguridad. Al avanzar en defensa, considere la amplitud de los casos de uso de la IA y haga preguntas detalladas a los proveedores de seguridad para comprender qué soluciones son las más adecuadas para una organización.

Promesas y capacidades de las defensas basadas en IA

Los sistemas de inteligencia artificial son especialmente hábiles para identificar patrones en cantidades masivas de datos y hacer predicciones basadas en ellos. Tomemos como ejemplo las estafas de desvío de nómina para ver los beneficios de la IA: estos ataques de correo electrónico empresarial (BEC, por sus siglas en inglés) cada vez más comunes evitan sistemáticamente la detección. Según las evaluaciones de Proofpoint, se descubrió que más de 400 amenazas de desvío de nómina habían eludido 12 herramientas de seguridad de correo electrónico solo en un mes.

Son ataques difíciles de detectar, porque no suelen contener cargas útiles como enlaces o archivos adjuntos. Además, las soluciones tradicionales de seguridad de correo electrónico basadas en API analizan las amenazas después de la entrega, lo que requiere mucho tiempo por parte de los equipos de TI o de seguridad para alimentar la herramienta con datos. Debido a que este enfoque no es escalable, muchos equipos optan por implementar estos controles sólo para un grupo selecto, como los altos ejecutivos. Sin embargo, los ciberdelincuentes se dirigen a una categoría mucho más amplia de personas dentro de una organización cuando llevan a cabo ataques de desvío de nómina.

Ahí es donde las herramientas basadas en IA/ML, incluida la IA generativa (GenAI), ofrecen una gran ventaja. La detección de amenazas basada en IA/ML, junto con la detección previa a la entrega basada en LLM, se pueden utilizar para interpretar el tono contextual y la intención de un correo electrónico. Este enfoque de entrega previa protege a la organización al bloquear correos electrónicos fraudulentos y maliciosos antes de que lleguen al personal, lo que minimiza en gran medida la exposición a amenazas como BEC.

No todas las herramientas de IA son iguales

Para funcionar correctamente, las soluciones de IA y ML necesitan grandes cantidades de datos de alta calidad, ya que los modelos aprenden de patrones y ejemplos en lugar de reglas. Entrenar estos modelos con millones de correos electrónicos diarios de un ecosistema global de inteligencia sobre amenazas, como Proofpoint, garantiza una detección de mayor fidelidad y brinda a los equipos de seguridad una mayor confianza en la efectividad de su seguridad.

Por lo tanto, antes de adoptar nuevas soluciones basadas en IA y ML, se deben hacer preguntas a los proveedores como:

  • ¿De dónde se obtienen los datos para entrenar los algoritmos? Obtener datos para aplicaciones de IA de uso general es fácil, pero los datos de inteligencia sobre amenazas no son tan abundantes. Los datos de capacitación utilizados por el proveedor deben reflejar no sólo escenarios del mundo real, sino también las amenazas específicas que enfrenta una organización y su personal.
  • ¿Qué utiliza en la detección para complementar la IA/ML? La tecnología inteligente no es tan eficiente, efectiva o confiable para algunos tipos de amenazas. Es crucial que una solución de seguridad integre otras técnicas, como reglas, firmas o procesos “humanos en el circuito” en los que participen personas.

Incluso antes de entrar en estos detalles, es necesario evaluar si la IA es óptima para los desafíos específicos de una organización y las personas que la integran. Los modelos de IA son complejos y requieren mucha computación y su ejecución puede tardar más que una funcionalidad menos complicada. A veces, las técnicas basadas en reglas son más efectivas, especialmente cuando es necesaria una respuesta rápida. Hay que ver qué objetivo de seguridad se intenta alcanzar y qué camino es el mejor para abordarlo.

Aún sin pronunciamiento sobre GenAI

Muchos proveedores de seguridad han estado integrando silenciosamente la IA durante años, pero los esfuerzos de GenAI deben volverse mucho más visibles.

Por un lado, GenAI se está adentrando mucho más en el ciclo de publicidad que cualquier otra tecnología anterior. Incluso los gobiernos, que normalmente reaccionan con lentitud, ya han hecho sonar la alarma, como lo demuestra la orden ejecutiva del presidente de Estados Unidos para abordar los riesgos de esta tecnología en rápido crecimiento.

Mientras la comunidad de seguridad intenta comprender las implicaciones de la IA, no podemos ignorar el hecho de que los ciberdelincuentes también pueden utilizarla en su beneficio, por lo que es un arma de doble filo.

GenAI, en particular, se ha convertido en el área de preocupación de más rápido crecimiento para las organizaciones. Los equipos de TI y seguridad se están tomando en serio esta amenaza, y los líderes empresariales también están alineados. En una encuesta global realizada por Proofpoint el año pasado a más de 600 miembros de la junta directiva, el 59% cree que las tecnologías emergentes como GenAI representan un riesgo de seguridad para su organización.

Los atacantes ya están aprovechando esta tecnología, utilizando LLM de código abierto para desarrollar herramientas maliciosas como WormGPT, FraudGPT y DarkBERT. Estos permiten a los atacantes crear mejores correos electrónicos de phishing y traducirlos a varios idiomas.

No hay duda de que la IA generativa abre nuevas posibilidades para nuestros adversarios, pero al menos por ahora, muchas de las preocupaciones que la rodean pueden ser algo exageradas. Los atacantes no se darán por vencidos ni reinventarán sus tácticas mientras sigan siendo lucrativas, por lo que los defensores deben centrarse en las amenazas más inmediatas y asegurarse de contar con protecciones básicas.

Autor: Daniel Rapp, vicepresidente de IA/ML en Proofpoint
 
For Latest Updates Follow us on Google News