La IA generativa cambia el paradigma de la ciberseguridad

En la hoja de ruta para la integración de la IA, las empresas enfatizan la importancia del gobierno de datos y de encontrar casos de uso que generen valor para la organización.

En la era digital, la ciberseguridad se ha convertido en uno de los principales retos de las empresas. La aparición de tecnologías disruptivas como la IA generativa ha cambiado las reglas del juego y constituye a la vez una oportunidad y una amenaza, en la medida en que abre la puerta a riesgos hasta ahora desconocidos. La necesidad de que las organizaciones se adapten a este escenario se debatió en el encuentro IA Generativa: Una nueva frontera para la ciberseguridad, organizado por EXPANSIÓN en colaboración con Capgemini.

“Recibimos principalmente ataques que utilizan ingeniería social, que es el área en la que la IA generativa es más fuerte hoy en día”, explica Diego Martínez Blanco, responsable global de Tecnología para la Seguridad de BBVA. Es decir, esta tecnología es especialmente útil para la creación rápida y automatizada de contenidos, facilitando y abaratando a los ciberdelincuentes el phishing. Martínez Blanco advirtió que “los efectos de estos ataques son preocupantes porque sus consecuencias pueden ser muy graves, incluyendo daños reputacionales y personales”.

Novedad

Aunque la IA es una tecnología con la que las grandes empresas ya trabajan desde hace años, “la IA generativa ha supuesto un cambio importante porque es capaz de crear información, analizar documentación e interactuar con el usuario de forma natural”, afirma Esther Mateo, general director de seguridad, procedimientos y sistemas corporativos de Adif. Esta evolución requiere un esfuerzo adicional por parte de las organizaciones. “Hay que ser cautos porque implica cambios en la integridad de los datos, la protección de la privacidad y riesgos”, afirmó Esther Mateo.

En la misma línea, “el principal desafío son los riesgos inherentes al uso de esta tecnología: es importante estar preparados para el tipo de ataques que esta tecnología facilita”, destacó Raúl Bartolomé, director general de Insights & Data de Capgemini España. . En este sentido, añadió que es fundamental entender qué información se ha utilizado para crear este tipo de herramientas, qué datos se aportarán para su mejora y qué mecanismos se deben incorporar para que no se pervierta su uso. “Es una herramienta que, con un uso adecuado, puede ayudarnos a estar más preparados ante ataques, pero también puede ser peligrosa”, afirmó Bartolomé.

De momento, “estamos viendo el impacto de la IA generativa en términos de phishing, con mayor cantidad y más elaborado que nunca”, confirma Santi Romeu, jefe de la unidad de ciencia y datos y experto en IA de la Agencia. Ciberseguridad de Cataluña. De cara al futuro, “se prevé que habrá suplantaciones de voz e imagen muy avanzadas, por lo que nos estamos centrando en ganar capacidades para hacer frente a lo que pueda venir”. El aumento exponencial de las ciberamenazas es una realidad, tal y como señaló Romeu, que añadió que la Generalitat de Cataluña recibe una media de unos 4 millones de ciberataques al año.

“La IA generativa está dando a los atacantes capacidades que antes no tenían, y no dudan en utilizarlas para obtener el máximo beneficio de cada ataque”, coincide Andrés Peral, director de seguridad de sistemas de información de Mapfre. Pese a todo, la falta de madurez de esta tecnología hace que las organizaciones deban adaptar su estrategia a los continuos cambios. Más allá de las incógnitas, Peral destacó que “la IA será una necesidad para sobrevivir los próximos años en el mundo de la seguridad: aportará más ventajas que riesgos”.

Desde el punto de vista de los fabricantes de software, “una de las cuestiones que nos preocupa es cómo mejorar la detección de amenazas, para que los componentes que diseñamos tengan funcionalidades que nos permitan detectar amenazas e incluso protegernos”, explica Beatriz Martínez Candano. , Director de Seguridad del Cliente de Ericsson España. De esta forma, la compañía utiliza la IA en diferentes puntos del proceso de desarrollo del producto, como por ejemplo analizando posibles vulnerabilidades. Martínez Candano indicó que “este proceso debe dotarse de un marco de gobernanza”.

Rafael Ceres, CISO global de Iberdrola, coincidió en que “hay oportunidades pero es fundamental tener precaución; el primer paso es tener un modelo de gobernanza”. Ceres destacó que la clave está en los casos de uso: “El despliegue de estas tecnologías muchas veces se ve como una carrera, pero no se trata de llegar primero, sino de hacerlo con el caso de uso disruptivo que realmente agrega valor”. “.

Además de esta capacidad de amplificar los ataques de ingeniería social, “una cuestión clave es la seguridad de los datos de la IA, también en relación con la cadena de suministro. Será necesario asegurar que las herramientas propias y de terceros hayan sido entrenadas correctamente”. “advirtió Andrés de Benito, director y responsable de ciberseguridad de Capgemini España. Si un modelo de IA se entrena con datos incorrectos, todos los resultados también serán malos. Esto hace necesario “establecer un nuevo entorno de control” para garantizar la confiabilidad de la información.

 
For Latest Updates Follow us on Google News