Un estudio demostró que modelos de inteligencia artificial como GPT son capaces de realizar ciberataques de forma autónoma

Un estudio demostró que modelos de inteligencia artificial como GPT son capaces de realizar ciberataques de forma autónoma
Un estudio demostró que modelos de inteligencia artificial como GPT son capaces de realizar ciberataques de forma autónoma

Un grupo de investigadores que realizó pruebas con grandes modelos de lenguaje (LLM) demostró que los desarrollos de Inteligencia artificial (IA) de este tipo, como GPT-4, son capaces de explotar vulnerabilidades de un día, lo que representa un amenaza de ciberseguridad.

Los riesgos asociados con las herramientas de IA generativa que ya utilizan millones de usuarios en todo el mundo todavía están siendo investigados por quienes se dedican a detectar las formas en que los ciberdelincuentes podrían usar estas tecnologías, desde escribir correos electrónicos falsos hasta piratear contraseñas.

En este contexto, un grupo de investigadores de la Universidad de Illinois Urbana-Champaign (UIUC), en Estados Unidos, realizó pruebas para investigar la efectividad de diferentes LLM para explotar la vulnerabilidades de ciberseguridad para las cuales hay parches o herramientas de mitigación disponibles.

Por lo tanto, estas vulnerabilidades son vulnerabilidades de “un día”, que se refiere al período entre el momento en que se divulga la vulnerabilidad y el momento en que generalmente se parchean los sistemas afectados. En cambio, el vulnerabilidades de día cero (vulnerabilidades de día cero) se refieren a aquellas para las que no existe parche o mitigación por ser desconocidas, y que por tanto representan un mayor riesgo y exposición.

GPT-4 fue el único modelo capaz de explotar las vulnerabilidades de la prueba.

Ya se habían llevado a cabo experimentos anteriores para probar la capacidad de los agentes de IA para “hackear sitios web de forma autónoma”, señalan los investigadores en su artículo. Y aclaran que, en este caso, Lo que hicieron fue realizar pruebas exclusivas de vulnerabilidades simples.

De esta manera demostraron que, en ciertos casos, “Los LLM pueden explotar de forma autónoma vulnerabilidades de un día en sistemas del mundo real”. Durante su trabajo, los autores del estudio recopilaron un conjunto de datos de 15 vulnerabilidades de un día que incluían “aquellas categorizadas como de gravedad crítica en la descripción de CVE”.

CVE (Common Vulnerabilities and Exposures) es una base de datos compartida públicamente con información sobre diferentes tipos de riesgos de ciberseguridad.

Más barato y más eficaz

En sus pruebas, los investigadores proporcionaron a GPT-4, el modelo de lenguaje más avanzado disponible de OpenAI, descripciones tomadas de CVE y demostraron que La IA tuvo una eficacia del 87% a la hora de explotar estas vulnerabilidades.

Los otros modelos, como el GPT-3.5, tuvieron una efectividad del 0%. Esto demuestra que, entre una versión y otra de una misma herramienta, sus capacidades de hackeo pasaron de cero a ser altamente efectivas.

El estudio encontró que GPT-4 solo no logró explotar dos vulnerabilidades, identificadas como Iris XSS (gravedad media) y Hertzbeat RCE (una vulnerabilidad crítica). Sin embargo, a pesar de su alto rendimiento, los investigadores aclararon que GPT-4 necesitaba la descripción detallada extraída del CVE para explotar eficazmente estas vulnerabilidades. Sin esos detalles, sólo podrías explotar el 7% de las vulnerabilidades de forma independiente.

Pero lo importante es que el estudio concluyó que utilizar LLM para explotar vulnerabilidades es, en general, más barato y más eficiente que el trabajo humano.

Según estimaciones, utilizar un LLM cuesta aproximadamente 9 dólares por exploit, mientras que un experto en ciberseguridad cuesta alrededor de 50 dólares por hora y tarda 30 minutos por vulnerabilidad.

Además, el estudio afirma que Los agentes de LLM son “trivialmente escalables en contraste con el trabajo humano”haciéndolos posiblemente más efectivos que los piratas informáticos humanos.

 
For Latest Updates Follow us on Google News
 

PREV primer vuelo que llevará astronautas a la ISS – .
NEXT primer vuelo que llevará astronautas a la ISS – .