Advierten sobre su uso para generar deepfakes y ciberestafas

Advierten sobre su uso para generar deepfakes y ciberestafas
Advierten sobre su uso para generar deepfakes y ciberestafas

En el marco de la presentación del libro “Ciberfraudes: Criptoactivos y Blockchain” que forma parte de un colección de materiales sobre el tema. por la fiscal Daniela Dupuy, directora de la OCEDIC, profundizó en esto modalidad que impacta a nivel internacional, debido al carácter transnacional de la comisión de estas conductas delictivas, cuyos autores pueden operar desde cualquier parte del mundo.

“Los resultados de un estudio reciente mostraron que la La amenaza más importante de la IA ofensiva es su capacidad. para mejorar algunos de los ataques de ingeniería social, como el uso deepfakes para clonar la voz de los directores ejecutivos o la imagen de ciudadanos respetables”, explicó Dupuy.

TE PUEDE INTERESAR: Ulpiano Suárez y el Colegio de Arquitectos anunciaron concurso para transformar el Área de Cimentación

Mientras tanto, un informe del Carnegie Endowment for International Peace sobre la amenaza que representan los deepfakes destaca su posible intervención en diferentes formas de fraude de identidad, permitiendo a los atacantes mejorar su capacidad de engañar a la gente añadiendo autenticidad extra.

El uso de chatbots de IA, como ChatGPT, también puede fomentar actividades fraudulentas, poder ayudar a posibles estafadores a superar Errores de idioma que se suelen encontrar en los mensajes. phishing (un ejemplo de esto es una solicitud y respuesta de ChatGPT en cualquier idioma).

Es decir que estos grandes modelos de lenguaje Pueden crear mensajes de todo tipo, con excelente gramática, haciéndolos pasar por verdaderos y reduciendo la posibilidad de identificar sospechosos.

Como ejemplo está el caso de gerente de una empresa que transfirió 25 millones de dólares a varias cuentas controlado por estafadores, creyendo que la voz de su interlocutor, que le pedía que realizar las transferencias pertenecía a su jefe.

Crímenes de estafas cibernéticas con IA.jpg

Utilizan Inteligencia Artificial para realizar ciberestafas y las principales víctimas son corporaciones empresariales

O el caso del estafador que mantuvo video chats con un empleado de la empresa, indicando el paso a paso de una transferencia millonario a una empresa en Japón, pero esas conversaciones fueron en realidad manipulado utilizando videoclips accesibles públicamente del verdadero jefe de la víctima.

TE PUEDE INTERESAR: Bonos educativos: más de 350.000 familias con alumnos en colegios privados ya se inscribieron

En cuanto a la prevención de estafas en línea que utilizan imágenes, vídeos y audio generados por IA, Se ha detectado que los mecanismos para identificarlos suelen pasar por detrás de las herramientas que los producen.

“En OCEDIC trabajamos desde amplificación y prevención buscando educar e informar a especialistas y ciudadanos. En este sentido, es fundamental que el Los usuarios analizan la situación antes de responder a cualquier mensaje que reciben a través de las TIC y, por otro lado, incluir protocolos dentro de los Programas de Cumplimiento corporativos, que tienen un doble verificación de solicitudes de acciones potencialmente perjudiciales, como transferencias o cambios en la información de las cuentas bancarias de los proveedores”, concluyó Dupuy.

 
For Latest Updates Follow us on Google News
 

PREV estaban en un pozo de más de 15 metros de profundidad
NEXT Lotería de visas 2025: cómo saber si fui seleccionado | Estados Unidos nnda nnlt