Ni EE.UU. suelta cocodrilos para frenar la migración ni el Louvre se ha incendiado: cómo detectar si una imagen ha sido generada con IA

Ni EE.UU. suelta cocodrilos para frenar la migración ni el Louvre se ha incendiado: cómo detectar si una imagen ha sido generada con IA
Ni EE.UU. suelta cocodrilos para frenar la migración ni el Louvre se ha incendiado: cómo detectar si una imagen ha sido generada con IA

Estados Unidos tampoco ha liberado “8.000 cocodrilos en el Río Grande” para impedir el cruce de migrantes, ni ha incendiado la pirámide del Museo del Louvre. Tampoco han encontrado este pulpo gigante en la orilla de una playa, Big Foot o el monstruo del Lago Ness. Toda esta desinformación surge a partir de imágenes generadas con inteligencia artificial. Mientras empresas tecnológicas como Google, Meta y OpenAI intentan detectar contenidos creados por IA y crear marcas de agua resistentes a manipulaciones, los usuarios se enfrentan a un difícil desafío: discernir si las imágenes que circulan en las redes sociales son reales o no. . Aunque en ocasiones es posible hacerlo a simple vista, existen herramientas que pueden ayudar en casos más complejos.

Generar imágenes con inteligencia artificial es cada vez más sencillo. “Hoy en día, cualquiera, sin conocimientos técnicos, puede escribir una frase en una plataforma como DALL-E, Firefly, Midjourney u otro modelo basado en mensajes y crear un contenido digital hiperrealista”, afirma Jeffrey McGregor, director ejecutivo de Truepic. una de las empresas fundadoras de la Coalition for Content Provenance and Authenticity (C2PA), que busca crear un estándar que permita verificar la autenticidad y procedencia del contenido digital. Algunos servicios son gratuitos y otros ni siquiera requieren una cuenta.

“La IA puede crear imágenes increíblemente realistas de personas o eventos que nunca sucedieron”, dice Neal Krawetz, fundador de Hacker Factor Solutions y FotoForensics, una herramienta para comprobar si una imagen puede haber sido manipulada. En 2023, por ejemplo, se volvió viral una imagen del Papa Francisco con un abrigo de plumas de Balenciaga y otras del expresidente de Estados Unidos, Donald Trump, huyendo de la policía para evitar ser arrestado. Krawetz destaca que este tipo de imágenes pueden usarse para influir en opiniones, dañar la reputación de alguien, crear información errónea y proporcionar contexto falso en torno a situaciones reales. De esta manera, “pueden erosionar la confianza en fuentes que de otro modo serían confiables”.

Las herramientas de inteligencia artificial también se pueden utilizar para representar falsamente a personas en posiciones sexualmente comprometedoras, cometiendo delitos o acompañadas de delincuentes, como señala VS Subrahmanian, profesor de informática en la Universidad Northwestern. El año pasado, decenas de menores extremeños denunciaron que circulaban fotografías falsas de ellos desnudos creadas por AI. “Estas imágenes pueden utilizarse para extorsionar, chantajear y destruir las vidas de líderes y ciudadanos comunes y corrientes”, afirma Subrahmanian.

Y no sólo eso. Las imágenes generadas por IA pueden suponer una grave amenaza para la seguridad nacional: “Pueden utilizarse para dividir a la población de un país enfrentando a un grupo étnico, religioso o racial contra otro, lo que podría provocar disturbios y disturbios políticos a largo plazo. ”. Josep Albors, director de investigación y sensibilización de la empresa de seguridad informática ESET en España, explica que muchos bulos se basan en este tipo de imágenes para generar polémica y provocar reacciones. “En un año electoral en muchos países, esto puede inclinar la balanza hacia un lado o hacia el otro”, afirma.

Trucos para detectar imágenes generadas con IA

Expertos como Albors aconsejan desconfiar de todo lo que ocurre en el mundo online. “Tenemos que aprender a vivir con que esto existe, que la IA genera realidades paralelas, y simplemente tenerlo en cuenta cuando recibimos contenido o vemos algo en las redes sociales”, afirma Tamoa Calzadilla, editora jefe de Factchequeado, una iniciativa de Maldita.es y Chequeado para combatir la desinformación en español en Estados Unidos. Saber que una imagen puede haber sido generada por IA “es un gran paso para no dejarse engañar y compartir información errónea”.

Algunas imágenes de este tipo son fáciles de detectar con solo fijarse en detalles de las manos, los ojos o los rostros, como afirma Jonnathan Pulla, fact-checker de Factchequeado. Es el caso de una imagen creada con IA del presidente Joe Biden vistiendo uniforme militar: “Se nota por los diferentes tonos de piel de su rostro, los cables telefónicos que no van a ninguna parte y la frente de un tamaño “desproporcionado”, la muerte de uno de los soldados que aparecen en la imagen”.

También pone como ejemplo algunas imágenes manipuladas del actor Tom Hanks posando con camisetas con mensajes a favor o en contra de la reelección de Donald Trump. “Eso [Hanks] “Tiene la misma pose y sólo cambia el texto de la camiseta, que su piel es muy suave y su nariz irregular indican que pueden haber sido creados con herramientas digitales, como la inteligencia artificial”, explican los verificadores de Maldita.es al respecto. Imágenes, que se volvieron virales a principios de 2024.

Muchas imágenes generadas por IA pueden ser identificadas a simple vista por un usuario entrenado, especialmente aquellas generadas por herramientas gratuitas, según Albors: “Si nos fijamos en los colores, muchas veces notaremos que no son naturales, que todo parece arcilla de moldear. y que, incluso, algunos componentes de estas imágenes se fusionan entre sí, como el pelo en la cara o varias prendas de vestir entre sí”. Si la imagen es de una persona, el experto sugiere observar también si hay algo anormal en sus extremidades.

Si bien los lectores de imágenes de primera generación cometieron “errores simples”, han mejorado notablemente con el tiempo. Así lo indica Subrahmanian, quien destaca que antes representaban frecuentemente personas con seis dedos y sombras antinaturales. También exhibieron incorrectamente letreros en calles y tiendas, cometiendo “errores ortográficos absurdos”. “Hoy en día, la tecnología ha superado en gran medida estas deficiencias”, afirma.

Herramientas para identificar imágenes falsas

El problema es que ahora “una imagen generada por IA ya resulta prácticamente indistinguible de una real para muchas personas”, como apunta Albors. Existen herramientas que pueden ayudar a identificar este tipo de imágenes como AI or NOT, Sensity, FotoForensics o Hive Moderation. OpenAI también está creando su propia herramienta para detectar contenidos creados por su generador de imágenes, DALL-E, tal y como anunció el pasado 7 de mayo en un comunicado.

Este tipo de herramientas, según Pulla, son útiles como complemento a la observación, “ya ​​que en ocasiones no son muy precisas o no detectan algunas imágenes generadas por la IA”. Los verificadores de Factchequeado suelen utilizar Hive Moderation y FotoForensics. Ambos se pueden utilizar de forma gratuita y funcionan de forma similar: el usuario sube una foto y solicita que la examinen. Si bien la moderación de Hive ofrece un porcentaje de la probabilidad de que el contenido haya sido generado por IA, los resultados de FotoForensics son más difíciles de interpretar para alguien sin conocimientos previos.

Al subir la imagen de los cocodrilos que supuestamente han sido enviados por EE.UU. al Río Grande para impedir el paso de migrantes, del Papa con el abrigo de Balenciaga o una de un satánico happy lunch de McDonald’s, Hive Moderation da un 99,9% posibilidad de que ambos fueran generados por IA. Sin embargo, con la foto manipulada de Kate Middleton, Princesa de Gales, indica que la probabilidad es del 0%. En este caso, Pulla encontró útiles Fotoforensics e Invid, que “pueden mostrar ciertos detalles alterados en una imagen que no son visibles”.

Los resultados de la herramienta Hive Moderation con la imagen de los cocodrilos supuestamente liberada por Estados Unidos.Factchequeado/Maldita.es.

Pero ¿por qué es tan complicado saber si una imagen ha sido generada con inteligencia artificial? La principal limitación de estas herramientas, según Subrahmanian, es que carecen de contexto y conocimiento previo. “Los seres humanos utilizan su sentido común todo el tiempo para separar las afirmaciones reales de las falsas, pero los algoritmos de aprendizaje automático para la detección de imágenes falsas han avanzado poco en este sentido”, afirma. El experto cree que cada vez será más improbable saber con un 100% de certeza si una foto es real o generada por IA.

Incluso si una herramienta de detección fuera precisa el 99% de las veces al determinar si el contenido fue generado por IA o no, “esa brecha del 1% a escala de Internet es enorme”. En sólo un año, la IA generó 15 mil millones de imágenes. Así lo indica un informe de Everypixel Journal, que destaca que “la IA ya ha creado tantas imágenes como fotógrafos han tomado en 150 años”. “Cuando todo lo que se necesita es una imagen convincentemente fabricada para degradar la confianza, 150 millones de imágenes no detectadas es una cifra bastante preocupante”, dice McGregor.

Aparte de los píxeles manipulados, McGregor enfatiza que también es casi imposible identificar si los metadatos de una imagen (hora, fecha y ubicación) son precisos después de su creación. El experto cree que “la procedencia de los contenidos digitales, que utilizan criptografía para marcar imágenes, será la mejor manera para que los usuarios identifiquen en el futuro qué imágenes son originales y no han sido modificadas”. Su empresa, Truepic, dice que lanzó el primer deepfake transparente del mundo con estas marcas, con información sobre su origen.

Una imagen marcada con información sobre su origen.Truepic.

Hasta que estos sistemas se implementen ampliamente, es esencial que los usuarios adopten una postura crítica. En una guía elaborada por Factchequeado, con el apoyo del Instituto Reynolds de Periodismo, existen 17 herramientas para combatir la desinformación. Entre ellos, hay varios para verificar fotos y videos. La clave, según Calzadilla, es ser consciente de que ninguno de ellos es infalible y 100% fiable. Por tanto, para detectar si una imagen ha sido generada con IA no basta con una sola herramienta: “La verificación se realiza mediante varias técnicas: la observación, el uso de herramientas y las técnicas clásicas del periodismo. Es decir, contactar con la fuente original, revisar sus redes sociales y verificar si la información que se les atribuye es cierta”.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

 
For Latest Updates Follow us on Google News
 

NEXT Se acaba el tiempo para ahorrar un 42% en este impresionante televisor LG C3 OLED de 65 pulgadas.